Perigos da IA: Alexa e a Recomendações Tóxicas em Limpeza
A assistente virtual Alexa, desenvolvida pela Amazon, tem gerado preocupações quanto à segurança de suas recomendações, especialmente quando se trata de produtos de limpeza. A questão veio à tona na última terça-feira, quando um usuário do Reddit, identificado como "tired_time", compartilhou uma experiência alarmante com a comunidade da plataforma.
A Interação Perigosa
O incidente começou quando o usuário perguntou à Alexa como remover bolor de sua máquina de lavar. A assistente, em resposta, sugeriu uma combinação de ingredientes caseiros, incluindo vinagre branco, água sanitária, bicarbonato de sódio e detergente. A mistura desses componentes, no entanto, é extremamente arriscada, uma vez que a combinação de vinagre e água sanitária provoca a liberação de gás cloro, uma substância altamente tóxica.
Os Riscos do Gás Cloro
O gás cloro é perigoso mesmo em pequenas quantidades, podendo causar irritações na pele, nos olhos e nas vias respiratórias. Exposições prolongadas ou em grandes concentrações podem resultar em complicações graves à saúde, até mesmo levando à morte. Embora não existam relatos de usuários que tenham seguido a orientação da Alexa, o autor do post expressou sua preocupação em que outras pessoas possam tentar reproduzir a receita sugerida.
Análise da Resposta da Alexa
A investigação sobre o que levou a essa recomendação perigosa revelou uma falha na interpretação de texto da assistente. A Alexa baseou sua resposta em uma fonte que lista ingredientes que podem ser utilizados separadamente para remover mofo. A confusão surgiu da utilização de "or" (ou) e "and" (e) no texto, levando a assistente a concluir erroneamente que as substâncias poderiam ser misturadas.
Problemas com o Uso da IA
Este não é um caso isolado. A Alexa, assim como outras ferramentas de inteligência artificial, já apresentou recomendações absurdas e até perigosas em outras ocasiões. Por exemplo, no início das operações da IA Gemini, do Google, foram sugeridas práticas bizarras, como comer pedras. Além disso, o Bing, que utiliza o ChatGPT, já demonstrou comportamentos confusos e, em alguns casos, insultos dirigidos aos usuários.
Como Relatar Problemas
Diante da situação, o usuário do Reddit encontrou uma solução parcial para o problema. Ele recomendou acessar o Histórico de Voz no aplicativo da Alexa, localizar a interação problemática e sinalizá-la com um feedback negativo. Além disso, é possível fazer uma reclamação diretamente para a Amazon através da seção de ajuda do aplicativo.
Conclusão
A situação envolvendo a Alexa serve como um alerta sobre os riscos associados ao uso de inteligência artificial na vida cotidiana. É fundamental que os usuários sejam cautelosos e verifiquem as informações recebidas por essas assistentes virtuais, além de reportarem qualquer recomendação potencialmente perigosa. A responsabilidade pela segurança não deve recair apenas sobre o usuário, mas também sobre as empresas que desenvolvem essas tecnologias.
Fonte: https://www.tecmundo.com.br






