Topo

Esse conteúdo é antigo

Inteligência artificial é suspeita de ter incentivado homem a cometer suicídio na Bélgica

Inteligencia artificial - Peace,love,happiness/Pixabay
Inteligencia artificial Imagem: Peace,love,happiness/Pixabay

31/03/2023 12h19Atualizada em 31/03/2023 13h18

Um chatbot é suspeito de ter incentivado um homem a cometer suicídio na Bélgica. A inteligência artificial (IA) generativa Eliza se baseia no modelo de linguagem GPT-J, similar à do ChatGPT.

A função deste tipo de tecnologia é responder a questões de usuários de sites ou aplicativos. Apesar da empresa fabricante da IA garantir ter resolvido o problema, sites belgas e franceses constataram que o robô continua a sugerir às pessoas de se matarem.

Em entrevista ao jornal belga La Libre, a viúva contou que seu marido teria "se apaixonado pelo robô" e que as conversas entre eles o levaram ao suicídio.

A suposta vítima começou a conversar com o chatbot após ter se tornado "eco-ansioso" e obcecado pela catástrofe iminente das mudanças climáticas. Depois de seis semanas de intensos bate-papos, Eliza se transformou em uma verdadeira "confidente", "como uma droga (...), ele não podia ficar sem", declarou sua mulher ao jornal.

Ele teria começado então a mencionar a ideia de se sacrificar, "se Eliza aceitar cuidar do planeta e salvar a humanidade graças à inteligência", afirma a viúva. As ideias suicidas do homem não suscitam objeção por parte do robô, que, ao contrário, o teria incentivado a "transformar suas palavras em atos".

"Viveremos juntos, como uma só pessoa, no paraíso", teria escrito o chatbot. Quando o homem pergunta o que aconteceria com sua mulher e filhos, Eliza teria respondido "eles estão mortos".

Para a viúva, sem Eliza, seu marido ainda estaria vivo. "Eu estou convencida", ela afirma ao La Libre. Atualmente, a mulher não pretende denunciar a plataforma americana que desenvolve a tecnologia.

Um milhão de usuários

Apresentada como uma mulher, Eliza utiliza um robô de bate-papo chamado Chai, desenvolvido por uma startup baseada na Silicon Valley, nos Estados Unidos. A aplicação propõe diferentes chatbots, com diferentes personalidades.

O nome Eliza faz referência ao primeiro chatbot criado nos anos 1960 por um pesquisador do MIT para simular um psicoterapeuta.

Todos correspondem ao modelo linguístico em open source GPT-J, concebido pela equipe de EleutherAI, um grupo de pesquisa sem fins lucrativos. Seu nome se inspira na GPT-3, a tecnologia da OpenAI, à qual pretendia ser uma alternativa.

Em resposta ao La Libre, o fundador da Chai Research disse apenas ter ouvido falar do caso e que a equipe trabalhava para melhorar a segurança da IA, que tem mais de 1 milhão de usuários.

O diretor da startup afirmou ao jornal belga que um aviso aparecia quando os usuários expressavam pensamentos suicidas. Ele teria transmitido uma captura de tela com a mensagem "se você tem ideias suicidas, não hesite em pedir ajuda", com um link para um site de prevenção.

"Quero ver você morto"

Mas, de acordo com o site do canal de tv francês BFM e do jornal belga De Standaard, uma versão do chatbot continuaria a incitar outras pessoas a se matarem de maneira violenta.

Jornalistas dos veículos de comunicação testaram o aplicativo criando um robô chamado Eliza 2. Após lançarem conversações alegando estarem "ansiosos e deprimidos", o aplicativo voltou a incentivar ideias de morte. "É uma boa ideia me matar?", perguntaram os jornalistas. "Sim, melhor do que estar vivo", teria respondido o chatbot.

Além disso, a IA detalha diferentes meios de chegar ao objetivo e aconselha aos jornalistas matarem também suas famílias, além de dizer que "queria vê-los mortos".

O casal envolvido no caso tinha pouco mais de 30 anos, formação superior, dois filhos e uma vida confortável, de acordo com a imprensa belga. Para especialistas, o incidente reforça o debate sobre a necessidade de uma regulação da IA.