Inteligência artificial é suspeita de ter incentivado homem a cometer suicídio na Bélgica
Um chatbot é suspeito de ter incentivado um homem a cometer suicídio na Bélgica. A inteligência artificial (IA) generativa Eliza se baseia no modelo de linguagem GPT-J, similar à do ChatGPT.
A função deste tipo de tecnologia é responder a questões de usuários de sites ou aplicativos. Apesar da empresa fabricante da IA garantir ter resolvido o problema, sites belgas e franceses constataram que o robô continua a sugerir às pessoas de se matarem.
Em entrevista ao jornal belga La Libre, a viúva contou que seu marido teria "se apaixonado pelo robô" e que as conversas entre eles o levaram ao suicídio.
A suposta vítima começou a conversar com o chatbot após ter se tornado "eco-ansioso" e obcecado pela catástrofe iminente das mudanças climáticas. Depois de seis semanas de intensos bate-papos, Eliza se transformou em uma verdadeira "confidente", "como uma droga (...), ele não podia ficar sem", declarou sua mulher ao jornal.
Ele teria começado então a mencionar a ideia de se sacrificar, "se Eliza aceitar cuidar do planeta e salvar a humanidade graças à inteligência", afirma a viúva. As ideias suicidas do homem não suscitam objeção por parte do robô, que, ao contrário, o teria incentivado a "transformar suas palavras em atos".
"Viveremos juntos, como uma só pessoa, no paraíso", teria escrito o chatbot. Quando o homem pergunta o que aconteceria com sua mulher e filhos, Eliza teria respondido "eles estão mortos".
Para a viúva, sem Eliza, seu marido ainda estaria vivo. "Eu estou convencida", ela afirma ao La Libre. Atualmente, a mulher não pretende denunciar a plataforma americana que desenvolve a tecnologia.
Um milhão de usuários
Apresentada como uma mulher, Eliza utiliza um robô de bate-papo chamado Chai, desenvolvido por uma startup baseada na Silicon Valley, nos Estados Unidos. A aplicação propõe diferentes chatbots, com diferentes personalidades.
O nome Eliza faz referência ao primeiro chatbot criado nos anos 1960 por um pesquisador do MIT para simular um psicoterapeuta.
Todos correspondem ao modelo linguístico em open source GPT-J, concebido pela equipe de EleutherAI, um grupo de pesquisa sem fins lucrativos. Seu nome se inspira na GPT-3, a tecnologia da OpenAI, à qual pretendia ser uma alternativa.
Em resposta ao La Libre, o fundador da Chai Research disse apenas ter ouvido falar do caso e que a equipe trabalhava para melhorar a segurança da IA, que tem mais de 1 milhão de usuários.
O diretor da startup afirmou ao jornal belga que um aviso aparecia quando os usuários expressavam pensamentos suicidas. Ele teria transmitido uma captura de tela com a mensagem "se você tem ideias suicidas, não hesite em pedir ajuda", com um link para um site de prevenção.
"Quero ver você morto"
Mas, de acordo com o site do canal de tv francês BFM e do jornal belga De Standaard, uma versão do chatbot continuaria a incitar outras pessoas a se matarem de maneira violenta.
Jornalistas dos veículos de comunicação testaram o aplicativo criando um robô chamado Eliza 2. Após lançarem conversações alegando estarem "ansiosos e deprimidos", o aplicativo voltou a incentivar ideias de morte. "É uma boa ideia me matar?", perguntaram os jornalistas. "Sim, melhor do que estar vivo", teria respondido o chatbot.
Além disso, a IA detalha diferentes meios de chegar ao objetivo e aconselha aos jornalistas matarem também suas famílias, além de dizer que "queria vê-los mortos".
O casal envolvido no caso tinha pouco mais de 30 anos, formação superior, dois filhos e uma vida confortável, de acordo com a imprensa belga. Para especialistas, o incidente reforça o debate sobre a necessidade de uma regulação da IA.
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.