Inteligência Artificial está longe de ser 'transparente', diz estudo

Os modelos de Inteligência Artificial (IA), que se multiplicaram desde o lançamento do ChatGPT, carecem de transparência e representam um risco para os aplicativos que os utilizam como base técnica, segundo um estudo da Universidade de Stanford publicado nesta quarta-feira (19). 

Um novo índice projetado e calculado por pesquisadores desta universidade californiana aponta que o modelo mais transparente entre os dez avaliados é o Llama 2, um sistema de Inteligência Artificial lançado pela Meta em julho e reutilizável livremente.

Obteve, no entanto, uma pontuação de apenas 54%, ainda muito insuficiente, segundo os autores do estudo. 

GPT-4, o modelo de linguagem criado pela Open AI - empresa financiada pela Microsoft por trás do famoso robô ChatGPT - obteve apenas 48% de transparência. 

Os outros modelos conhecidos, como o Palm-2 do Google, ou o Claude 2, da empresa Anthropic (financiada pela Amazon), aparecem ainda mais abaixo no ranking.

Todos os modelos devem tentar alcançar entre 80% e 100% de transparência, estima o diretor de pesquisa de Stanford, Rishi Bommasani, sobre os chamados modelos "de fundação". 

A falta de transparência torna mais difícil para as empresas "saberem se podem criar aplicativos seguros baseados nestes modelos de negócio" e "para os acadêmicos confiarem nestes modelos para sua pesquisa", explica o estudo. 

Isso também complica a tarefa dos consumidores que querem "compreender os limites dos modelos, ou pedir uma indenização pelos danos sofridos", detalha.

Especificamente, "a maioria das empresas não divulga o alcance dos conteúdos protegidos por direitos autorais usados para treinar seu modelo. Também não divulga o uso de mão de obra humana para corrigir os dados de treinamento, o que pode ser muito problemático", enfatiza. 

Continua após a publicidade

"Nenhuma empresa fornece informações sobre o número de usuários que dependem de seu modelo, nem fornece estatísticas sobre os países, ou mercados, que o utilizam", destaca Bommasani. 

Segundo os autores, este índice de transparência pode ser usado no futuro por autoridades políticas e reguladoras. 

União Europeia, Estados Unidos, China, Reino Unido e Canadá anunciaram seu desejo de uma IA mais transparente. 

"A Inteligência Artificial é uma grande promessa de oportunidades incríveis, mas também apresenta riscos para a nossa sociedade, para a nossa economia e para a nossa segurança nacional", destacou o presidente dos Estados Unidos, Joe Biden, em julho, aos responsáveis pelas empresas do setor. 

A questão esteve em destaque durante a reunião do G7 no Japão, em maio, e o Reino Unido se prepara para receber uma cúpula internacional sobre IA em novembro.

jub/hh/ale/mab/zm/aa/tt

Continua após a publicidade

© Agence France-Presse

Deixe seu comentário

Só para assinantes