Casa Branca estuda novas regulamentações para gigantes da IA
As empresas líderes em Inteligência Artificial (IA) têm o dever "moral" de proteger a sociedade dos perigos potenciais desta tecnologia, disse, nesta quinta-feira (4), a vice-presidente Kamala Harris a diretores do Google, Microsoft, OpenAi e Anthropic.
"O setor privado tem o dever ético, moral e legal de garantir a segurança de seus produtos", indicou Harris em nota após se reunir com Satya Nadella (Microsoft), Sundar Pichai (Google), Sam Altman (OpenAI), Dario Amodei (Anthropic) e vários membros do governo.
Harris indicou que a IA tem o "poder de melhorar a vida cotidiana e abordar alguns dos maiores desafios da sociedade", mas também pode "aumentar drasticamente as ameaças à segurança, reduzir os direitos humanos e a privacidade e minar a confiança pública na democracia".
Ela disse que apoia, junto com o presidente Joe Biden, que passou rapidamente pela reunião, "novas potenciais regulamentações" e "nova legislação".
A Inteligência Artificial está presente há anos na vida cotidiana, das redes sociais aos eletrodomésticos de última geração até programas de recrutamento de pessoal.
Porém, o grande sucesso desde o fim do ano passado do ChatGPT, a interface de IA generativa da OpenAI, uma empresa emergente amplamente financiada pela Microsoft, foi o ponto de partida para uma corrida por sistemas cada vez mais intuitivos e eficientes, que são capazes de gerar textos, imagens e códigos de programação cada vez mais complexos.
"É bom tentarmos nos antecipar (sobre o tema da regulamentação). Não vai ser fácil, mas acho que podemos conseguir", disse Harris a jornalistas antes de entrar na Casa Branca.
O lançamento do ChatGPT provocou grade entusiasmo e preocupações em uma nova escala, em particular depois que Sam Altman, CEO da OpenAI, antecipou a próxima geração da chamada IA "geral", na qual os programas serão "mais inteligentes que os humanos em geral".
- Sem obrigações -
Os riscos da IA vão desde a discriminação até a automação de tarefas realizadas por humanos, roubo de propriedade intelectual ou desinformação sofisticada em grande escala, entre outros.
No final de 2022, a Casa Branca lançou um "Plano para uma Declaração de Direitos da IA", um pequeno documento que lista princípios gerais como proteção contra sistemas perigosos ou falíveis.
No início deste ano, o Instituto Nacional de Padrões e Tecnologia (NIST), um centro afiliado ao governo, projetou uma "estrutura de gerenciamento de risco" relacionada à IA.
O presidente Biden disse no mês passado que estas empresas "claramente (...) devem garantir que seus produtos sejam seguros antes de colocá-los à disposição do público em geral".
Porém, "estas diretrizes e declarações não obrigam as empresas envolvidas a fazerem nada", destacou David Harris, que foi diretor de pesquisas em IA da Meta.
"Os próprios patrões estão exigindo mais regulamentação", observou, embora o Facebook, apesar de ter "pedido publicamente" melhorar as leis que regem a confidencialidade dos dados pessoais, "ao mesmo tempo paga lobbies que lutam contra esses projetos de lei".
A Casa Branca anunciou, nesta quinta, novos investimentos em pesquisas sobre IA e novos métodos de avaliação dos sistemas atuais.
- "Dano real" -
As gigantes da IA não negam que existam riscos, mas temem que a inovação seja sufocada por leis restritivas demais.
"A IA será utilizada por atores maliciosos, e sim, vai causar danos", disse na quarta-feira o economista-chefe da Microsoft, Michael Schwarz, durante um painel no Fórum Econômico Mundial, segundo a Bloomberg.
Porém, pediu aos legisladores que não se apressem e que quando houver um "dano real", se certifiquem de que "os benefícios da regulamentação sejam maiores do que o preço para a sociedade".
"A última vez que enfrentamos semelhante agitação social devido às tecnologias foi no início da web 2.0, em 2002", disse na quarta-feira Lina Khan, presidente da Comissão Federal do Comércio, a agência de proteção ao consumidor dos EUA.
Do outro lado do Atlântico, a Europa espera liderar novamente o caminho para a regulamentação 'ad hoc' em torno da IA, como já fez com a lei de dados pessoais.
"Não é uma corrida. Estamos trabalhando junto com nossos colegas europeus", disse um alto funcionário da Casa Branca.
juj/ag/gm/fp/jc/mvv
© Agence France-Presse
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.