UE fecha acordo sobre regulamentação do uso da inteligência artificial
Negociadores da União Europeia (UE) fecharam, nesta sexta-feira (8), um acordo sobre uma legislação inédita em nível mundial para regular o uso da inteligência artificial (IA), anunciou o comissário europeu de Mercado Interno, Thierry Breton, encarregado de temas digitais.
"Histórico!", resumiu Breton na rede social X (antigo Twitter), depois de três dias de negociações entre os Estados-membros e o Parlamento Europeu. "Com o acordo político, a UE se torna o primeiro continente a determinar regras claras para o uso da inteligência artificial", acrescentou.
A legislação sobre inteligência artificial "é muito mais do que apenas um conjunto de regras: é uma plataforma para que as empresas e os pesquisadores da UE fiquem na frente na corrida por uma IA que seja confiável", comentou.
Ursula von der Leyen, presidente da Comissão Europeia, braço executivo da UE, saudou nas redes sociais o acordo alcançado. A legislação "é um quadro legal único para o desenvolvimento de uma IA na qual possamos confiar", assinalou.
Representantes dos países do bloco e do Parlamento Europeu tiveram jornadas exaustivas de negociações para definir o projeto de lei, ambicioso. A rodada mais recente de conversas começou na quarta-feira, mas, depois de 22 horas de negociações, as partes decidiram retomar as reuniões na manhã desta sexta.
A iniciativa foi lançada em 2021 pela Comissão Europeia, com o objetivo de bloquear o uso indevido da inteligência artificial e, ao mesmo tempo, impulsionar a inovação no setor. No entanto, as discussões foram surpreendidas pelo surgimento explosivo do programa ChatGPT, no fim de 2022. A capacidade desse dispositivo de produzir dissertações ou poemas em questão de segundos acendeu o sinal de alerta para o uso indevido da tecnologia.
O projeto de lei precisa ser aprovado no Parlamento Europeu e nos países do bloco, mas o acordo selado nesta sexta representa um passo importante para a UE.
O coração do projeto é um conjunto de regras que será imposto a sistemas considerados de alto risco, como aqueles usados em infraestrutura essencial e educação. Esses sistemas estariam sujeitos a uma série de obrigações fundamentais, como garantir o controle humano sobre os processos, o estabelecimento de documentação técnica ou a implementação de um sistema de gestão de riscos.
A legislação também prevê uma supervisão específica dos sistemas de IA que interagem com os seres humanos, que serão obrigados a informar a cada usuário quando ele estiver em contato com uma máquina.