Topo

OPINIÃO

Estratégia do TSE de regrar uso de IA nas eleições não é isenta de riscos

02.out.2022 - Eleitora vota no 1º turno das eleições gerais Imagem: TON MOLINA/ESTADÃO CONTEÚDO

Fernando Neisser e Marcela Mattiuzzo

Colunistas convidados

02/04/2024 04h00

No início de março, cumprindo a obrigação que impõe o Código Eleitoral, o TSE aprovou as resoluções que serão aplicadas às eleições de 2024. Dentre as mudanças propostas, houve grande repercussão sobre a regulamentação sugerida para o uso da Inteligência Artificial (IA) no processo eleitoral, tema que tem se colocado como grande desafio não apenas no Brasil, mas em todas as democracias.

A Resolução TSE 23.732/2024, que alterou a Resolução TSE 23.610/2019, relativa à propaganda eleitoral, foi relatada pela ministra Cármen Lúcia, que conduziu um amplo processo de diálogo com a sociedade civil, recebendo propostas em audiências públicas ocorridas no mês de janeiro.

Relacionadas

Inicialmente havia a intenção, sugerida na minuta que a relatora circulou para consulta pública, de adotar uma visão bastante liberal quanto às possibilidades de uso da IA pelas campanhas, inclusive admitindo que conteúdos sintéticos - as conhecidas deep fakes - fossem utilizadas, desde que com o intuito positivo de promoção de candidaturas e com a devida identificação.

As entidades que colaboraram com o processo, contudo, apresentaram visão mais cautelosa, com destaque para a manifestação dos profissionais da área de marketing político, reunidos na CAMP, apontando que seria extremamente arriscado o Brasil assumir, sozinho, posição permissiva quanto a esse tipo de tecnologia. Como se ponderou, ainda sabemos pouco ou quase nada sobre a influência que essa modalidade de conteúdo pode ter sobre o eleitorado. A ver pela reação emotiva despertada por peças como a propaganda que "ressuscitou" Elis Regina, veiculada em 2023, a precaução faz todo sentido.

Desse modo, a regulação do uso da IA foi tratada nos arts. 9º-B e 9º-C da resolução, estabelecendo, em um primeiro momento, que há três tipos de uso da IA, com diferentes regras a eles incidentes.

Em um primeiro grupo estão os usos corriqueiros, com a finalidade, por exemplo, de fazer ajustes em imagem e som ou criar vinhetas e outros elementos gráficos. O uso destas tecnologias é liberado, não sendo necessário fazer qualquer identificação. A regra faz sentido, uma vez que atualmente qualquer fotografia tirada com um celular, por exemplo, passa automaticamente por um processo de ajuste gráfico que se vale de ferramentas de IA, algo que não desperta, no público, maiores reações.

Já a criação de conteúdos sintéticos/artificiais ou ajustes mais avançados passam a demandar que a campanha informe, de modo claro, o eleitorado que aquele material foi produzido com o uso de IA. Há aqui uma regulação de nível intermediário, que presume que a informação transmitida aos destinatários da mensagem lhes permitirá fazer um juízo mais realista do que é apresentado.

Por fim, há usos que são terminantemente proibidos, podendo inclusive configurar abuso de poder econômico ou uso indevidos dos meios de comunicação social, o que pode acarretar a cassação de candidaturas e mandatos, bem como a imposição da pena de inelegibilidade por oito anos. Aqui estão as deep fakes, independentemente da finalidade a que se destinam - se positivas ou com intuito de ataque contra candidaturas adversárias - bem como a disseminação de desinformação potencializada pelo uso de IA. Também foram proibidos os chatbots e afins que busquem se passar pelas próprias pessoas candidatas, dando a impressão ao eleitorado de que encetaram uma comunicação direta com aquela pessoa.

Ainda no âmbito da regulamentação do TSE chama a atenção a inserção, no glossário de conceitos trazido no art. 37 da resolução, de termos ligados à IA e temas afins. Como o Brasil ainda carece de uma legislação abrangente sobre o tema, trata-se do primeiro instrumento normativo que buscou definir as próprias noções de inteligência artificial e deep fake.

A norma, construída a partir da discussão encetada atualmente na União Europeia, define inteligência artificial como "sistema computacional desenvolvido com base em lógica, em representação do conhecimento ou em aprendizagem de máquina, obtendo arquitetura que o habilita a utilizar dados de entrada provenientes de máquinas ou seres humanos para, com maior ou menor grau de autonomia, produzir conteúdos sintéticos, previsões, recomendações ou decisões que atendam a um conjunto de objetivos previamente definidos e sejam aptos a influenciar ambientes virtuais ou reais".

Já a ideia de deep fake, descrita como "conteúdo sintético", é definida como "imagem, vídeo, áudio, texto ou objeto virtual gerado ou significativamente modificado por tecnologia digital, incluída a inteligência artificial".

É importante discutir o que esse movimento feito pelo TSE pode significar para diversos outros debates de regulação de tecnologia, especialmente para aqueles que acontecem no Congresso Nacional. Para focarmos em apenas alguns casos, vale mencionar o Projeto de Lei 2630, também conhecido como "PL das Fake News", que trata de questões variadas, incluindo análise de risco sistêmico de plataformas digitais; o Projeto de Lei 2338, que buscar estabelecer o marco regulatório da Inteligência Artificial, consolidando direitos de pessoas afetadas por estes sistemas, bem como uma regulamentação pautada no risco concreto representado pela aplicação de IA em questão; e o projeto do novo Código Civil, cuja versão mais recente inclui um novo livro sobre Direito Digital.

Ainda que obviamente o escopo da resolução seja restrito, dizendo respeito às eleições municipais de 2024, é fato que a tendência natural é que seus impactos sejam mais amplos. O exemplo mais claro disso talvez seja a determinação de responsabilidade solidária dos assim chamados provedores de aplicação (ou seja, plataformas digitais) pela indisponibilização de conteúdos e de contas em casos de risco, enquanto durar esse período eleitoral. Na prática, essa regra vai no sentido contrário do quanto definido pelo art. 19 do Marco Civil da Internet, que prescreve que a responsabilização só ocorrerá se a retirada de conteúdo não for levada a cabo mesmo após ordem judicial. Vale ainda lembrar que o debate sobre a constitucionalidade deste mesmo artigo é objeto de ações pendentes de avaliação pelo Supremo Tribunal Federal (STF).

Mas há diversas outras disposições hoje debatidas no Legislativo que podem ser impactadas. O art. 37 da Resolução do TSE, mencionado acima, em especial, traz uma série delas que podem ser particularmente relevantes. Ele aborda também o conceito de impulsionamento de conteúdo, de disparo em massa, incorpora uma série de definições já constantes na Lei Geral de Proteção de Dados Pessoais - como dado pessoal, dado pessoal sensível, encarregado etc. - e avança em outras que ainda estão sendo debatidas, como perfilamento.

Há potencial de estas disposições gerarem algum tipo de sobreposição normativa, que no limite pode resultar em incoerência caso as propostas legislativas venham a ser aprovadas em sentido diverso. Se, por exemplo, a tramitação do PL 2338 avançar - e há razões contundentes para acreditar que o Senado pretende concluir a avaliação do tema ainda neste semestre, tendo em vista o fim iminente dos trabalhos da Comissão Temporária de Inteligência Artificial - e o conceito de IA adotado for distinto do conceito ofertado pelo TSE, podemos enfrentar alguma disputa sobre o tema, afinal de contas definir o que é IA é primordial para que se decida qual é o escopo de incidência da norma. De forma semelhante, definições de perfilamento podem impactar debates levados a cabo no PL 2630, que por sua vez tem diversas disposições reproduzidas no projeto de novo Código Civil.

Para além do problema de consistência do ordenamento jurídico, é importante refletir sobre que papel o TSE desempenha ao adotar resolução neste sentido. É certo que os ministros do TSE têm conhecimento do impacto potencial das disposições inseridas no novo regramento eleitoral, já que não estão alheios aos debates que permeiam o tema em outras esferas. Se é assim, parece haver uma intenção explícita de participar da discussão, buscando tornar realidade (ao menos eleitoral) alguns dos debates que ainda não foram pacificados no Legislativo.

A estratégia, compreensível ante a necessidade de tratar do tema com urgência pela ótica eleitoral, não é isenta de riscos. Evidente que o impacto no setor privado ocorrerá, e de certa maneira um esforço adaptativo para cumprir com as disposições pode tornar mais fácil uma adoção das regras de forma mais ampla. Por outro lado, há o risco de o Congresso Nacional avaliar negativamente este esforço, entendendo-o como uma tentativa de imiscuir-se na competência legislativa e assim, de maneira explícita, contrariar aquilo quanto referendado no TSE, aprovando regras em sentido oposto.

É cedo para dizer qual o efeito exato destes movimentos, mas o que sem dúvida fica claro é que o Judiciário não tem qualquer intenção de manter-se afastado da discussão. Se Legislativo e Executivo não assumirem a liderança do debate, não necessariamente estaremos diante de manutenção do status quo. Há sinais de que este vácuo - como é de praxe - será ocupado por outros agentes.

Fernando Neisser é mestre e doutor pela USP, professor de direito eleitoral da FGV/SP e membro da Abradep
Marcela Mattiuzzo é mestra e doutora pela USP, professora do MBA em IA e big data da USP

** Este texto não reflete, necessariamente, a opinião do UOL

Comunicar erro

Comunique à Redação erros de português, de informação ou técnicos encontrados nesta página:

Estratégia do TSE de regrar uso de IA nas eleições não é isenta de riscos - UOL

Obs: Link e título da página são enviados automaticamente ao UOL

Ao prosseguir você concorda com nossa Política de Privacidade


Últimas notícias