IA pode baratear campanhas eleitorais, mas deepfake nas eleições preocupa
O uso de inteligência artificial (IA) pode influenciar o voto nas mais de 50 eleições marcadas para 2024 no mundo todo, inclusive no Brasil. A IA tem potencial para tornar as campanhas mais baratas, mas também há risco de disseminação de imagens falsas contendo desinformação, segundo especialistas.
O que aconteceu
O uso de IA generativa é um fenômeno novo, que promete mudar a trajetória das campanhas e influenciar as eleições.
Por um lado, a IA vai baratear as eleições e torná-las mais democráticas, segundo especialistas.
Por outro, há preocupação com a disseminação de mentiras, com o uso de deepfake.
O que é IA generativa? Tecnologia capaz de criar novos conteúdos, como texto, imagens, música e vídeos, baseada no uso de grandes bancos de dados.
O que é deepfake? Técnica de IA para criar imagens, vídeos ou áudios realistas. Pode ser usada para manipular rostos, vozes e ambientes, tornando difícil discernir o que é real do que é falso.
IA e eleições
Já existem alguns casos de uso de IA durante campanhas eleitorais.
Em 2023, nas eleições presidenciais da Argentina, vídeos feitos com IA mostravam tanto Javier Milei, hoje presidente, quanto Sérgio Massa, em situações constrangedoras.
No Brasil, o prefeito de Manaus, David Almeida (Avante), denunciou à Polícia Federal um áudio produzido por IA em que ele, supostamente, xinga professores. Ele nega ter feito a gravação.
Nos EUA, que também vão às urnas este ano, alguns estados proibiram o uso de IA nas eleições.
Dona do ChatGPT começa a criar normas
Mesmo sem leis definidas, as próprias empresas de IA se antecipam e criam normas para evitar punições no futuro. No começo do ano, a OpenAI, do ChatGPT, anunciou regras para impedir que desenvolvedores criem aplicações com o software para campanhas.
A plataforma ainda estuda problemas envolvendo a chamada "persuasão personalizada", quando são criados ChatGPT's com uma espécie de personalidade, defendendo ideologias de candidatos.
A OpenAI baniu um bot que imitava um candidato à Presidência dos EUA. Chamado de Dean.bot, o robô simulava ser o democrata Dean Phillips, que tenta passar pelas prévias para chegar à Casa Branca.
Newsletter
PRA COMEÇAR O DIA
Comece o dia bem informado sobre os fatos mais importantes do momento. Edição diária de segunda a sexta.
Quero receberUso de IA pode ser legítimo e reduzir custos de campanha
A IA pode auxiliar candidatos e partidos com menos recursos, de acordo com o advogado e professor da USP especializado no tema Juliano Maranhão.
Posso usar IA na geração de vídeos e áudios, com fins legítimos, para propiciar um visual mais empático para o candidato, dar mais fluidez aos discursos. Isso pode reduzir o custo de campanha.
Juliano Maranhão, diretor-presidente da Associação Lawgorithm de Pesquisa em Inteligência Artificial
IA pode ser aplicada no audiovisual da mesma forma que softwares de edição de imagens. Mas agora isso seria feito de forma mais rápida e barata, em alguns cliques.
O conteúdo pode ser adaptado, multiplicado em vários formatos. Toda redução em custo de campanha estimula o debate democrático
Juliano Maranhão, diretor-presidente da Associação Lawgorithm de Pesquisa em Inteligência Artificial
"IA não pode ser demonizada". Para Maranhão, a IA pode oferecer usos legítimos para as eleições, mas o debate hoje é prejudicado pela "catastrofização" do tema.
Isso pode ter o efeito negativo de fazer o eleitor acreditar que tudo aquilo que contém IA é abusivo. É preciso diferenciar IA de fraude. A IA vai ter muitos usos legítimos. Se houver uma regra mandando identificar o que for feito por IA, isso não significa que o conteúdo seja malicioso
Juliano Maranhão, professor da USP e diretor-presidente da Associação Lawgorithm de Pesquisa em Inteligência Artificial
Mas deepfakes são um risco
Por outro lado, as deepfakes podem levar à desinformação. Para o presidente do Clube Associativo dos Profissionais de Marketing Político (Camp), Bruno Hoffmann, elas deveriam ser proibidas nas eleições.
A deepfake empobrece a disputa e prejudica os candidatos, mesmo quando ela não contém desinformação, segundo Hoffmann. "Ela pode estar em tudo: imagens, sons e vídeos, que tentam criar essa crença de que o indivíduo ali é real. Normaliza algo que não aconteceu e estimula a criação de uma indústria de profissionais especialistas em deepfake", diz.
Hoffmann defende o uso de IA somente em áreas com menor poder na interferência da opinião pública.
Se um programa de governo for feito com ChatGPT, por exemplo, não tem problema. Isso vai agilizar o projeto, reduzir custos. Não basta apenas as peças de campanha possuírem uma advertência que descrevam o tipo de IA sendo utilizada, como propõem o TSE A regra precisa ser mais dura para combater desinformação. Imagine que, no dia das eleições, surge um vídeo deepfake anônimo dizendo que houve um problema seríssimo em uma parte da cidade onde um determinado candidato é muito forte, para o pessoal não ir votar. As pessoas vão acreditar por se tratar de um vídeo. E isso altera o resultados da eleição. Os eleitores não estão preparados. .
Bruno Hoffmann, estrategista político
Além do real uso de IA, outro problema é que candidatos podem alegar que conteúdos reais foram produzidos por IA, para "fugir de uma fala que pegou mal", por exemplo.
TSE discute regras para as eleições deste ano
O TSE tem até 5 de março para definir regras de uso de IA nas eleições, para que elas já possam valer neste ano. Tanto Hoffmann quanto Maranhão fazem parte do grupo consultado para a elaboração das novas regras.
Quem usar deepfake terá que deixar isso claro. Até o momento, uma minuta sobre as novas regras diz que a IA poderá ser utilizada pelas campanhas para ajustes de som, imagem ou vídeo com a devida sinalização do uso da tecnologia. Exceto se o conteúdo disseminar desinformação. Nesse caso, claro, não poderia haver uso de IA, mesmo sinalizado.
O importante é que a investigação do TSE busque conexões entre o conteúdo falso e o partido ou candidato. Daí, a análise deve ser rigorosa no sentido de responsabilizar quem estiver engajado em uma rede de desinformação.
Juliano Maranhão, diretor-presidente da Associação Lawgorithm de Pesquisa em IA
Nas audiências que discutem o tema no TSE, representantes das plataformas também participam. As empresas defendem que a responsabilidade pelo conteúdo seja integralmente das candidaturas. Na retaguarda, as big techs tentam emplacar funções para "carimbar" posts com IA.
Senado também quer criar leis
O Senado vai tentar votar a regulamentação geral da IA até abril, simultaneamente à discussão na Corte, disse o presidente da Casa, Rodrigo Pacheco (PSD). Se o projeto de lei for aprovado, haverá a criação de um órgão ligado à Presidência para fiscalizar a tecnologia. No texto, fica definido que os sistemas devem ter por fundamento a "transparência, explicabilidade, inteligibilidade e auditabilidade".
"Ferramentas podem ter impactos negativos". Leonardo Tomazetti, do Centro de Inteligência Artificial BI0S da Unicamp, diz que a discussão de agora é "necessária para o amadurecimento da sociedade frente à tecnologia".
O que as pessoas terão mais contato vão ser esses promtps (tipo o ChatGPT). Isso veio para ficar. Acredito que essa deve ser a agenda a curto prazo.
Leonardo Tomazeli, professor pesquisador do Centro de Inteligência Artificial BI0S da Unicamp
As eleições deste ano colocarão à prova a educação midiática e tecnológica do eleitorado, visto que ele terá que lidar com uma grande quantidade de conteúdo gerado por IA, dizem os especialistas. O cientista político Wallace de Morais diz que vai ocorrer com a IA o mesmo que aconteceu com o rádio, a TV e o WhatsApp.
Nas eleições de 2018, as redes sociais, principalmente o WhatsApp, decidiram a eleição no Brasil. Isso não aconteceu só no aqui, nos EUA também. Assim como o rádio e a televisão, as redes sociais trouxeram aspectos positivos para a democracia, como a difusão de opiniões. A IA também pode ser positiva nesse aspecto.
Wallace de Moraes, historiador e cientista político
É difícil criar uma ferramenta de identificação de conteúdo produzido por IA que seja fácil de usar e disponível. Não vejo isso no curto prazo. O melhor é desconfiar.
Leonardo Tomazeli, professor pesquisador do Centro de Inteligência Artificial BI0S da Unicamp
Deixe seu comentário