Imagens geradas por IA reforçam fake news sobre enchentes no RS

A imagem de um bebê morto, o helicóptero da Havan resgatando pessoas, corpos boiando em meio a enchente e um cavalo em cima de um telhado de uma casa coberta de água. Esses são alguns exemplos de imagens geradas por inteligência artificial que circularam em posts e mensagens sobre a tragédia climática do Rio Grande do Sul.

No entanto, imagens reais do desastre não faltam. Além disso, muitos desses conteúdos gerados por IA estão relacionados a narrativas falsas ou relatos sem comprovação. Qual a necessidade de criar esse tipo de imagem e por quê? O UOL Confere ouviu especialistas para tentar entender qual o impacto desse tipo de conteúdo nas pessoas.

'Era das realidades sintéticas'

Conteúdo aliado a narrativas. O coordenador do Laboratório de Inteligência Artificial da Unicamp, Anderson Rocha, afirma que vivemos o que é chamado de "era das realidades sintéticas". Nesse contexto, o potencial de criação de conteúdo (imagem, vídeo, texto, áudio) se alia às narrativas. "Com isso, você consegue criar realidades alternativas", explica. O que se aplica tanto para o bem quanto para o mal.

Você pode criar, por exemplo, um storytelling, uma história que seja positiva com fins benignos. Ou, por outro lado, criar histórias que levam à desinformação. Anderson Rocha

Distinção do que é real. Para a pesquisadora Cristina Godoy, do Grupo de Pesquisa Direito Ética e Inteligência Artificial da USP, a geração de imagens por IA pode fazer com que as pessoas tenham dificuldade de diferenciar o que é realidade e o que é ficção. E no contexto da tragédia, se torna ainda mais importante mostrar o que é real.

As tragédias chamam muito a atenção dos indivíduos. É importante apresentar aquilo que é real, o que aconteceu. E é importante para a gente aprender, saber o que essa tragédia causou, impactou, por determinados tipos de omissões, por determinados tipos de problemas, ou avisos que não foram seguidos e assim por diante. A realidade sempre é muito importante.

Agora, aquilo que ultrapassa, que não existiu, extrapolando e tentando explorar uma situação que já é ruim para torná-la pior ainda, gerar impacto e, às vezes, gerar engajamento, a gente não pode deixar de analisar qual foi o objetivo da pessoa.
Cristina Godoy

Bebê morto boiando

Áudio viral e imagem de bebê boiando. Logo nos primeiros dias após a chuva do início de maio, um áudio viralizou nas redes sociais. Nele, uma pessoa relatava que uma criança teria pedido que ela resgatasse uma boneca na enchente e, ao puxar o braço do brinquedo, o socorrista percebeu se tratar de um bebê morto. Não foi possível verificar a autenticidade do relato, mas nenhum órgão confirmou a história. Em poucos dias, uma imagem representativa do bebê boiando, gerada por inteligência artificial, foi compartilhada nas redes. As legendas indicavam a relação com o áudio.

Continua após a publicidade

Materialidade de relatos não verificáveis. Para o jornalista Matheus Soares, do site Desinformante e pesquisador mestre pela ECA-USP, especializado em temas de desinformação, essas imagens dão "corpo" a narrativas que circulam nas redes.

Esses conteúdos sintéticos podem surgir a partir de um boato, a partir de relatos que não dá para verificar a autenticidade, como a questão do bebê. E a partir disso, a partir de um áudio do WhatsApp, por meio desses conteúdos gerados por IA, esse boato ganha cara, ganha, de certa maneira, materialidade, entre muitas aspas. Então fica mais difícil, inclusive, você questionar isso para uma pessoa no cotidiano.

E quando essas imagens vêm acompanhadas desses relatos, desses boatos, dessas informações inverídicas, elas ganham cada vez mais peso, podendo aumentar ali o medo, o receio, a situação mais crítica que a pessoa está.
Matheus Soares

Pilha de corpos

Corpos boiando. Outra desinformação que circulou logo no início do mês dava conta de que havia "300 corpos boiando" no município de Canoas (RS), o que não é verdade. No entanto, uma imagem gerada por inteligência artificial começou a circular nas redes para reforçar a alegação, que não foi confirmada por nenhum órgão ou autoridade que atua nos resgastes no estado ou mesmo registrada por voluntários ou imprensa.

Imagem gerada por IA mostra corpos boiando; desinformação sobre o fato foi verificada logo após os primeiros dias da enchente
Imagem gerada por IA mostra corpos boiando; desinformação sobre o fato foi verificada logo após os primeiros dias da enchente Imagem: Arte/UOL sobre Reprodução
Continua após a publicidade

Quatro sugestões. Para o pesquisador da Unicamp Anderson Rocha, há quatro ações que podem ser feitas simultaneamente para melhorar o cenário das "realidades sintéticas":

  1. Investimento em técnicas de detecção desse tipo de conteúdo;
  2. Investimento e cobrança em relação a uma regulamentação sobre o que pode ou ser feito com essa tecnologia;
  3. Padronização de formatos, ou seja, que as empresas que geram esse tipo de software tenham alguma marcação digital que mostre que é um conteúdo criado por uma plataforma desenvolvida por elas;
  4. Educação, sobretudo tecnológica, para que as pessoas possam pensar criticamente sobre esse tipo de imagem.

Resgate do helicóptero da Havan

Helicóptero da Havan. Outra alegação desmentida pelo UOL Confere foi a de que o empresário Luciano Hang teria enviado mais aeronaves para auxiliar o estado do que a Força Aérea Brasileira. O empresário enviou dois helicópteros, e embora haja foto das aeronaves enviadas, uma imagem foi criada por IA e compartilhada com mensagens que afirmavam que os empresários estariam fazendo mais pelas vítimas que os governos locais e federal.

Imagem gerada por IA sobre helicóptero da Havan
Imagem gerada por IA sobre helicóptero da Havan Imagem: Arte/UOL sobre Reprodução
Helicópteros reais da Havan usados no RS
Helicópteros reais da Havan usados no RS Imagem: Reprodução/Assessoria de Imprensa Havan
Continua após a publicidade

Nós como sociedade, queremos ver algo que não existe sendo apresentado como existente? E, na realidade, abusando de uma tragédia, porque isso já ultrapassa a própria informação, e isso está querendo explorar algo para interesses próprios. A gente não considera como adequado, fere a dignidade da pessoa humana, principalmente aquelas pessoas que estão sofrendo a tragédia, claro que elas ficam mais impactadas, estão mais sensibilizadas, então é nesse sentido que a gente precisa analisar. Cristina Godoy

Cavalo caramelo no telhado

Cavalo no telhado. Uma imagem que se tornou emblemática da tragédia climática é a do cavalo, que foi nomeado de "caramelo", no telhado de uma casa completamente inundada. A imagem por si só é impactante, o animal está completamente ilhado, se equilibrando com as patas bem próximas umas das outras. No entanto, conteúdo gerado por IA foi criado em um cenário em que a casa aparece menos inundada. O conteúdo foi compartilhado nas redes acompanhado de uma mensagem sobre "resiliência".

Imagem de cavalo no telhado gerada por IA mostra casa menos inundado do que a do resgate real
Imagem de cavalo no telhado gerada por IA mostra casa menos inundado do que a do resgate real Imagem: Arte/UOL sobre Reprodução
TV flagra cavalo real ilhado no RS
TV flagra cavalo real ilhado no RS Imagem: Reprodução/GloboNews

Conteúdo sem rotulação. Matheus Soares destaca que um dos problemas da circulação desse tipo de conteúdo sintético é que eles têm sido compartilhados sem a indicação de que foram gerados por IA, apesar de propostas de plataformas de redes sociais. O Instagram, por exemplo, adicionou um mecanismo que pergunta ao usuário se ele está compartilhando uma mídia gerada por IA.

Continua após a publicidade

Povo resgata povo

Resgate em verde-amarelo. Outra imagem gerada por IA mostra pessoas com camisas do Brasil resgatando outras em meio a lama. Uma bandeira do país tremula no quadro. A imagem é compartilhada com mensagens que dizem "o povo pelo povo", ou reafirmam que voluntários e empresários estariam fazendo mais que as autoridades e órgãos de Estado.

Imagem é compartilhada com mensagens que afirmam: "o povo pelo povo"
Imagem é compartilhada com mensagens que afirmam: "o povo pelo povo" Imagem: Arte/UOL sobre Reprodução
UOL Confere

O UOL Confere é uma iniciativa do UOL para combater e esclarecer as notícias falsas na internet. Se você desconfia de uma notícia ou mensagem que recebeu, envie para uolconfere@uol.com.br.

Deixe seu comentário

Só para assinantes