Conteúdo publicado há 17 dias

Meta sofre para conter discurso de ódio antes de eleição nos EUA, dizem pesquisadores

A Meta — proprietária do Facebook e do Instagram — enfrenta dificuldades para conter e lidar totalmente com o discurso de ódio antes das eleições nos Estados Unidos, de acordo com uma pesquisa compartilhada exclusivamente com a Thomson Reuters Foundation.

A organização sem fins lucrativos Global Witness testou como o Facebook está lidando com o discurso de ódio antes da votação presidencial, analisando 200.000 comentários nas páginas de 67 candidatos ao Senado dos EUA entre 6 de setembro e 6 de outubro.

Quando os pesquisadores da Global Witness usaram a ferramenta de denúncia do Facebook para sinalizar 14 comentários que consideraram violações especialmente graves das regras de discurso de ódio da Meta em seus "padrões de comunidade", a Meta levou dias para reagir.

Os comentários sinalizados pelos pesquisadores — alerta: contém linguagem ofensiva — referiam-se a muçulmanos como uma "praga", a judeus como "consanguíneos e parasitas" e chamavam uma candidata política de "porca lésbica".

A Meta removeu alguns, mas não todos, dos 14 comentários do Facebook após a Global Witness enviar um email diretamente à empresa, disseram os pesquisadores.

"Houve uma falha real na revisão imediata dessas publicações", disse Ellen Judson, pesquisadora da Global Witness que supervisionou o teste.

As conclusões chegam no momento em que a Meta enfrenta críticas de longa data de pesquisadores, grupos de supervisão e parlamentares por não promover um ecossistema de informações saudável durante eleições em todo o mundo.

Ainda em abril, a Comissão Europeia abriu uma investigação para avaliar se a Meta pode ter violado as regras de conteúdo online da União Europeia antes das eleições para o Parlamento Europeu.

Judson disse que a forma como o Facebook tratou os comentários sinalizados pela Global Witness aponta para uma falha em como a plataforma lidas com discurso de ódio.

Continua após a publicidade

Em um email, um porta-voz da Meta disse que o trabalho da Global Witness foi "baseado em uma pequena amostra de comentários e removemos aqueles que violavam nossas políticas".

"Isso não reflete o trabalho que nossas equipes — incluindo as 40.000 pessoas que trabalham com segurança e proteção — estão fazendo para manter nossa plataforma segura antes das eleições", disse o porta-voz.

Segundo os padrões de comunidade do Facebook, conteúdo que "ataca indivíduos com base em sua raça, etnia, nacionalidade, sexo, gênero, identidade de gênero, orientação sexual, afiliação religiosa, deficiências ou doenças é considerado uma violação".

Embora não esteja claro quantos usuários foram expostos ao discurso de ódio, Judson disse que o impacto pode ser grande.

"O abuso online pode ter um impacto psicológico negativo e fazer com que as pessoas reconsiderem sua participação na política. Para observadores externos, se deparar com esse tipo de discurso talvez dê a impressão de que esse não é um lugar para mim", disse.

"Uma pequena quantidade de abuso ainda pode causar muitos danos."

Deixe seu comentário

Só para assinantes