Topo

Executivos do YouTube ignoraram alertas sobre vídeos violentos e de teorias conspiratórias

Ex-funcionários do YouTube consideraram a liderança da empresa incapaz ou sem disposição de agir sobre o problema - Getty Images
Ex-funcionários do YouTube consideraram a liderança da empresa incapaz ou sem disposição de agir sobre o problema Imagem: Getty Images

Mark Bergen

03/04/2019 14h17

Um ano atrás, Susan Wojcicki estava no centro das atenções defendendo o YouTube. Sua empresa, criticada durante vários meses por propagar fatos falsos online, se recuperava de outro escândalo relacionado a um vídeo conspiratório sobre o tiroteio no colégio de Parkland, na Flórida, sugerindo que as vítimas eram "atores de crise".

Wojcicki, diretora-presidente do YouTube, é uma embaixadora pública relutante, mas esteve em Austin na conferência South by Southwest para anunciar uma solução que poderia ajudar a eliminar teorias da conspiração: uma minúscula caixa de texto de sites como a Wikipedia que seria mostrada abaixo de vídeos que questionam fatos já comprovados, como a chegada do homem à Lua, e com links para que os usuários chequem a veracidade dos fatos.

A gigante de mídia, empenhada em superar a televisão, tem faturamento estimado em mais de US$ 16 bilhões por ano. Mas, naquele dia, Wojcicki comparou o Youtube a um tipo diferente de instituição. "Somos mais como uma biblioteca", disse, adotando a conhecida postura de defensora da liberdade de expressão. "Sempre houve polêmicas, se olharmos para o passado das bibliotecas."

Desde que Wojcicki assumiu o comando, teorias conspiratórias proeminentes veiculadas na plataforma - uma sobre vacinação infantil; outra vinculando Hillary Clinton a um culto satânico - despertaram a ira de legisladores ansiosos por regulamentar empresas de tecnologia. E, um ano depois, o YouTube está ainda mais associado às áreas mais obscuras da web.

O "x" da questão não é apenas que vídeos no YouTube questionem a chegada à lua ou a eficácia das vacinas. A gigante "biblioteca", criada por usuários com pouca supervisão editorial, está fadada a ter mentiras absurdas. O problema do YouTube é que a plataforma permite que o absurdo floresça. E, em alguns casos, por meio de seu poderoso sistema de inteligência artificial, fornece até o combustível que permite sua propagação.

Pedófilos no YouTube: o lado nada cor de rosa da maior plataforma de vídeos

Leia mais

Wojcicki e sua equipe sabem disso. Nos últimos anos, dezenas de pessoas que trabalham no YouTube e no Google, dono da plataforma, chamaram a atenção sobre a quantidade de conteúdo falso, incendiário e tóxico que o maior site de vídeos do mundo exibiu e propagou.

Um funcionário queria marcar vídeos polêmicos, que violavam regras sobre discurso de ódio, e parar de recomendá-los aos usuários. Outro queria acompanhar esses vídeos em uma planilha para mapear sua popularidade. Um terceiro, irritado com a disseminação dos blogueiros de vídeo "da direita alternativa", criou um sistema interno para medir o nível de popularidade do movimento. Sempre obtiveram a mesma resposta básica: não mexam em vespeiro.

A empresa passou anos perseguindo uma meta de negócios em detrimento de outras: "engajamento", uma medida das visualizações, tempo gasto e interações com vídeos online. Conversas com mais de 20 pessoas que trabalham no YouTube ou saíram recentemente da empresa revelam uma liderança corporativa incapaz ou sem disposição de agir sobre esses alarmes internos por receio de reprimir o engajamento.

Uma porta-voz do YouTube rebateu a ideia de que Wojcicki está desatenta a essas questões e que a empresa prioriza o engajamento acima de tudo. A porta-voz disse que a plataforma passou os últimos dois anos focada em encontrar soluções para seus problemas de conteúdo. Desde 2017, o YouTube tem recomendado clipes com base em uma métrica chamada "responsabilidade", que inclui informações de pesquisas de satisfação exibidas após os vídeos. O YouTube preferiu não dar mais detalhes, mas disse que recebe "milhões" de respostas das pesquisas semanalmente.