Topo

'Após trabalhar como moderadora na web, parei de apertar a mão das pessoas - fiquei com nojo da humanidade'

Facebook admite que a revisão "é um território não mapeado" - Facebook
Facebook admite que a revisão "é um território não mapeado" Imagem: Facebook

Jane Wakefield

15/10/2018 11h25

"Quando saí, não apertei a mão de ninguém durante três anos. Eu tinha visto o que as pessoas fazem e o quão repugnantes elas são. Não queria tocar em ninguém. Fiquei com nojo da humanidade."

A declaração de Roz Bowden se refere à época em que ela era moderadora de conteúdo no MySpace, visualizando o que havia de mais nocivo na internet, para impedir que outros usuários fossem expostos a esse tipo de material.

A função que ela desempenhava ganhou ainda mais relevância à medida que as redes sociais ampliaram sua influência e que o conteúdo gerado pelos usuários se tornou parte crucial da web.

VEJA TAMBÉM:

O Facebook conta atualmente com 7,5 mil moderadores de conteúdo, que trabalham 24 horas por dia ao redor do mundo. Com frequência, eles se deparam com fotos e vídeos que mostram atos de perversão, abuso sexual infantil, atrocidades, decapitações, torturas, estupros e assassinatos.

Uma delas está processando a rede social por trauma psicológico, após assistir a milhares de horas de conteúdo tóxico e perturbador --Selena Scola afirma que o Facebook e a Pro Unlimited, empresa que a rede social contratou para realizar o trabalho, não conseguiram manter sua segurança emocional.

Ela afirma que sofre agora de transtorno de estresse pós-traumático, como resultado do que viu online.

É provável que o caso jogue uma luz sobre o mundo sombrio da moderação de conteúdo e, antes de tudo, levante questões sobre até que ponto as pessoas deveriam fazer esse tipo de trabalho.

Sarah Roberts, professora assistente da Universidade da Califórnia, nos Estados Unidos, que estudou moderação de conteúdo nos últimos oito anos, acredita que as redes sociais podem estar levando a uma crise de saúde mental.

No MySpace, uma das primeiras redes sociais, os moderadores já viam tanto conteúdo nocivo quanto hoje - BBC - BBC
Imagem: BBC

"Não há estudos publicados que analisem as ramificações de longo prazo deste trabalho", disse ela à BBC.

"Estamos nos referindo a um grande número de pessoas - que está crescendo exponencialmente - e coletivamente devemos nos preocupar com as consequências."

Não há plano de suporte no longo prazo quando esses moderadores de conteúdo saem. Espera-se apenas que eles sejam incorporados de volta ao tecido social

Antes de trabalhar no MySpace, de 2005 a 2008, Bowden atuava na área de finanças. E ficou feliz ao voltar a seu campo inicial de atuação, quando o trabalho na rede social se tornou pesado demais.

"Eu só olho para números agora", disse ela em uma conferência no ano passado.

Mas Bowden se pergunta muitas vezes o que aconteceu com a equipe que ela ajudou a treinar e supervisionar nos primórdios das redes sociais.

"O que aconteceu com todas aquelas pessoas que assistiram a cabeças sendo arrancadas no meio da noite? É importante saber."

Quando ela começou, trabalhando no turno da noite no MySpace, havia pouca orientação sobre como desempenhar a função.

"Nós tivemos que criar as regras. Tínhamos que assistir a pornografia e nos perguntar se calcinha fio dental era nudez. Perguntar quanto sexo é sexo demais para o MySpace. Fazíamos as regras à medida que concordávamos", conta.

Devíamos permitir que uma pessoa corte a cabeça da outra em um vídeo? Não, mas e se for um desenho animado? É razoável Tom e Jerry fazerem isso?

Também não havia políticas de apoio emocional, embora ela orientasse a equipe:

"Tudo bem levantar e dar uma volta, não há problema em chorar. Só não vomitem no meu andar."

E quando se tratava de olhar para o conteúdo, ela dava o seguinte conselho:

"Desfoque o olhar e você realmente não vai ver."

Ajuda psicológica

No ano passado, o Facebook descreveu em seu blog os moderadores de conteúdo como "os heróis não reconhecidos que mantêm o Facebook seguro para todos nós".

Mas admitiu que o trabalho "não é para todos" e que só contrata pessoas "que serão capazes de lidar com os inevitáveis desafios que o papel representa".

Apesar da promessa de assistência, a rede social terceiriza grande parte deste trabalho, mesmo de funcionários, como Scola, que trabalham nas sedes da empresa em Mountain View e Menlo Park, nos EUA.

Roberts acredita que é uma maneira de se eximir da culpa.

"Esse tipo de trabalho é muitas vezes terceirizado na indústria de tecnologia. Isso traz economia de custos, mas também permite a eles um nível de distanciamento organizacional quando há casos inevitáveis como esse".

O Facebook oferece um treinamento prévio a todos os moderadores para explicar o que é esperado da função -- eles praticam pelo menos 80 horas com um instrutor, usando uma réplica do sistema, antes de serem lançados ao "mundo real".

A empresa também emprega quatro psicólogos clínicos, e todos os revisores de conteúdo têm acesso a suporte de saúde mental.

Peter Friedman dirige a LiveWorld, empresa que fornece há 20 anos moderadores de conteúdo a companhias como a AOL, eBay e Apple.

Ele disse à BBC que os funcionários raramente, ou nunca, recorrem à terapia que é oferecida.

Roberts não se surpreende:

"É uma pré-condição da função que eles consigam lidar com isso, e eles não querem que o empregador saiba que não estão conseguindo."

"Os funcionários sentem que podem ser estigmatizados se usarem esses serviços", completa.

A LiveWorld já acumula mais de um milhão de horas de moderação, e Friedman dá alguns conselhos sobre como desempenhar bem a função:

  • O modelo cultural em torno dos moderadores é crucial. Você tem que fazer com que eles se sintam fortes e capacitados. Fazer um estagiário ver imagens de abuso infantil, por exemplo, pode quebrar a cultura de toda a empresa.
     
  • Um ambiente descontraído, não um call center, é tão importante quanto o suporte. Saber que estamos lá 24 horas por dia, sete dias por semana, faz com que os moderadores consigam lidar melhor com o que estão vendo.
     
  • Os turnos precisam ser relativamente curtos - de 30 minutos a três horas e meia para quem analisa conteúdos mais pesados.
     
  • Pode não ser adequado para pessoas religiosas ou culturalmente conservadoras, que podem ter mais dificuldade em lidar com o conteúdo.
     
  • Em vez disso, o candidato ideal é alguém que já seja usuário de mídia social, "para que perceba que existe o bem e o mal", assim como alguém capaz de "levantar a mão e dizer que precisa de um descanso de um dia, uma semana, um mês".
     
  • Precisa ter maturidade emocional. Um estudante universitário tem menos chance de ser bom do que uma mãe de família.

O Facebook admite, por sua vez, que a revisão de conteúdo na escala que está fazendo hoje "é um território não mapeado". "Até certo ponto, temos que desvendá-lo à medida que caminhamos", afirma em seu blog. 

Conversas criptografadas, bolhas e grupos, boatos enviados por amigos, planos de 3G: tudo isso transformou o WhatsApp no vilão da eleição

Entenda