Topo

Tecnologia

Dados


Dado bem usado: Facebook e Instagram vão reconhecer e barrar vingança pornô

Facebook
A intenção é positiva, mas o mau uso dos dados levanta suspeitas contra a ferramenta Imagem: Facebook

Cristiane Capuchinho

Colaboração para o UOL, em São Paulo

2019-03-18T13:19:12

18/03/2019 13h19

O Facebook e o Instagram vão começar a usar inteligência artificial para detectar e bloquear fotos ou vídeos com nudez ou quase nudez antes mesmo deles serem denunciados pelas vítimas às empresas. O objetivo é combater a "revenge porn", o compartilhamento de imagens íntimas ou pornografia como vingança.

A gigante norte-americana aposta no uso da tecnologia que atormenta o sono de atrizes (e mulheres em geral) mundo afora, o chamado deep fake. Em 2018, foi lançado um aplicativo capaz de aplicar o rosto de uma pessoa sobre um vídeo pré-existente, fazendo qualquer um acreditar que a pessoa está no vídeo.

O Facebook não explicou que tipo de inteligência artificial será usado para o combate às imagens íntimas não-consentidas, mas o tagueamento automático de pessoas nas fotos colocadas na rede social mostra um pouco do potencial do banco de dados da empresa e sua capacidade em cruzar informações dos usuários --a "magia" de quando a rede social reconhece seu amigo de escola naquela foto antiga.

2018, o ano que a casa caiu para o Facebook

Relembre os escândalos

Como não dá para deixar as máquinas decidirem tudo, a empresa diz que haverá um grupo de moderadores responsáveis por revisar as imagens selecionadas pela inteligência artificial. Se a imagem violar as regras da rede social, o conteúdo será removido e a conta que compartilhou imagens íntimas sem permissão poderá ser tirada do ar.

Também haverá meios para recorrer de erros de avaliação dos moderadores --vide o caso da conta da Funai (Fundação Nacional do Índio) recentemente bloqueada por uma foto em que apareciam os seios de uma indígena.

A empresa anunciou também a criação de ferramentas para as vítimas da divulgação de imagens íntimas, como um espaço para facilitar o acesso a grupos de apoio para as vítimas e um guia explicando como denunciar esse tipo de conteúdo.

A iniciativa mais interessante, no entanto, é um piloto de prevenção de "porn revenge" e se chama "Not Without My Consent" (Não sem o meu consentimento). A ideia é que as pessoas que se sintam ameaçadas possam enviar ao Facebook imagens íntimas suas que possam ser compartilhadas nas redes sociais. Com esse material, a empresa promete evitar o compartilhamento das imagens cadastradas pelo Facebook, Instagram ou Messenger.

Dados, dados e mais dados

Para colocar em prática essa ferramenta de "polícia" das imagens, o Facebook se vale de um estoque gigantesco de fotos e vídeos de seus milhões de usuários. Cada imagem compartilhada pela rede social alimenta esse banco de dados e ajuda, entre outras coisas, no treinamento de softwares de reconhecimento facial (uma das possibilidades da inteligência artificial).

Você é o produto: cada passo que você dá na web gera rastros e essas informações são usadas para te vigiar e influenciar o seu comportamento

Entenda

A tecnologia que será usada pelo Facebook, segundo a Associated Press, utilizou também o banco de imagens reportadas como "revenge porn" para treinar o algoritmo capaz de identificar fotos de nudez e de quase nudez (fotos de lingeries? Não sabemos). A inteligência artificial também vai se servir de informações publicadas junto com a foto para identificar o conteúdo íntimo, de acordo com a agência de notícias.

Não é a primeira vez que a empresa apresenta uma tecnologia que integra reconhecimento facial e uso de dados. Em novembro de 2018, o Facebook pediu a patente de uma tecnologia que consegue reconhecer com quem você mora e o endereço apenas a partir de suas mensagens, fotos e dados de IP.

O uso de informações dos usuários sem seu expresso consentimento --e o vazamento de dados, como no caso do Cambridge Analytica-- levanta suspeitas contra a ferramenta de prevenção de "revenge porn" que pede para que os usuários mandem as suas fotos íntimas para a empresa. Quem garante a segurança dessas imagens?, perguntam-se alguns usuários.

A empresa afirma que a imagem não ficará em seus arquivos, e será apenas vista por um pequeno grupo formato por membros da empresa treinados e em parceria com ONGs de ajuda a vítimas.

Máquina do mal

No início de 2018, um aplicativo capaz de aplicar a imagem de outra pessoa sobre um vídeo pré-existente foi lançado. A tecnologia, similar a que o Snapchat usava para trocar o rosto de duas pessoas, tornou possível que qualquer pessoa com um bom computador, um processador de imagens e tempo possa criar o chamado "deepfake": um vídeo falso que parece aterrorizantemente real.

Um dos primeiros desses vídeos a serem vistos mostra uma jovem Princesa Lea em uma cena do filme Rogue One, filmado 39 anos depois.

Em uma busca rápida pelo Google, vídeos pornôs falsos com o rosto de atrizes conhecidas como Cameron Diaz, Jennifer Lawrence ou Scarlett Johansson são facilmente encontrados. A mesma tecnologia pode ser usada contra qualquer pessoa por uma mente mal-intencionada. Em uma matéria do jornal norte-americano Washington Post deste ano, um repórter afirma que a prática tem preço: US$ 20, por imagem falsa.

A iniciativa do Facebook é um passo na luta contra assédios na internet e aponta para o uso da inteligência artificial como aliada para reduzir danos em relação à distribuição das imagens, mas não é a solução definitiva para o problema.

Até pouco tempo, o Brasil não tinha legislação específica para punir quem publicasse imagens íntimas sem consentimento. Isso mudou em setembro de 2018, agora a lei 13.718 prevê pena de 1 a 5 anos para quem publicar imagem de sexo, nudez ou pornografia sem consentimento da vítima. A punição pode ser aumentada caso o crime seja praticado por alguém que tenha tido relação íntima com a vítima ou tenha tido intenção de humilhar ou se vingar.

Reconhecimento facial do Facebook vira alvo do MP

Band Notí­cias