Barroso defende regular redes: 'Impedir pornografia infantil não é censura'

O presidente do STF, Luís Roberto Barroso, defendeu a regulamentação das redes sociais e da IA (Inteligência Artificial), em um evento em Lisboa. Para ele, o debate feito no Brasil fica no meio termo entre a liberdade total defendida nos Estados Unidos e as exigências feitas pela Europa.

O que aconteceu

Regulação não equivale a censura, afirma o ministro. "Não há nenhum tipo de censura envolvida aqui, a menos que alguém ache que impedir pornografia infantil na rede seja uma censura", disse Barroso na manhã de hoje, durante painel sobre regulação da Inteligência Artificial no Fórum de Lisboa, evento organizado por um instituto do qual o também ministro do STF Gilmar Mendes é sócio.

Remoção imediata com uso de algoritmos. Segundo o presidente do Supremo, o modelo de regulação das plataformas debatido no Brasil determina a remoção imediata de conteúdos com crimes e obriga as plataformas a monitorar com algoritmos conteúdos relacionados a cinco crimes: terrorismo, incitação ao suicídio, racismo, feminicídio e pornografia infantil.

Barroso cita exemplos extremos que devem ser bloqueados. "Há previsões de linchamento, de convocação para estupro e para matar gente em escola que aparecem na rede social", mencionou o ministro, que acredita que esses posts não podem permanecer no ar.

Para ele, o Brasil está chegando a um modelo de regulamentação que fica no meio termo entre o dos EUA e o da Europa. A Suprema Corte afirma que o país liderado por Donald Trump dá liberdade total às plataformas, enquanto o modelo mais comum adotado na Europa é de exigir notificações judiciais para os conteúdos serem removidos, com mais rigor do que o proposto aqui.

Supremo só atua no tema porque foi acionado, diz Barroso. Ele explicou que a Corte passou a discutir a responsabilidade das plataformas após casos como o de uma senhora com perfil falso no Facebook e de uma professora atacada em uma página ofensiva. Em ambos, as empresas só removeram o conteúdo após decisão judicial.

As decisões judiciais serão para casos complexos, como "crimes contra honra". Barroso defendeu que conteúdos criminosos devem ser excluídos por notificação direta da vítima, do Ministério Público ou de qualquer cidadão, sem necessidade de decisão judicial. Calúnia, injúria e difamação exigem decisão judicial porque envolvem critérios subjetivos e não podem ser arbitrados pelas plataformas.

O que mudou

Por um placar de 8 a 3, ministros do STF declararam que o Marco Civil da Internet é parcialmente inconstitucional e sugeriram mudanças. O entendimento da maioria é que o regramento não oferece proteção suficiente a alguns direitos fundamentais e à própria democracia.

Continua após a publicidade

O que estava em jogo era o artigo 19, que dizia que big techs só seriam responsabilizadas por conteúdos de terceiros se descumprissem ordens judiciais.

Com a mudança, o STF criou "prateleiras" de responsabilização das empresas:

  • Para conteúdos graves (como racismo, incitação à violência), existe um dever de cuidado (de tentar evitar/barrar esses conteúdos). As empresas só serão punidas, se houver comprovação de uma falha sistêmica;
  • Notificação e retirada: se alguém se sentir lesado, deve notificar a plataforma e o conteúdo deverá ser removido. Caso a empresa não remova, poderá ser responsabilizada;
  • Para crimes contra a honra, vale a lógica original do artigo 19. A empresa só é responsabilizada se descumprir a ordem judicial;
  • Empresas serão responsabilizadas por anúncios e impulsionamentos pagos, independente se houver decisão judicial ou terem sido notificadas. Nesses casos, a punição só não ocorrerá se a plataforma provar que agiu proativamente para excluir o conteúdo.

Deixe seu comentário

O autor da mensagem, e não o UOL, é o responsável pelo comentário. Leia as Regras de Uso do UOL.