Uso de algoritmo e IA em videovigilância nas Olimpíadas gera controvérsia na França

Quatro meses antes do início dos Jogos Olímpicos e Paraolímpicos de Paris 2024, o uso da videovigilância com "realidade aumentada", cuja experimentação foi autorizada pela França, não é unanimidade. A tecnologia preocupa ONGs e defensores de liberdades individuais, que temem que o governo francês esteja usando as Olimpíadas como pretexto para ampliar seu arsenal de vigilância.

Para garantir a segurança dos Jogos de Paris 2024 e dos 15 milhões de visitantes esperados, a França pretende usar tudo o que estiver a seu alcance em matéria de vigilância. Todos os dias, cerca de 35.000 policiais serão destacados, incluindo unidades de elite, além de 20.000 militares e o mesmo número de agentes de segurança privada.

Também serão usadas para dar apoio câmeras de vigilância dotadas com inteligência artificial, mas o governo francês mantém o mistério sobre quantos dispositivos deste tipo que serão empregados. Questionado recentemente sobre o assunto, o ministro do Interior, Gérald Darmanin, respondeu que era "muito cedo" para falar de números.

Dois testes foram realizados nos dias 3 e 5 de março, durante shows do grupo britânico Depeche Mode, na Accor Arena, em Paris. O objetivo não era ainda testar a videovigilância algorítmica propriamente dita, mas apenas de "experimentar e configurar as soluções de software" em tempo real, especificou o Ministério do Interior.

"Está tudo funcionando", afirmou o secretário de Segurança Pública de Paris, Laurent Nuñez, após o primeiro teste. No entanto, isto não tranquiliza as associações de defesa dos direitos humanos, que consideram que ao autorizar a experimentação desta tecnologia, o Estado francês abre mão da precaução e pode sofrer as consequências da vigilância em massa.

A videovigilância algorítmica (VSA) consiste em acoplar câmeras de vigilância a softwares cujos algoritmos supostamente são capazes de detectar ações predefinidas de forma automática e em tempo real no meio de um fluxo contínuo de imagens.

Essa vigilância tem o objetivo de facilitar o trabalho dos agentes que operam nas salas de controle, onde observam as imagens das câmeras.

Em Nice, cidade no sul da França onde o VSA é usado, a tecnologia ajuda a detectar infrações de trânsito, concentrações suspeitas, contagem de pedestres, patinetes e motos em um eixo específico.

Em Aulnay-sous-Bois, município da região de Paris, ela é utilizada para identificar objetos abandonados, despejo ilegal de lixo, focos de incêndio ou movimentos de multidões.

Continua após a publicidade

A videovigilância com "realidade aumentada" já é testada em âmbito municipal em dezenas de municípios da França. Mas será a primeira vez que a tecnologia será aplicada oficialmente em contexto nacional. Em novembro passado, a mídia de investigação Disclose revelou que a polícia francesa utilizava sigilosamente, desde 2015, um software de análise de imagens de videovigilância desenvolvido pela empresa israelense Briefcam.

Leia tambémUm milhão de credenciados para JO Paris 2024 passam por investigação prévia de segurança

Lei prevê apenas uso experimental

A utilização de videovigilância algorítmica está prevista "a título experimental" no artigo 10 da lei relativa aos Jogos Olímpicos e Paralímpicos promulgada em maio de 2023.

No texto, é indicado que o VSA pode ser empregado no contexto de eventos esportivos, recreativos ou culturais até 31 de março de 2025. Ou seja, bem depois do período dos Jogos, que vão de 26 de julho a 11 de agosto de 2024. O texto destaca também que o processamento algorítmico não utiliza "nenhum sistema de identificação biométrica, não processa nenhum dado biométrico e não implementa nenhuma técnica de reconhecimento facial". Estes pontos são considerados "uma linha vermelha" a não ser ultrapassada, disse Gérald Darmanin.

Cada utilização também deverá ser objeto de decreto municipal, após parecer da Comissão Nacional de Informática e Liberdades (Cnil).

Continua após a publicidade

Um decreto adotado durante o verão especifica as oito ocorrências anormais que o software deve procurar nas imagens captadas pelas câmeras: presença ou uso de arma, início de incêndio, pessoa no chão, pacote abandonado, travessia em zona proibida, movimento de multidões, densidade excessiva e desrespeito ao sentido do trânsito.

A videovigilância algorítmica pode ser garantida através de câmaras instaladas no interior ou nas imediações dos locais que acolhem os eventos, nos transportes ou a bordo de drones que sobrevoarão diferentes locais.

Deveria, "sem dúvida, ser implantado de forma limitada" neste verão, declarou em janeiro o delegado interministerial dos Jogos, Michel Cadot. Estas câmaras ditas "inteligentes" deveriam, segundo ele, ser utilizadas especialmente "em zonas de alta densidade, por exemplo no centro de Paris, nas proximidades dos locais dos eventos, e antes de controles".

Vigilância atinge grupos marginalizados

As críticas focam principalmente nos efeitos negativos que este tipo de tecnologia pode ter nas liberdades fundamentais e individuais. "Quando sabemos que estamos sendo vigiados, temos tendência a modificar nosso comportamento, a nos autocensurar e, talvez, a não exercer certos direitos", observa Katia Roux, especialista em tecnologia e direitos humanos da filial francesa da ONG Amnistia Internacional.

"Qualquer vigilância no espaço público é uma interferência no direito à privacidade. De acordo com o direito internacional, esse emprego deve ser necessário e proporcional a um objetivo legítimo", lembra. "Cabe às autoridades demonstrar que não há outra forma menos prejudicial às liberdades de garantir a segurança. No entanto, esta demonstração não foi feita", diz.

Continua após a publicidade

Outra crítica diz respeito ao próprio funcionamento da inteligência artificial, na qual se baseia a videovigilância algorítmica. Uma tecnologia aparentemente neutra, mas na realidade desenvolvida com dados que potencialmente incluem preconceitos discriminatórios que poderiam ser amplificados.

"Vemos em outros países que desenvolveram este tipo de vigilância do espaço público que esse uso atinge desproporcionalmente certos grupos da população que já são marginalizados", relata Katia Roux.

Acima de tudo, as organizações que defendem as liberdades temem que a experimentação com vigilância algorítmica por vídeo abra caminho para formas de utilização mais intrusivas.

"É um pé na porta que anuncia aplicações mais problemáticas, como o reconhecimento facial no curto prazo", alerta Félix Tréguer, investigador associado do CNRS e membro da associação La Quadrature du net, que promove direitos e liberdades digitais.

Leia tambémONGs alertam sobre "limpeza social" em Paris para os Jogos Olímpicos de 2024

Preocupação com a videovigilância depois das Olimpíadas

A experimentação com videvigilância algorítmica deve terminar em 31 de março de 2025, mas o governo anuncia que a tecnologia poderá se tornar permanente.

Continua após a publicidade

"Se for comprovado e com garantias, poderá ser utilizado para grandes eventos", disse a ministra do Esporte, Amélie Oudéa-Castéra, em setembro.

O Senado, por sua vez, já preparou o que vem a seguir. Em junho passado, a Câmara Alta adotou um projeto de lei relativo ao reconhecimento biométrico em espaços públicos, que abre caminho à experimentação do reconhecimento facial para efeitos de investigações judiciais e de luta contra o terrorismo durante um período de três anos. O texto ainda deverá ser analisado na Assembleia.

A França estaria se preparando para seguir o exemplo de outros países que organizam grandes eventos esportivos, reforçando o seu sistema de segurança pós-olímpico? Em 2012, os Jogos Olímpicos de Londres levaram à implantação massiva de câmeras de vigilância nas ruas da capital. Seis anos depois, a Copa do Mundo de Futebol na Rússia foi uma oportunidade para experimentar o reconhecimento facial, que ainda existe hoje. Em 2020, os Jogos de Tóquio foram precedidos por um endurecimento das leis de segurança púbica amplamente criticado.

Nas vésperas dos Jogos de Paris, a Anistia Internacional pede uma lei que proíba o reconhecimento facial para fins de identificação em espaços públicos. "Como foi apresentada como linha vermelha nos debates, não pode ser uma linha pontilhada, deve ser robusta", afirma Katia Roux, sob risco de deslizar para a vigilância generalizada.

Deixe seu comentário

Só para assinantes