À medida que a inteligência artificial evolui, cresce o potencial criminal

John Markoff

  • ThinkStock

Imagine que você está recebendo um telefonema de sua mãe idosa, pedindo sua ajuda por ter se esquecido de sua senha do banco.

Só que ela não é a sua mãe. A voz do outro lado da linha só se parece com a dela.

Na verdade é uma voz sintetizada em computador, uma façanha da tecnologia de inteligência artificial que foi criada para tornar possível que alguém se passe por outro através do telefone.

Uma situação como essa ainda é coisa de ficção científica, mas não falta muito para ser real. E é também o futuro do crime.

Os componentes de software necessários para tornar essa tecnologia de disfarce amplamente acessível estão avançando rapidamente.

Por exemplo, recentemente o DeepMind, a subsidiária da Alphabet conhecida por um programa que derrotou alguns dos melhores jogadores humanos no jogo de tabuleiro Go, anunciou que havia criado um programa que "imita qualquer voz humana e soa mais natural do que os melhores sistemas de texto-voz existentes, reduzindo a diferença em relação ao desempenho humano em mais de 50%."

A ironia, é claro, é que neste ano a indústria da segurança de computadores, com US$ 75 bilhões em receitas anuais, começou a falar sobre como o aprendizado de máquina e as técnicas de reconhecimento de padrões vão melhorar o lastimável estado da segurança na computação.

Mas tem um lado negativo.

"O que as pessoas não entendem é que o cibercrime está se tornando automatizado e escalando exponencialmente", diz Marc Goodman, um consultor de agências policiais e autor de "Future Crimes". Ele diz ainda que "Isso não tem a ver com um Matthew Broderick hackeando a partir de seu porão", uma referência ao filme de 1983 "Jogos de Guerra".

O alerta a respeito do uso mal-intencionado de tecnologias avançadas de inteligência artificial foi dado no começo deste ano por James R. Clapper, diretor de inteligência nacional.

Em seu relatório anual sobre segurança, Clapper enfatizou que embora os sistemas de IA possam tornar algumas coisas mais fáceis, eles também ampliariam as vulnerabilidades do mundo online.

A crescente sofisticação de criminosos cibernéticos pode ser vista na evolução das ferramentas de ataque, como o popular programa malicioso conhecido como Blackshades, de acordo com Goodman. O autor do programa, um cidadão sueco, foi condenado ano passado nos Estados Unidos.

O sistema, que foi muito vendido no submundo da informática, funcionava como uma "franquia criminosa em uma caixa", disse Goodman. Ele permitia que usuários sem habilidades técnicas usassem ransomwares ou fizessem espionagem de áudio e vídeo só com o clique de um mouse.

A próxima geração dessas ferramentas adicionará capacidades de aprendizado de máquinas que foram criadas inicialmente por pesquisadores de inteligência artificial para melhorar a qualidade da visão de máquina, compreensão de fala, síntese de fala e compreensão de linguagem natural. Alguns pesquisadores em segurança de computadores acreditam que criminosos digitais vêm experimentando com o uso de tecnologias de IA há mais de cinco anos.

Isso pode ser visto nos esforços feitos para se subverter o onipresente Captcha (Completely Automated Public Turing test to tell Computers and Humans Apart, ou teste de Turing público completamente automatizado para diferenciar computadores de humanos), o quebra-cabeça de desafio e resposta inventado em 2003 por pesquisadores da Carnegie Mellon University para impedir que programas automatizados roubem contas online.

Tanto os pesquisadores de inteligência artificial "chapéu branco" quanto os criminosos "chapéu preto" têm usado softwares de visão de máquina para subverter os Captchas há mais de cinco anos, diz Stefan Savage, um pesquisador de segurança informática na Universidade da Califórnia, em San Diego.

"Se você não mudar seu Captcha por dois anos, você será controlado por algum algoritmo de visão de máquina", ele diz.

Surpreendentemente, uma coisa que desacelerou o desenvolvimento de IA maliciosa foi a disponibilidade imediata de mão de obra ou barata ou grátis. Por exemplo, alguns cibercriminosos terceirizaram esquemas de resolução de Captchas para negócios onde humanos são usados para decodificar os quebra-cabeças, em um regime de semi-escravidão.

Trapaceiros cibernéticos ainda mais criativos têm usado pornografia online como recompensa para internautas humanos que resolverem os Captchas, de acordo com Goodman. Mão de obra gratuita é uma vantagem com a qual os softwares de IA não conseguirão competir tão cedo.

Então o que virá pela frente?

Para começar, os criminosos podem pegar carona nos novos avanços tecnológicos. A tecnologia de reconhecimento de voz como a Siri da Apple e a Cortana da Microsoft agora é usada de forma ampla para interagir com computadores. E o Echo, speaker controlado por voz da Amazon, e a plataforma de chatbot Messenger do Facebook estão rapidamente se tornando canais para comércio online e suporte ao cliente. Como costuma acontecer sempre que um avanço de comunicação como o reconhecimento de voz começa a se popularizar, os criminosos que querem tirar vantagem disso não estão distantes.

"Eu diria que as empresas que oferecem suporte ao cliente através de chatbot estão sem querer cometendo engenharia social", diz Brian Kerbs, um repórter investigativo que publica no site krebsonsecurity.com.

A engenharia social, que se refere à prática de manipular as pessoas a fazer ações ou divulgar informações, é amplamente vista como o elo mais fraco na cadeia de segurança de computadores. Os cibercriminosos já exploram as melhores qualidades dos humanos —confiança e disposição para ajudar os outros— para roubar e espionar. A habilidade de se criar avatares de inteligência artificial que consigam enganar as pessoas só vai piorar o problema.

Isso já pode ser visto em esforços por governos e campanhas políticas que estão usando tecnologia de chatbot de forma ampla para fazer propaganda política.

Pesquisadores cunharam o termo "propaganda computacional" para descrever o boom de campanhas de mídias sociais enganosas em serviços como Facebook e Twitter.

Em um artigo recente, Philip N. Howard, um sociólogo da Oxfort Internet Institute, e Bence Kollanyi, um pesquisador da Unversidade Corvinus de Budapeste, descreveu como os chatbots políticos tinham um "papel pequeno, mas estratégico" na modelagem da conversa online que antecedeu o referendo do Brexit.

É só uma questão de tempo até que esse software seja usado de forma criminosa.

"Existe muita esperteza na criação de ataques de engenharia social, mas até onde eu sei, ninguém começou ainda a usar aprendizado de máquina para encontrar os otários de melhor qualidade", diz Mark Seiden, um especialista independente em segurança de computação. Ele faz uma pausa e diz, "Eu devia ter respondido: 'Sinto muito, Dave, não posso responder essa pergunta no momento."

Tradutor: UOL

Veja também

UOL Cursos Online

Todos os cursos