Topo

Quer hackear um Tesla? Tudo que você precisa é de tinta e um pincel

Sistema de carros da Tesla segue marcas na pista usando inteligência artificial - Frederic J. Brown/AFP
Sistema de carros da Tesla segue marcas na pista usando inteligência artificial Imagem: Frederic J. Brown/AFP

Rodrigo Lara

Colaboração para o UOL, em São Paulo

03/04/2019 04h00

Resumo da notícia

  • Segundo relatório, marcações falsas na estrada enganam piloto automático
  • Truque pode levar Tesla a trocar de faixa e até envolver-se em acidente
  • Outro teste foi capaz de enganar detecção de chuva dos limpadores de parabrisas

Os carros desenvolvidos pela Tesla Motors, comandada desde 2008 pelo multimilionário Elon Musk, são facilmente enquadrados dentre os mais tecnologicamente avançados do mundo. E aqui não falamos apenas do fato de eles serem movidos a eletricidade, mas sim pelos sistemas embarcados --em especial, o do piloto automático.

É de se imaginar, portanto, que hackear um carro desses exija um equipamento digno de filmes como "Missão Impossível", certo? Errado: basta uma lata de tinta e um pincel.

A explicação para isso vem de um relatório da Tencent Security Lab Keen, que tratava de possíveis falhas na segurança desses carros. Em especial, do software do piloto automático.

Tá, mas e o pincel e a tinta? Simples: o que faz um modelo da marca (o teste levou em consideração o Model S) seguir as faixas de rolamento da estrada é um sistema de inteligência artificial que interpreta dados do ambiente em tempo real, captados por meio de câmeras, sensores ultrassônicos e radar.

A partir do momento que se engana esse conjunto de sensores com marcações falsas na pista, é possível fazer os carros da marca seguirem por um novo caminho. Isso significa trocar de faixa e, na pior das hipóteses, provocar um acidente.

Essas marcações falsas no asfalto, grosso modo, enganariam o sistema do carro, que continuaria acreditando estar na pista normalmente.

É importante salientar que o teste ocorreu em ambiente controlado e se concentrou apenas sobre os sensores do piloto automático, não levando em conta outros sistemas de segurança do carro para evitar acidentes. Ainda assim, é uma vulnerabilidade preocupante.

Em outro teste, foi possível usar um smartphone e um controle de videogame para guiar o carro -  -
Em outro teste, foi possível usar um smartphone e um controle de videogame para guiar o carro

Outras brechas

O caso acima é apenas um exemplo simples de como é possível influenciar os sensores do carro. O estudo ainda tratou de outras possíveis ameaças. A grande maioria delas se aproveitou justamente do sistema de piloto automático.

Um exemplo disso foi uma brecha de segurança no sistema que permitia usar um smartphone e um controle de videogame para guiar o carro. Felizmente, uma atualização do software do piloto automático corrigiu essa vulnerabilidade.

Por fim, um outro teste foi capaz de enganar o sistema de detecção de chuva que faz os limpadores de parabrisas serem acionados automaticamente. Em vez de contar com um sensor de umidade, como ocorre nos carros mais "normais", os veículos da Tesla se valem das câmeras do piloto automático e de um algoritmo de inteligência artificial para detectar essa situação climática e acionar os limpadores.

Os pesquisadores, no entanto, utilizaram uma imagem que faz com que o sistema acredite que está chovendo. Com isso, os limpadores foram acionados.

Apesar de demandarem condições específicas, esses testes mostraram que, mesmo sendo eficientes --ainda que os carros da marca tenham se envolvido em acidentes polêmicos nos últimos tempos--, ainda há um longo caminho para que o piloto automático dos Tesla seja considerado à prova de erros.

Qual o impacto da inteligência artificial nos nossos empregos?

Entenda