Carro autônomo tem limitações e riscos ignorados por proprietários

  • Spencer Platt/Getty Images/AFP

Em fevereiro, uma colisão corriqueira em uma estrada da Califórnia entre um Google Car experimental e um ônibus, que estava certo, provocou certa comoção. Pela primeira vez, a responsabilidade de um carro autônomo foi questionada. Trágico por ter custado a vida de seu condutor, o acidente que envolveu nos Estados Unidos um Tesla que circulava em direção assistida colocou em questão a confiabilidade da tecnologia, mas também as alterações no comportamento humano que ele já começou a modelar.

O que teria se passado no início de maio —os acontecimentos foram divulgados no final de junho— em uma via expressa de Williston, perto de Orlando, na Flórida? Joshua Brown, 40, circulava a bordo de seu Tesla Model S elétrico, cujo modo "Autopilot" estava ativado. Disponível desde outubro através de uma atualização do programa do carro, essa função é capaz de manter o veículo dentro de sua pista, de manter uma distância de segurança em relação ao veículo à sua frente, inclusive nos engarrafamentos, de frear diante de um obstáculo e até mesmo de realizar uma ultrapassagem com ativação automática da luz de seta. Todas essas manobras são operadas sem que o condutor tenha de intervir. Este, no entanto, deve conservar suas mãos no volante, sem o qual alertas visuais e sonoros acabarão soando em velocidades que variam de acordo com os parâmetros de condução. Uma mensagem lembrando a obrigação de se permanecer "responsável" por seu veículo aparece na tela de controle quando o Autopilot é acionado.

Mas esse sistema de direção delegada cometeu uma falha. Os vários sensores e câmeras do sedã de Brown não detectaram um semi-reboque à sua frente que virava à esquerda. É possível que a forte luminosidade tenha atrapalhado a detecção do grande reboque branco. O motorista não teve condições de reagir. Segundo depoimentos coletados pela polícia, ele estava assistindo a um filme em um DVD portátil. Por cruel ironia do destino, alguns meses antes da tragédia, esse veterano da marinha americana havia postado um vídeo, retuitado por Elon Musk, fundador da Tesla, demonstrando a reatividade e a eficácia do Autopilot de seu carro.

Limite

Evidentemente o azarado motorista foi bem além daquilo que a tecnologia é capaz de fazer. Mas outro culpado no acidente que custou a vida de Joshua Brown foi a perniciosa ambiguidade que gira em torno das funções de direção assistida que se multiplicaram alguns anos a bordo da última geração de carros, especialmente os modelos de luxo. O primeiro risco é conhecido: o da perda de atenção, ou até dos comportamentos arriscados. No YouTube, perde-se a conta das sequências em que motoristas de Tesla aparecem em situações no mínimo perigosas, como ao filmar, tranquilamente sentados no banco de trás, seu carro deslizando pela estrada sem que ninguém esteja sentado no banco do motorista... O próprio termo "Autopilot" usado pela Tesla é um problema: não se trata de um piloto automático de fato, mas sim de um conjunto de auxiliares de direção. A diferença é muito grande: para um é possível delegar inteiramente a condução, mas para o outro pedem-se para realizar algumas operações sob responsabilidade ativa do motorista.

Por enquanto, portanto, a tecnologia não permite que se deixe um piloto automático conduzir um carro. Essa constatação, que acaba de ser ilustrada pelo acidente fatal ocorrido na Flórida, mas também por uma outra investigação aberta pelas autoridades americanas após um acidente sem vítimas ocorrido no dia 1º de julho envolvendo um Tesla na Pensilvânia, deverá levar a Tesla a ajustar o funcionamento de seu Autopilot em um sentido mais restritivo.

No entanto, a fabricante californiana de carros elétricos não é a única a ter introduzido funções automatizadas a bordo de seus veículos. A BMW também usa o termo "piloto automático" para a versão sofisticada do sistema de controle de trajetória de sua última Série 7. A Audi, a Mercedes e a Volvo também estão indo por esse caminho, e em breve serão imitadas pelas montadoras mais populares (Ford, General Motors, Renault, Peugeot, Citroën, Toyota), que já têm alguns modelos capazes de adaptar automaticamente sua velocidade na estrada, de permanecer firmes em sua faixa ou de se estacionarem sozinhos.

Esses auxiliares de direção, apresentados como o precursor do carro autônomo, que a maioria das marcas promete comercializar já no início dos anos 2020 para um uso limitado às estradas e vias rápidas, se tornaram grandes argumentos de venda. Não seria o caso de questionar a utilidade e a praticidade dessas muletas eletrônicas, mas esse ínterim mantém uma imprecisão sobre as tarefas que podem ser confiadas a elas, ou até gerar uma falsa sensação de segurança.

Provavelmente está na hora de questionar se a sacralização da tecnologia no marketing dos fabricantes —e seu corolário de uma ideia implícita segundo a qual o carro robotizado é primeiramente uma questão de alta tecnologia— não está apagando perigosamente o limite que separa direção humana e direção robotizada. É uma fronteira que de fato deverá ser atravessada, mas aos poucos, e sem subestimar a complexidade que caracteriza as interações entre homem e máquina, ainda que isso possa reduzir a velocidade da transição para o carro sem motorista, que pode acabar gerando uma desconfiança generalizada entre a população caso seja conduzida às pressas. Afinal, o principal benefício esperado do automóvel sem condutor é uma redução drástica nas mortes nas estradas.

Veja também

UOL Cursos Online

Todos os cursos