Topo

De quem é a culpa em caso de acidentes envolvendo carros autônomos?

Kyodo News/Getty Images
Imagem: Kyodo News/Getty Images

Rodrigo Lara

Colaboração para o UOL, em São Paulo

29/03/2018 04h00

O acidente no qual um carro autônomo da Uber acabou atropelando - e matando - uma mulher no Arizona (EUA), na semana passada, levantou algumas questões sobre o futuro dos carros autônomos.

A primeira delas diz respeito ao quanto os responsáveis por desenvolver a tecnologia estão priorizando a segurança em relação a resultados práticos.

Essa dúvida surgiu após uma troca de mensagens entre o ex-líder de desenvolvimento de veículos autônomos da Uber, Anthony Levandowski, e o ex-CEO da empresa, Travis Kalanick, na qual Levandowski diz que é preciso "pegar todos os atalhos possíveis" para lançar o quanto antes veículos autônomos, ignorando questões de segurança.

Já outra questão é a seguinte: em caso de um acidente com carro autônomo, de quem é a culpa?

Conjunto de fatores

Assim como em um acidente envolvendo veículos tradicionais, hoje, conclusões sobre a culpa em uma ocorrência com carros autônomos também dependem de uma detalhada investigação.

Quer um exemplo? Em 2016, um Tesla Model S em modo autônomo não freou a tempo de evitar uma colisão com um caminhão na Flórida (EUA), o que resultou na morte do motorista do carro.

Tesla S - NTSB/Florida Highway Patrol/AP - NTSB/Florida Highway Patrol/AP
Imagem do acidente com o Tesla S
Imagem: NTSB/Florida Highway Patrol/AP

Na ocasião, a Tesla afirmou que "nem o piloto automático nem o motorista perceberam a lateral branca do reboque da carreta contra um céu claro, então os freios não foram acionados". O acidente ocorreu após o caminhão tentar cruzar a pista à frente do Tesla Model S.

Mais de um ano depois, a agência de transportes do governo norte-americano concluiu que o modo autônomo do carro não teve qualquer culpa pelo acidente.

Já a instituição independente NTSB (National Transportation Safety Board), que analisa acidentes em transportes, concluiu o contrário: o sistema autônomo, ainda que estivesse funcionando corretamente, teve parte de culpa pelo acidente. Segundo a entidade, faltaram sistemas de segurança que "travassem" o modo autônomo em locais e situações nas quais ele não tivesse seu uso planejado.

A afirmação toma por base o fato de que, nesse acidente, o Tesla trafegava por uma via na qual o sistema não poderia ser usado. E o motorista confiou demais no sistema autônomo --a investigação apontou que o sistema pediu por diversas vezes que o condutor colocasse as mãos no volante, algo comum em carros do tipo e exigido por lei.

Sem uma definição concreta sobre o que ou quem causou o acidente, a família da vítima descartou processar a Tesla por não considerar o carro culpado.

A empresa, por sua vez, não sofreu punições, mas atualizou o sistema de piloto automático desde então de forma que o modo autônomo confie mais em dados fornecidos pelos radares dos carros do que pelas câmeras.

Em outro caso ocorrido na China, quatro meses antes, um Tesla Model S atingiu um veículo de limpeza de pista e o motorista do carro morreu. O pai do motorista resolveu processar tanto a filial chinesa da Tesla quanto a concessionária que vendeu o carro. A Tesla disse que o modo autônomo do carro estava ativo, mas o processo ainda não teve uma sentença definida.

Veja o momento do acidente com o Uber

UOL Carros

No caso do atropelamento com o Volvo XC90 da Uber, a polícia de Tempe, Arizona, ainda investiga o caso, mas já se manifestou dizendo que nem mesmo um motorista humano veria a pessoa atravessar a rua naquela situação.

Câmeras internas do carro mostraram que o motorista não olhava para a pista no momento do atropelamento - algo recomendável mesmo quando o modo autônomo está atuando -, o carro estava acima da velocidade permitida para o trecho, o sistema autônomo do carro não detectou a pedestre para frear automaticamente e a pedestre atravessava sem olhar e em uma área de sombra da iluminação pública.

Testamos o carro da Volvo que dirige sozinho

UOL Notícias

A Volvo, uma das principais fabricantes a apostarem em tecnologia de condução autônoma, declarou que pretende assumir total responsabilidade caso algum de seus carros se envolva em acidentes por conta de seu modo autônomo. Esse, porém, não seria o caso do ocorrido na semana passada.

O Volvo da Uber tinha sido modificado e seus sistemas de segurança originais, desabilitados, conforme a Aptiv Plc, empresa que fornece esses equipamentos para a Volvo, afirmou em entrevista à Bloomberg.

A promessa da Volvo também não vale caso o motorista use seus sistemas autônomos de forma errada, ou seja, diferentemente do especificado no manual do veículo. O que ocorreu tanto no primeiro quanto no último caso citados nesta reportagem.

Para modelos que não têm volante, como é o caso de projetos em desenvolvimento pela Waymo e pela General Motors, o carro só rodaria em modo autônomo, eliminando quase que completamente qualquer interferência humana em seu comportamento - e, portanto, dificilmente essa seria a causa de um acidente. Como ainda não há uma previsão realista para esses carros chegarem ao mercado, não há qualquer legislação sobre eles.

Melhor sem motorista?

Mesmo com essas questões envolvendo quem seria o culpado em caso de acidentes com carros autônomos, a tendência é que o trânsito se torne mais seguro conforme essa tecnologia for se desenvolvendo.

Mas as leis de trânsito não estão atualizadas o suficiente para essa nova realidade. As leis sempre foram centradas nos motoristas humanos. A pessoa que dirige o carro é responsável pela sua própria segurança e pelas ações que tem no trânsito.

Ainda assim, alguns países esboçam leis sobre o tema. Nos Estados Unidos, há somente regras sobre a produção e a venda desses carros, além de uma avaliação de 15 etapas pela qual fabricantes do carro e dos sistemas precisam passar para garantir sua segurança.

Na Europa, por sua vez, a Alemanha lidera a regulamentação para carros do tipo, determinando que a fabricante do carro só possa ser culpada por acidentes que ocorram enquanto os seus computadores estejam guiando o veículo.

Além disso, há a exigência que esses carros permitam que o motorista tome o controle do veículo a qualquer momento e também há a proibição de que o carro tenha sistemas que, na iminência de acidente, privilegiem salvar bens materiais e não pessoas - como, por exemplo, evitar uma colisão jogando o carro sobre a calçada e atropelando alguém no processo.

Por tratar de uma tecnologia em franco desenvolvimento, essas leis, criadas em 2017, precisam ser atualizadas em dois anos.

Outros países europeus, como Suécia, Finlândia e França já permitem testes com carros autônomos em vias públicas, mas não têm uma regulamentação definida para tal.

Já o Japão, que planeja ter carros autônomos nas Olimpíadas de 2020, firmou um acordo com a União Europeia para para criar regras unificadas para carros autônomos e acelerar o seu desenvolvimento.

Por lá, já vigora um conjunto de regras para testes de veículos do tipo em vias públicas, o que envolve experimentação preliminar em locais fechados, comunicação em duas vias, monitoramento desses carros com sistemas que reproduzam a audição e visão humanas, conseguir aprovação dos moradores do local onde haverá os testes, permitir inspeção prévia do veículo pela polícia, conduzir o teste apenas em áreas com cobertura de sinal wireless e estipular que a pessoa dentro do carro seja habilitada e será responsável pelo acidente. A autorização para esses testes deve ser renovada a cada seis meses.

O problema maior para que leis do tipo sejam desenvolvidas é o atual estado incipiente desse tipo de tecnologia.

Isso não pode ser feito antes de sabermos com o que exatamente estamos lidando, e isso leva tempo, paciência e tentativas

Juiz Cleary

Por enquanto, cada acidente envolvendo carros com modo de condução autônomo deverá ser analisado isoladamente para determinar suas causas, possível participação do motorista ou, ainda, se o "piloto automático" estava acionado ou não.