Investigação Federal sobre o Software de Condução Autônoma da Tesla: O Que Isso Significa para a Segurança?

O principal regulador de segurança automotiva dos EUA iniciou uma nova investigação sobre o software “Full Self-Driving (Supervisionado)” da Tesla após quatro acidentes relatados em situações de baixa visibilidade — incluindo um caso em que um pedestre foi morto.

O Escritório de Investigação de Defeitos da Administração Nacional de Segurança no Trânsito (NHTSA) dos EUA anunciou na sexta-feira que está investigando o sistema de assistência ao motorista da Tesla para determinar se ele consegue “detectá-las e responder adequadamente às condições de visibilidade reduzida na estrada”, como “reflexos do sol, neblina ou poeira no ar.” A agência também quer saber se outros acidentes ocorreram nessas condições além dos já relatados.

A investigação ocorre apenas uma semana depois que o CEO da Tesla, Elon Musk, revelou o protótipo do “Cybercab”, um carro de dois lugares que, segundo ele, deve servir como um robotáxi, após anos de promessas não cumpridas. Musk também afirmou no evento que o sedã Model 3 e o SUV Model Y da Tesla seriam capazes de operar sem supervisão na Califórnia e no Texas em algum momento de 2025, embora não tenha fornecido detalhes sobre como isso acontecerá.

Em abril, a NHTSA encerrou uma investigação de quase três anos sobre o Autopilot, o software de assistência ao motorista menos capaz que a Tesla oferece, após investigar quase 500 acidentes em que o sistema estava ativo. A agência constatou que 13 desses acidentes foram fatais. Ao mesmo tempo em que encerrou essa investigação, a NHTSA abriu uma nova investigação sobre a correção de recall que a Tesla havia emitido para resolver problemas com o Autopilot.

O software da Tesla também enfrenta outras ameaças legais. O Departamento de Justiça está investigando as alegações feitas pela Tesla sobre suas funcionalidades de assistência ao motorista, e o Departamento de Veículos Motorizados da Califórnia acusou a Tesla de exagerar as capacidades do software.

A empresa ainda enfrenta várias ações judiciais relacionadas a acidentes com o Autopilot. Ela resolveu um dos casos mais proeminentes que estava prestes a ir a julgamento no início deste ano. A empresa já declarou anteriormente que informa aos motoristas que eles devem monitorar constantemente o Full Self-Driving e o Autopilot e estar prontos para retomar o controle a qualquer momento.

A nova investigação anunciada na sexta-feira menciona especificamente quatro acidentes em que o sistema Full Self-Driving (Supervisionado) estava ativo, todos ocorrendo entre novembro de 2023 e maio de 2024.

O acidente de novembro de 2023 ocorreu em Rimrock, Arizona, envolvendo um Model Y que atingiu e matou um pedestre. Outro acidente aconteceu em janeiro de 2024 em Nipton, Califórnia, onde um Model 3 colidiu com outro carro na rodovia durante uma tempestade de poeira. Em março de 2024, um Model 3 colidiu com outro carro na rodovia em Red Mills, Virginia, em condições nubladas. E em maio de 2024, um Model 3 colidiu com um objeto estacionário em uma estrada rural em Collinsville, Ohio, em condições de neblina. A NHTSA observou que alguém ficou ferido no acidente de maio de 2024.

A equipe de investigações de defeitos da NHTSA divide suas investigações em quatro níveis: Petição de Defeito, Avaliação Preliminar, Consulta de Recall e Análise de Engenharia. A agência classificou essa nova investigação como uma avaliação preliminar. A NHTSA normalmente tenta concluir esse tipo de investigação em até oito meses.

Esta matéria foi atualizada com mais detalhes dos documentos da NHTSA.