Une enquête menée par les autorités américaines sur 467 accidents impliquant des véhicules Tesla a déterminé qu'une « lacune critique en matière de sécurité », qui a conduit les conducteurs à créer de fausses attentes, a conduit à une mauvaise utilisation du système de pilote automatique et à des accidents évitables dans lesquels au moins 13 personnes sont mortes et des dizaines ont été blessées. .

Un rapport de la National Highway Traffic Safety Administration (NHTSA) des États-Unis publié ce vendredi sur son site Internet après trois ans d'enquête a conclu que le « système faible » de Tesla pour garantir que les conducteurs contrôlent le fonctionnement des véhicules avec pilote automatique « n'était pas approprié ».

« Ce déséquilibre a entraîné un écart de sécurité critique entre les attentes des conducteurs quant aux capacités du système L2 et les capacités réelles du système », a noté la NHTSA.

« Le système de contrôle et d'avertissement du pilote automatique était insuffisant pour un système d'aide à la conduite qui nécessite la surveillance constante d'un conducteur humain », a ajouté l'agence fédérale.

La publication du rapport intervient quelques jours après que le PDG de Tesla, Elon Musk, a assuré que l'entreprise ferait bientôt fonctionner ses véhicules de manière autonome.

Musk a même déclaré mardi lors d'une conférence téléphonique après la publication des résultats financiers du premier trimestre de l'année que « si quelqu'un ne croit pas que Tesla va résoudre la conduite autonome, je pense qu'il ne devrait pas investir dans l'entreprise ».

Musk vend Tesla en tant qu'entreprise de véhicules autonomes depuis des années, ce qui a posé des problèmes au constructeur.

En 2017, le cabinet d'avocats Hagens Berman a annoncé un recours collectif contre Tesla pour avoir prétendument induit les consommateurs en erreur concernant les fonctionnalités de son système de pilote automatique.

Et en 2021, plusieurs sénateurs ont demandé à la Federal Trade Commission (FTC) une enquête sur la publicité de Tesla pour Autopilot, qu'ils ont qualifiée de « trompeuse » et « dangereuse ».

Malgré son nom, Autopilot, le système d'aide à la conduite de Tesla, n'est qu'un système de niveau 2 (L2) de conduite autonome, sur une échelle dans laquelle L5 est le maximum possible, lorsque le véhicule peut rouler dans n'importe quelle condition sans avoir besoin d'un conducteur. intervention.

D'autres constructeurs ont équipé leurs véhicules de systèmes d'aide à la conduite L2. La NHTSA a rappelé que les voitures équipées de L2 « doivent utiliser des systèmes d’interaction avec le conducteur et des contrôles d’utilisation appropriés et suffisants pour la conception du système L2 et les attentes du conducteur ».

Dans le cas de Tesla, la NHTSA a conclu que « les commandes du pilote automatique ne garantissaient pas une attention suffisante du conducteur et une utilisation appropriée » tout en « invitant une plus grande confiance du conducteur ».

La NHTSA a déclaré que ses conclusions sont similaires à celles atteintes par Tesla, qui a mis à jour en décembre 2023 le logiciel d'environ 2 millions de véhicules aux États-Unis pour améliorer le système de surveillance.

L'agence fédérale a ajouté qu'elle avait ouvert une enquête pour déterminer si le nouveau logiciel résout les problèmes détectés, même si l'agence a noté qu'après la mise à jour, de nouveaux accidents se sont produits dans des véhicules dont le pilote automatique était activé.

Avec les informations de l'EFE

A lire également