La National Highway Traffic Safety Administration (NHTSA) des États-Unis intensifie son enquête sur le logiciel de conduite entièrement autonome (supervisée) de Tesla, en particulier concernant ses performances dans des conditions de faible visibilité. La sonde a été mise à niveau vers une « analyse technique » – le plus haut niveau d’examen minutieux avant un éventuel rappel – après que les premières conclusions ont soulevé de graves problèmes de sécurité. Cette action signifie une pression fédérale croissante sur Tesla pour qu’elle corrige les failles critiques de sa technologie de conduite autonome.
Enquête initiale et inquiétudes croissantes
L’enquête a débuté en octobre 2024 à la suite d’informations faisant état d’au moins quatre accidents survenus dans des scénarios de faible visibilité, dont un incident mortel impliquant un piéton. Au cours de la dernière année et demie, la NHTSA a échangé des données avec Tesla, identifiant d’autres accidents dans lesquels le système Full Self-Driving n’a pas réussi à répondre de manière adéquate aux mauvaises conditions de visibilité. Le principal problème est que le système ne détecte pas de manière fiable les performances dégradées de la caméra et ne fournit pas d’alertes opportunes au conducteur lorsque la visibilité est réduite.
Problèmes de transparence et sous-déclaration
La NHTSA a également révélé que Tesla avait mis du temps à fournir des informations complètes sur une mise à jour logicielle conçue pour résoudre ces problèmes de faible visibilité. Bien que Tesla ait affirmé avoir commencé à développer un correctif en juin 2024 – avant même le début de l’enquête – la société n’a pas confirmé si la mise à jour avait déjà été déployée ni quels véhicules l’avaient reçue.
En outre, l’agence soupçonne une sous-déclaration potentielle des accidents en raison des limitations des processus de collecte de données et d’étiquetage de Tesla. Cela signifie que la véritable ampleur des défaillances du système n’est peut-être pas encore pleinement comprise. Lors de plusieurs accidents, le logiciel n’a pas réussi à reconnaître une mauvaise visibilité ou n’a pas alerté le conducteur avec suffisamment de temps pour réagir.
Examen plus large des fonctionnalités du pilote automatique de Tesla
Cette enquête est l’une des deux enquêtes actives sur le logiciel de conduite entièrement autonome (supervisée) de Tesla. L’autre enquête examine plus de 80 cas dans lesquels le système d’aide à la conduite a enfreint les règles fondamentales du code de la route, comme le passage de feux rouges. Ces actions interviennent dans le cadre des efforts de Tesla pour lancer un service de robotaxi à Austin, au Texas, intensifiant encore les enjeux tant pour l’entreprise que pour les régulateurs.
Les actions de la NHTSA soulignent la nécessité cruciale de tests rigoureux et de transparence dans la technologie de conduite autonome. Ne pas répondre à ces problèmes de sécurité pourrait avoir de graves conséquences sur la sécurité publique et entraver l’adoption plus large des véhicules autonomes.
Le gouvernement fédéral indique clairement que Tesla doit donner la priorité à la sécurité et coopérer pleinement à ces enquêtes afin de prévenir de nouveaux incidents et garantir la fiabilité de ses fonctionnalités de conduite autonome.



























