IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les autorités fédérales accordent cinq semaines supplémentaires à Tesla pour répondre à l'enquête sur le système FSD d'Elon Musk
Pour savoir pourquoi le système de Tesla ignore les feux rouges

Le , par Jade Emy

0PARTAGES

5  0 
Les autorités fédérales accordent cinq semaines supplémentaires à Tesla pour répondre à l'enquête sur le système FSD d'Elon Musk, pour savoir pourquoi le système de Tesla ignore les feux rouges

La NHTSA a informé le constructeur de véhicules électriques qu'il disposerait de cinq semaines supplémentaires pour se conformer à l'ordre de fournir des données dans le cadre d'une enquête sur la sécurité de sa technologie de conduite autonome. L'enquête, lancée en octobre dernier, porte sur près de trois millions de véhicules Tesla équipés du mode « Full Self-Driving » (conduite entièrement autonome) du constructeur automobile, dont le nom est trompeur puisqu'il ne s'agit en réalité que d'une conduite partiellement autonome, après avoir reçu près de 60 signalements de violations du code de la route par le logiciel.

Full Self-Driving (FSD) s’entend conduite entièrement autonome. Full Self-Driving est aussi le nom donné par Tesla à son programme d’essais visant à atteindre la conduite entièrement autonome classée au niveau 5 sur l’échelle de classification de la SAE. L’appellation faisait déjà l’objet de controverses compte tenu des incidents dans lesquels les véhicules du constructeur se sont retrouvés impliqués depuis 2020 – période de lancement de la bêta du mode Full Self-Driving. Parmi les incidents, des vidéos montrent des véhicules Teslas grillés les feux rouges de façon répétée, une autre voiture avec le Full Self Driving actif percute une voiture de police ou encore, une Tesla qui se trouve à deux doigts de se faire écraser par un train parce que la technologie de conduite autonome n’a pas détecté ce dernier.

Ces incidents ont conduit la National Highway Traffic Safety Administration (NHTSA) à ouvrir une nouvelle enquête en octobre 2025, après que le FSD ait amenés les conducteurs de Tesla à commettre 44 infractions au code de la route. La NHTSA a déclaré que l'enquête concernait « tous les véhicules Tesla équipés du FSD (Supervised) ou du FSD (Beta) », soit environ 2 882 566 voitures électriques de la société. Le Bureau d'enquête sur les défauts de la NHTSA a ouvert une évaluation préliminaire afin de « déterminer s'il y avait eu un avertissement préalable ou si le conducteur avait eu suffisamment de temps pour réagir au comportement inattendu » du FSD de Tesla, ou « pour superviser en toute sécurité la tâche de conduite automatisée », entre autres.

Le même mois, les autorités fédérales ont examiné une nouvelle fois Tesla, cette fois-ci au sujet d'une nouvelle version de son logiciel d'aide à la conduite appelé « Mad Max », qui, selon les premiers utilisateurs, permet aux véhicules de la société de rouler plus vite et de manœuvrer de manière plus agressive qu'auparavant. La NHTSA a confirmé avoir contacté Tesla pour demander des informations sur cette fonctionnalité. L'agence a déclaré que son enquête visait à déterminer si ce mode encourageait des comportements contraires au code de la route, tels que le dépassement des limites de vitesse ou les changements de voie brusques.

Il semble que Tesla d'Elon Musk ne bénéficierait jamais d'un traitement de faveur de la part du gouvernement américain. Récemment, la NHTSA a informé le constructeur de véhicules électriques qu'il disposerait de cinq semaines supplémentaires pour se conformer à l'ordre de fournir des données dans le cadre d'une enquête sur la sécurité de sa technologie de conduite autonome.


L'enquête, lancée en octobre dernier, porte sur près de trois millions de véhicules Tesla équipés du mode « Full Self-Driving » (conduite entièrement autonome) du constructeur automobile, dont le nom est trompeur puisqu'il ne s'agit en réalité que d'une conduite partiellement autonome, après avoir reçu près de 60 signalements de violations du code de la route par le logiciel. Quatorze de ces incidents ont donné lieu à des accidents, faisant 23 blessés au total. Dans six de ces accidents, le logiciel de conduite « s'est approché d'un carrefour avec un feu rouge, a continué à rouler dans le carrefour malgré le feu rouge et a ensuite été impliqué dans un accident avec d'autres véhicules à moteur dans le carrefour », selon une plainte de la NHTSA.

La date limite initiale pour fournir les données relatives à ces incidents était fixée au 19 janvier, avec des pénalités potentielles pouvant atteindre 27 874 dollars par jour de retard, pour un maximum de 139,4 millions de dollars. Mais en partie parce que les vacances d'hiver ont un peu raccourci ce délai — et que Tesla a été submergé par d'autres demandes d'enquête sur le bilan de sécurité de sa technologie de conduite autonome —, le constructeur automobile a demandé à prolonger le délai. De toute évidence, sa demande a été entendue : il a désormais jusqu'au 23 février pour se mettre en conformité.

Et pour être honnête envers l'entreprise de Musk, il lui est demandé de fournir beaucoup d'informations. Le bureau d'enquête sur les défauts de la NHTSA a informé le constructeur automobile le 3 décembre qu'il aurait besoin d'une liste de toutes les Tesla produites, vendues ou louées aux États-Unis, qu'elles soient équipées ou non du FSD, ainsi que des données cumulatives indiquant combien de Tesla aux États-Unis sont équipées du FSD et à quelle fréquence il est utilisé, ainsi que des documents tels que les plaintes des clients, les rapports d'incidents et les poursuites judiciaires liées au non-respect du code de la route par le FSD.

D'un autre côté, il est toutefois discutable d'accorder une telle marge de manœuvre à une entreprise que la NHTSA a déjà enquêtée pour avoir omis à plusieurs reprises de signaler des accidents dans les délais impartis. Il est également préoccupant que Tesla ait des antécédents douteux en matière de partage des données sur les accidents et de respect des délais réglementaires. Elle censure depuis longtemps les informations relatives aux accidents impliquant l'Autopilot, le Full Self-Driving et ses robotaxis, au point de rendre les rapports pratiquement inutiles. Les expurgations, justifiées par la protection des « informations commerciales confidentielles », comprennent la suppression de détails fondamentaux tels que le récit de l'accident et la date à laquelle l'incident s'est produit. Parfois, la NHTSA a même expurgé des informations sur les accidents à la demande de Tesla.

Quoi qu'il en soit, cela ne fera qu'ajouter à la liste déjà bien remplie de Tesla. L'entreprise fait déjà l'objet d'une autre enquête de la NHTSA sur le phénomène inquiétant des véhicules FSD roulant droit vers des trains en approche, et elle fait également l'objet d'une enquête distincte pour un accident horrible dans lequel une vidéo montre la caméra du FSD aveuglée par la lumière du soleil avant de renverser et de tuer un piéton âgé.

Parallèlement, elle conteste le verdict du procès qui a condamné le constructeur automobile à verser 329 millions de dollars de dommages et intérêts après qu'un jury l'ait jugé partiellement responsable de la mort d'une femme tuée par une voiture équipée du système Autopilot. Peut-être qu'une tonne de paperasse est une conséquence mineure à supporter lorsque l'on déploie une technologie de « conduite autonome » inachevée et dangereuse sur des millions de voitures.

Cependant, les tests ne rassurent pas. Le système FSD de Tesla a été testé sur plus de 1600 kilomètres par AMCI, un cabinet de recherche automobile indépendant. Au cours du processus d'examen, les conducteurs ont dû intervenir plus de 75 fois. Le système Full Self-Driving (FSD) supervisé peut fonctionner parfaitement des dizaines de fois dans le même scénario, jusqu'à ce qu'il se dérègle de manière inattendue et nécessite l'intervention du conducteur.

Source : National Highway Traffic Safety Administration (NHTSA)

Et vous ?

Pensez-vous que cette décision est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Un juge statue que Tesla s'est livré à des pratiques commerciales trompeuses concernant son système Autopilot, laissant faussement entendre qu'il s'agissait de systèmes de conduite entièrement autonome

Elon Musk supprime la possibilité d'acheter son système de conduite entièrement autonome (FSD) et ne le proposera que sous forme d'abonnement mensuel, après avoir admis les limites du FSD

17 morts, 736 accidents : le bilan alarmant d'Autopilot et Full Self-Driving de Tesla indique-t-il une course à l'innovation au mépris de la sécurité ? Les statistiques de la NHTSA inquiètent
Vous avez lu gratuitement 372 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !