IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le FSD de Tesla devient de plus en plus mauvais en conduite : la NHTSA ouvre une nouvelle enquête après que le FSD ait amenés les conducteurs de Tesla à commettre 44 infractions au code de la route

Le , par Alex

183PARTAGES

7  0 
Le FSD de Tesla devient de plus en plus mauvais en conduite : la NHTSA ouvre une nouvelle enquête après que le FSD ait amenés les conducteurs de Tesla à commettre 44 infractions au code de la route.

Tesla fait l'objet d'une nouvelle enquête fédérale sur d'éventuels défauts de sécurité dans son système de conduite partiellement automatisé, commercialisé sous le nom de FSD, ou Full Self-Driving (Supervised) aux États-Unis. Cette enquête fait suite à 44 incidents distincts au cours desquels des conducteurs de Tesla utilisant le FSD ont déclaré que le système les avait amenés à commettre des infractions au code de la route. La National Highway Traffic Safety Administration a déclaré que l'enquête concernait environ 2 882 566 véhicules Tesla équipés du FSD.

Il y a un an, le système avancé d'aide à la conduite entièrement autonome supervisé (Full Self-Driving supervised) de Tesla a été testé sur plus de 1600 kilomètres par AMCI, un cabinet de recherche automobile indépendant. Au cours du processus d'examen, les conducteurs ont dû intervenir plus de 75 fois. Le système Full Self-Driving (FSD) supervisé peut fonctionner parfaitement des dizaines de fois dans le même scénario, jusqu'à ce qu'il se dérègle de manière inattendue et nécessite l'intervention du conducteur.

Voici comment Guy Mangiamele, directeur des essais de l'AMCI, résume la situation : "Ce qui est le plus déconcertant et le plus imprévisible, c'est que vous pouvez voir la FSD négocier avec succès un scénario spécifique à plusieurs reprises - souvent sur le même tronçon de route ou à la même intersection - pour la voir échouer de manière inexplicable la fois suivante".

Pourtant, depuis 2016, Tesla affirmait que tous ses véhicules en production seraient capables d'atteindre une capacité de conduite autonome sans supervision. Le PDG Elon Musk a affirmé que cela se produirait « d'ici la fin » de chaque année depuis 2018. Tesla a même vendu à ses clients un logiciel appelé « Full Self-Driving » (FSD) pour un montant pouvant atteindre 15 000 dollars, promettant que le système d'aide à la conduite deviendrait entièrement autonome grâce à des mises à jour logicielles. Mais près d'une décennie plus tard, il n'en est rien. Alors que le logiciel est confronté à de nombreuses défaillances techniques, Tesla décide de renoncer à cette promesse.

Récemment, Tesla fait l'objet d'une enquête fédérale sur d'éventuels défauts de sécurité du FSD, son système de conduite partiellement automatisé également connu sous le nom de Full Self-Driving (Supervised). Dans un avis publié sur le site web de l'agence, la NHTSA a déclaré que l'enquête concernait « tous les véhicules Tesla équipés du FSD (Supervised) ou du FSD (Beta) », soit environ 2 882 566 voitures électriques de la société. Même lorsque le FSD est activé, les voitures Tesla nécessitent la présence d'un conducteur humain prêt à freiner ou à tourner le volant à tout moment.


Les rapports des médias, des propriétaires de véhicules et d'autres incidents transmis à la National Highway Traffic Safety Administration ont montré que dans 44 incidents distincts, des conducteurs de Tesla utilisant le FSD ont déclaré que le système les avait amenés à griller un feu rouge, à se diriger vers la circulation en sens inverse ou à commettre d'autres infractions au code de la route ayant entraîné des collisions, dont certaines ont fait des blessés.

Le Bureau d'enquête sur les défauts de la NHTSA a ouvert une évaluation préliminaire afin de « déterminer s'il y avait eu un avertissement préalable ou si le conducteur avait eu suffisamment de temps pour réagir au comportement inattendu » du FSD de Tesla, ou « pour superviser en toute sécurité la tâche de conduite automatisée », entre autres.

L'examen de l'ODI évaluera également « les avertissements donnés au conducteur concernant le comportement imminent du système ; le temps accordé aux conducteurs pour réagir ; la capacité du FSD à détecter, afficher au conducteur et réagir de manière appropriée aux feux de signalisation ; et la capacité du FSD à détecter et à réagir aux marquages au sol et aux panneaux de signalisation de sens interdit ».

Depuis des années, le PDG de Tesla, Elon Musk, promet aux investisseurs que Tesla sera un jour en mesure de transformer leurs véhicules électriques existants en robotaxis, capables de générer des revenus pour leurs propriétaires pendant qu'ils dorment ou partent en vacances, grâce à une simple mise à jour logicielle. Cela ne s'est pas encore produit, et Tesla a depuis informé les propriétaires que les futures mises à jour nécessiteront du nouveau matériel ainsi que des versions logicielles.

Tesla teste actuellement un service de transport à la demande sous la marque Robotaxi au Texas et ailleurs, mais celui-ci fait appel à des chauffeurs ou des valets de sécurité humains qui conduisent les véhicules ou interviennent manuellement si nécessaire. En février de cette année, Musk et le président Donald Trump ont réduit les effectifs de la NHTSA dans le cadre d'un effort plus large visant à réduire la main-d'œuvre fédérale, ce qui a eu un impact sur la capacité de l'agence à enquêter sur la sécurité des véhicules et à réglementer les véhicules autonomes.

Cette enquête intervient alors que les ventes de Tesla ont chuté de 60 % en France, d’après des données du premier trimestre de l'Association des constructeurs européens d'automobiles (ACEA). La raison a à voir avec le logiciel Full Self Driving (FSD) à propos duquel plus de la moitié des 8000 consommateurs interrogés dans le cadre d’une enquête de l’Electric Vehicle Intelligence Report (EVIR) déclarent qu’il devrait être illégal. C’est le résultat des pratiques commerciales trompeuses de l’entreprise qui finissent par attirer les regards sur la valeur réelle de la filière du véhicule automobile dans son ensemble.

Source : NHTSA

Et vous ?

Pensez-vous que cette enquête est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

La NHTSA ouvre une nouvelle enquête de sécurité concernant le Full Self-Driving de Tesla après quatre accidents, dont un mortel, impliquant la fonctionnalité dans des conditions de visibilité réduite

Les essais des robotaxis de Tesla à Austin ont enregistré trois accidents dès le premier jour, un bilan bien pire que celui de Waymo, avec des collisions, des problèmes logiciels et des infractions routières

La conduite autonome intégrale promise par Elon Musk reste hors de portée : deux actionnaires de Tesla endommagent gravement leur Model Y en tentant de démontrer les capacités du logiciel Full Self-Diriving
Vous avez lu gratuitement 1 513 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 22/01/2026 à 17:48
Citation Envoyé par gabi7756 Voir le message
Ca fait un peu peur d'entendre ça. Après ils ont peut être juste mis un petit random dans le code pour un peu plus de fun ?

1600km pour 75 erreurs <=> 21.3km et hop ya un problème. Pas mal comme stat
Même en comptant le facteur humain, je fais 160km par jour.. 8 fois ou ca merde, donc potentiellement 4-5 fois de situation avec danger de mort.
Je me souviens quand on nous disait comme la conduite autonome est super sûre et que c'est comme un conducteur qui aurait plusieurs milliards de km d'expérience!
5  0 
Avatar de ALT
Membre émérite https://www.developpez.com
Le 25/01/2026 à 1:41
Bon, à mon avis, il y a un biais important : quand on conduit, on regarde la route & on sait quoi faire. Quand on a un véhicule sensé faire le boulot, c'est beaucoup difficile :
  1. il faut maintenir son attention ;
  2. il faut rester prêt à intervenir à tout moment, mais...
  3. outre la crampe due à la position des mains près-du-volant-mais-pas-dessus,
  4. on voit un obstacle arriver. Questions :


  • le véhicule a-t-il repéré l'obstacle ?
  • Donc, va-t-il réagir (freiner, se décaler...) ?
  • Quand ?
  • Accessoirement : à quel moment dois-je considérer que ça déconne & que je dois impérativement reprendre le contrôle (trop tard) ?

Bref, c'est pire que quand on conduit soi-même.
Autant j'attends avec impatience la conduite réellement autonome (niveau 5), autant ces solutions bancales (niveau 4 version bêta voire alpha) me sortent par tous les orifices.
5  0 
Avatar de David_g
Membre éprouvé https://www.developpez.com
Le 23/01/2026 à 9:26
La conduite autonome de Tesla, en fait tu dois être plus concentré sur la conduite que quand c'est toi qui conduit.
4  0 
Avatar de gabi7756
Membre confirmé https://www.developpez.com
Le 23/01/2026 à 10:10
Citation Envoyé par Ryu2000
Il existe des vidéos qui prouvent que l'aide à la conduite de Tesla a permis d'éviter des accidents.
Bon il y a également l'histoire des freinages fantômes, mais c'est encore autre chose...
Il y a des vidéos qui prouve qu'un torchon mouillé à sauvé des vies. Et pourtant on va pas se dire qu'un torchon c'est fiable ?
On peux toujours trouvé sur des centaines de cas un cas qui confirme notre point de vue. Le tout c'est de vérifier la fiabilité de la chose. Or la dans ce cas là c'est pas du tout fiable alors qu'il le vendait de base comme LA révolution du siècle...

Et la on peux divaguer sur tout les sujets, comme la géopolitique par exemple. Certaine infos sont vrai, d'autre c'est du fake, toujours une question de fiabilité
4  0 
Avatar de gabi7756
Membre confirmé https://www.developpez.com
Le 23/01/2026 à 10:44
Citation Envoyé par Ruy2000
Oui, il remplit correctement tous ses rôles.
Ton dépend de son utilisation et de sa qualité ( coton ? ou autre ?).

Citation Envoyé par Ruy2000
il n'y a jamais de surprise, il est prédictible.
Un torchon oui, l'aide à la conduite tesla non...

Citation Envoyé par Ruy2000
"ben non, il y a un véhicule dans ton angle mort, tu ne peux pas t'engager dans la procédure pour le moment".
Plus ca va plus ya de l'assistanat dans une voiture. La je parle pas forcément de tesla mais de tout les industriels automobile qui sous le joug du progrès technologique commence à mettre de l'électronique sans raison partout ( le frein à main, aide à la conduite etc... c'est chiant).
Bientôt faudrait faire un ticket au support pour débrider sa voiture quand tu sors de la ville ?

Y a peut être 6 mois de ça t'as un berlingo sur la voie d'arrêt d'urgence qui redémarre et me déboule devant. T'imagine tu dois prié pour que la voiture te dise pas un gros "non" (car une voiture sur l'autre voie donc non respect de la distance de sécu) sur ton changement de voie en urgence. Parce que t'aurai beau freiné, 50m pour faire 110 à 0. Je connais pas de voiture qui fait ça sur le marché .
4  0 
Avatar de gabi7756
Membre confirmé https://www.developpez.com
Le 22/01/2026 à 17:14
Citation Envoyé par Jade Emy
Le système FSD de Tesla a été testé sur plus de 1600 kilomètres par AMCI,
...
Le système Full Self-Driving (FSD) supervisé peut fonctionner parfaitement des dizaines de fois dans le même scénario, jusqu'à ce qu'il se dérègle de manière inattendue et nécessite l'intervention du conducteur.
"Ce qui est le plus déconcertant et le plus imprévisible, c'est que vous pouvez voir la FSD négocier avec succès un scénario spécifique à plusieurs reprises - souvent sur le même tronçon de route ou à la même intersection - pour la voir échouer de manière inexplicable la fois suivante".
Ca fait un peu peur d'entendre ça. Après ils ont peut être juste mis un petit random dans le code pour un peu plus de fun ?

1600km pour 75 erreurs <=> 21.3km et hop ya un problème. Pas mal comme stat
Même en comptant le facteur humain, je fais 160km par jour.. 8 fois ou ca merde, donc potentiellement 4-5 fois de situation avec danger de mort.
2  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 24/01/2026 à 7:02
Citation Envoyé par gabi7756 Voir le message
Ca fait un peu peur d'entendre ça. Après ils ont peut être juste mis un petit random dans le code pour un peu plus de fun ?


1600km pour 75 erreurs <=> 21.3km et hop ya un problème. Pas mal comme stat
Même en comptant le facteur humain, je fais 160km par jour.. 8 fois ou ca merde, donc potentiellement 4-5 fois de situation avec danger de mort.
Un conducteur fiable, quoi.

Que la machine se plante de temps à autre, en soi ce n'est pas un problème, du moment qu'on est près à prendre la main.

Ce qui est dramatique est que c'est vendu comme permettant de se désintéresser de la route.
Alors, il y a eu des morts.

Et la décision avait été prise en leur nom (sans jamais leur demander leur avis) d'autoriser ces machines à rouler sur la voie publique.
2  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 24/01/2026 à 7:05
Citation Envoyé par David_g Voir le message
La conduite autonome de Tesla, en fait tu dois être plus concentré sur la conduite que quand c'est toi qui conduit.
Ah, c'est ça.
C'est un exercice de concentration.
Avec des feintes de temps en temps pour faire croire que ça marche.
1  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 24/01/2026 à 7:10
Citation Envoyé par gabi7756 Voir le message
Il y a des vidéos qui prouve qu'un torchon mouillé à sauvé des vies. Et pourtant on va pas se dire qu'un torchon c'est fiable ?
Ça dépend, quand c'est pour brûler on peut compter dessus.

Ah, ce n'était pas ça l'exemple ?

Alors c'est fiable si c'est utilisé correctement.
Pour empêcher l'air de passer en le posant pile comme ça a été montré à la formation, oui ça éteint la friteuse.

En posant le coin dans la flamme, il y a des chances que ça ne l'éteigne pas.

N.B. On n'apprend pas à éteindre une friteuse en regardant une vidéo.
On regarde, on trouve ça intéressant. Mais on n'apprend pas.
1  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 24/01/2026 à 8:01
Citation Envoyé par gabi7756 Voir le message
Ton dépend de son utilisation et de sa qualité ( coton ? ou autre ?).
Pour éteindre une friteuse, on peut raisonnablement escompter qu'un torchon mouillé soit fiable, sauf si il est trop petit.

Ce qui n'est pas fiable, c'est le bonhomme qui a juste vu une vidéo.

C'est qu'une friteuse en feu, ça chauffe méchamment plus qu'un réchaud à gaz.

Concernant une voiture, si on laisse de côté la conduite automatique, on peut appliquer l'analogie.
Si la voiture a été correctement révisée, elle est tout-à-fait en mesure de freiner.

En revanche si le conducteur a un coup dans le nez ou n'a pas pris assez de leçons de conduite, l'efficacité du freinage risque d'en pâtir considérablement. Il faut aussi se méfier de l'effet de sa voisine dans la voiture si elle a à la fois une plastique parfaite, une voix douce mais audible et une conversation passionnante.

C'est un cas de figure où la conduite automatique peut se révéler moins influençable. J'ai bien dit, peut.
1  0