IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les autorités fédérales accordent cinq semaines supplémentaires à Tesla pour répondre à l'enquête sur le système FSD d'Elon Musk
Pour savoir pourquoi le système de Tesla ignore les feux rouges

Le , par Jade Emy

16PARTAGES

5  0 
Les autorités fédérales accordent cinq semaines supplémentaires à Tesla pour répondre à l'enquête sur le système FSD d'Elon Musk, pour savoir pourquoi le système de Tesla ignore les feux rouges

La NHTSA a informé le constructeur de véhicules électriques qu'il disposerait de cinq semaines supplémentaires pour se conformer à l'ordre de fournir des données dans le cadre d'une enquête sur la sécurité de sa technologie de conduite autonome. L'enquête, lancée en octobre dernier, porte sur près de trois millions de véhicules Tesla équipés du mode « Full Self-Driving » (conduite entièrement autonome) du constructeur automobile, dont le nom est trompeur puisqu'il ne s'agit en réalité que d'une conduite partiellement autonome, après avoir reçu près de 60 signalements de violations du code de la route par le logiciel.

Full Self-Driving (FSD) s’entend conduite entièrement autonome. Full Self-Driving est aussi le nom donné par Tesla à son programme d’essais visant à atteindre la conduite entièrement autonome classée au niveau 5 sur l’échelle de classification de la SAE. L’appellation faisait déjà l’objet de controverses compte tenu des incidents dans lesquels les véhicules du constructeur se sont retrouvés impliqués depuis 2020 – période de lancement de la bêta du mode Full Self-Driving. Parmi les incidents, des vidéos montrent des véhicules Teslas grillés les feux rouges de façon répétée, une autre voiture avec le Full Self Driving actif percute une voiture de police ou encore, une Tesla qui se trouve à deux doigts de se faire écraser par un train parce que la technologie de conduite autonome n’a pas détecté ce dernier.

Ces incidents ont conduit la National Highway Traffic Safety Administration (NHTSA) à ouvrir une nouvelle enquête en octobre 2025, après que le FSD ait amenés les conducteurs de Tesla à commettre 44 infractions au code de la route. La NHTSA a déclaré que l'enquête concernait « tous les véhicules Tesla équipés du FSD (Supervised) ou du FSD (Beta) », soit environ 2 882 566 voitures électriques de la société. Le Bureau d'enquête sur les défauts de la NHTSA a ouvert une évaluation préliminaire afin de « déterminer s'il y avait eu un avertissement préalable ou si le conducteur avait eu suffisamment de temps pour réagir au comportement inattendu » du FSD de Tesla, ou « pour superviser en toute sécurité la tâche de conduite automatisée », entre autres.

Le même mois, les autorités fédérales ont examiné une nouvelle fois Tesla, cette fois-ci au sujet d'une nouvelle version de son logiciel d'aide à la conduite appelé « Mad Max », qui, selon les premiers utilisateurs, permet aux véhicules de la société de rouler plus vite et de manœuvrer de manière plus agressive qu'auparavant. La NHTSA a confirmé avoir contacté Tesla pour demander des informations sur cette fonctionnalité. L'agence a déclaré que son enquête visait à déterminer si ce mode encourageait des comportements contraires au code de la route, tels que le dépassement des limites de vitesse ou les changements de voie brusques.

Il semble que Tesla d'Elon Musk ne bénéficierait jamais d'un traitement de faveur de la part du gouvernement américain. Récemment, la NHTSA a informé le constructeur de véhicules électriques qu'il disposerait de cinq semaines supplémentaires pour se conformer à l'ordre de fournir des données dans le cadre d'une enquête sur la sécurité de sa technologie de conduite autonome.


L'enquête, lancée en octobre dernier, porte sur près de trois millions de véhicules Tesla équipés du mode « Full Self-Driving » (conduite entièrement autonome) du constructeur automobile, dont le nom est trompeur puisqu'il ne s'agit en réalité que d'une conduite partiellement autonome, après avoir reçu près de 60 signalements de violations du code de la route par le logiciel. Quatorze de ces incidents ont donné lieu à des accidents, faisant 23 blessés au total. Dans six de ces accidents, le logiciel de conduite « s'est approché d'un carrefour avec un feu rouge, a continué à rouler dans le carrefour malgré le feu rouge et a ensuite été impliqué dans un accident avec d'autres véhicules à moteur dans le carrefour », selon une plainte de la NHTSA.

La date limite initiale pour fournir les données relatives à ces incidents était fixée au 19 janvier, avec des pénalités potentielles pouvant atteindre 27 874 dollars par jour de retard, pour un maximum de 139,4 millions de dollars. Mais en partie parce que les vacances d'hiver ont un peu raccourci ce délai — et que Tesla a été submergé par d'autres demandes d'enquête sur le bilan de sécurité de sa technologie de conduite autonome —, le constructeur automobile a demandé à prolonger le délai. De toute évidence, sa demande a été entendue : il a désormais jusqu'au 23 février pour se mettre en conformité.

Et pour être honnête envers l'entreprise de Musk, il lui est demandé de fournir beaucoup d'informations. Le bureau d'enquête sur les défauts de la NHTSA a informé le constructeur automobile le 3 décembre qu'il aurait besoin d'une liste de toutes les Tesla produites, vendues ou louées aux États-Unis, qu'elles soient équipées ou non du FSD, ainsi que des données cumulatives indiquant combien de Tesla aux États-Unis sont équipées du FSD et à quelle fréquence il est utilisé, ainsi que des documents tels que les plaintes des clients, les rapports d'incidents et les poursuites judiciaires liées au non-respect du code de la route par le FSD.

D'un autre côté, il est toutefois discutable d'accorder une telle marge de manœuvre à une entreprise que la NHTSA a déjà enquêtée pour avoir omis à plusieurs reprises de signaler des accidents dans les délais impartis. Il est également préoccupant que Tesla ait des antécédents douteux en matière de partage des données sur les accidents et de respect des délais réglementaires. Elle censure depuis longtemps les informations relatives aux accidents impliquant l'Autopilot, le Full Self-Driving et ses robotaxis, au point de rendre les rapports pratiquement inutiles. Les expurgations, justifiées par la protection des « informations commerciales confidentielles », comprennent la suppression de détails fondamentaux tels que le récit de l'accident et la date à laquelle l'incident s'est produit. Parfois, la NHTSA a même expurgé des informations sur les accidents à la demande de Tesla.

Quoi qu'il en soit, cela ne fera qu'ajouter à la liste déjà bien remplie de Tesla. L'entreprise fait déjà l'objet d'une autre enquête de la NHTSA sur le phénomène inquiétant des véhicules FSD roulant droit vers des trains en approche, et elle fait également l'objet d'une enquête distincte pour un accident horrible dans lequel une vidéo montre la caméra du FSD aveuglée par la lumière du soleil avant de renverser et de tuer un piéton âgé.

Parallèlement, elle conteste le verdict du procès qui a condamné le constructeur automobile à verser 329 millions de dollars de dommages et intérêts après qu'un jury l'ait jugé partiellement responsable de la mort d'une femme tuée par une voiture équipée du système Autopilot. Peut-être qu'une tonne de paperasse est une conséquence mineure à supporter lorsque l'on déploie une technologie de « conduite autonome » inachevée et dangereuse sur des millions de voitures.

Cependant, les tests ne rassurent pas. Le système FSD de Tesla a été testé sur plus de 1600 kilomètres par AMCI, un cabinet de recherche automobile indépendant. Au cours du processus d'examen, les conducteurs ont dû intervenir plus de 75 fois. Le système Full Self-Driving (FSD) supervisé peut fonctionner parfaitement des dizaines de fois dans le même scénario, jusqu'à ce qu'il se dérègle de manière inattendue et nécessite l'intervention du conducteur.

Source : National Highway Traffic Safety Administration (NHTSA)

Et vous ?

Pensez-vous que cette décision est crédible ou pertinente ?
Quel est votre avis sur le sujet ?

Voir aussi :

Un juge statue que Tesla s'est livré à des pratiques commerciales trompeuses concernant son système Autopilot, laissant faussement entendre qu'il s'agissait de systèmes de conduite entièrement autonome

Elon Musk supprime la possibilité d'acheter son système de conduite entièrement autonome (FSD) et ne le proposera que sous forme d'abonnement mensuel, après avoir admis les limites du FSD

17 morts, 736 accidents : le bilan alarmant d'Autopilot et Full Self-Driving de Tesla indique-t-il une course à l'innovation au mépris de la sécurité ? Les statistiques de la NHTSA inquiètent
Vous avez lu gratuitement 1 825 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 22/01/2026 à 17:48
Citation Envoyé par gabi7756 Voir le message
Ca fait un peu peur d'entendre ça. Après ils ont peut être juste mis un petit random dans le code pour un peu plus de fun ?

1600km pour 75 erreurs <=> 21.3km et hop ya un problème. Pas mal comme stat
Même en comptant le facteur humain, je fais 160km par jour.. 8 fois ou ca merde, donc potentiellement 4-5 fois de situation avec danger de mort.
Je me souviens quand on nous disait comme la conduite autonome est super sûre et que c'est comme un conducteur qui aurait plusieurs milliards de km d'expérience!
5  0 
Avatar de ALT
Membre émérite https://www.developpez.com
Le 25/01/2026 à 1:41
Bon, à mon avis, il y a un biais important : quand on conduit, on regarde la route & on sait quoi faire. Quand on a un véhicule sensé faire le boulot, c'est beaucoup difficile :
  1. il faut maintenir son attention ;
  2. il faut rester prêt à intervenir à tout moment, mais...
  3. outre la crampe due à la position des mains près-du-volant-mais-pas-dessus,
  4. on voit un obstacle arriver. Questions :


  • le véhicule a-t-il repéré l'obstacle ?
  • Donc, va-t-il réagir (freiner, se décaler...) ?
  • Quand ?
  • Accessoirement : à quel moment dois-je considérer que ça déconne & que je dois impérativement reprendre le contrôle (trop tard) ?

Bref, c'est pire que quand on conduit soi-même.
Autant j'attends avec impatience la conduite réellement autonome (niveau 5), autant ces solutions bancales (niveau 4 version bêta voire alpha) me sortent par tous les orifices.
5  0 
Avatar de David_g
Membre éprouvé https://www.developpez.com
Le 23/01/2026 à 9:26
La conduite autonome de Tesla, en fait tu dois être plus concentré sur la conduite que quand c'est toi qui conduit.
4  0 
Avatar de gabi7756
Membre confirmé https://www.developpez.com
Le 23/01/2026 à 10:10
Citation Envoyé par Ryu2000
Il existe des vidéos qui prouvent que l'aide à la conduite de Tesla a permis d'éviter des accidents.
Bon il y a également l'histoire des freinages fantômes, mais c'est encore autre chose...
Il y a des vidéos qui prouve qu'un torchon mouillé à sauvé des vies. Et pourtant on va pas se dire qu'un torchon c'est fiable ?
On peux toujours trouvé sur des centaines de cas un cas qui confirme notre point de vue. Le tout c'est de vérifier la fiabilité de la chose. Or la dans ce cas là c'est pas du tout fiable alors qu'il le vendait de base comme LA révolution du siècle...

Et la on peux divaguer sur tout les sujets, comme la géopolitique par exemple. Certaine infos sont vrai, d'autre c'est du fake, toujours une question de fiabilité
4  0 
Avatar de gabi7756
Membre confirmé https://www.developpez.com
Le 23/01/2026 à 10:44
Citation Envoyé par Ruy2000
Oui, il remplit correctement tous ses rôles.
Ton dépend de son utilisation et de sa qualité ( coton ? ou autre ?).

Citation Envoyé par Ruy2000
il n'y a jamais de surprise, il est prédictible.
Un torchon oui, l'aide à la conduite tesla non...

Citation Envoyé par Ruy2000
"ben non, il y a un véhicule dans ton angle mort, tu ne peux pas t'engager dans la procédure pour le moment".
Plus ca va plus ya de l'assistanat dans une voiture. La je parle pas forcément de tesla mais de tout les industriels automobile qui sous le joug du progrès technologique commence à mettre de l'électronique sans raison partout ( le frein à main, aide à la conduite etc... c'est chiant).
Bientôt faudrait faire un ticket au support pour débrider sa voiture quand tu sors de la ville ?

Y a peut être 6 mois de ça t'as un berlingo sur la voie d'arrêt d'urgence qui redémarre et me déboule devant. T'imagine tu dois prié pour que la voiture te dise pas un gros "non" (car une voiture sur l'autre voie donc non respect de la distance de sécu) sur ton changement de voie en urgence. Parce que t'aurai beau freiné, 50m pour faire 110 à 0. Je connais pas de voiture qui fait ça sur le marché .
4  0 
Avatar de gabi7756
Membre confirmé https://www.developpez.com
Le 22/01/2026 à 17:14
Citation Envoyé par Jade Emy
Le système FSD de Tesla a été testé sur plus de 1600 kilomètres par AMCI,
...
Le système Full Self-Driving (FSD) supervisé peut fonctionner parfaitement des dizaines de fois dans le même scénario, jusqu'à ce qu'il se dérègle de manière inattendue et nécessite l'intervention du conducteur.
"Ce qui est le plus déconcertant et le plus imprévisible, c'est que vous pouvez voir la FSD négocier avec succès un scénario spécifique à plusieurs reprises - souvent sur le même tronçon de route ou à la même intersection - pour la voir échouer de manière inexplicable la fois suivante".
Ca fait un peu peur d'entendre ça. Après ils ont peut être juste mis un petit random dans le code pour un peu plus de fun ?

1600km pour 75 erreurs <=> 21.3km et hop ya un problème. Pas mal comme stat
Même en comptant le facteur humain, je fais 160km par jour.. 8 fois ou ca merde, donc potentiellement 4-5 fois de situation avec danger de mort.
2  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 24/01/2026 à 7:02
Citation Envoyé par gabi7756 Voir le message
Ca fait un peu peur d'entendre ça. Après ils ont peut être juste mis un petit random dans le code pour un peu plus de fun ?


1600km pour 75 erreurs <=> 21.3km et hop ya un problème. Pas mal comme stat
Même en comptant le facteur humain, je fais 160km par jour.. 8 fois ou ca merde, donc potentiellement 4-5 fois de situation avec danger de mort.
Un conducteur fiable, quoi.

Que la machine se plante de temps à autre, en soi ce n'est pas un problème, du moment qu'on est près à prendre la main.

Ce qui est dramatique est que c'est vendu comme permettant de se désintéresser de la route.
Alors, il y a eu des morts.

Et la décision avait été prise en leur nom (sans jamais leur demander leur avis) d'autoriser ces machines à rouler sur la voie publique.
2  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 24/01/2026 à 7:05
Citation Envoyé par David_g Voir le message
La conduite autonome de Tesla, en fait tu dois être plus concentré sur la conduite que quand c'est toi qui conduit.
Ah, c'est ça.
C'est un exercice de concentration.
Avec des feintes de temps en temps pour faire croire que ça marche.
1  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 24/01/2026 à 7:10
Citation Envoyé par gabi7756 Voir le message
Il y a des vidéos qui prouve qu'un torchon mouillé à sauvé des vies. Et pourtant on va pas se dire qu'un torchon c'est fiable ?
Ça dépend, quand c'est pour brûler on peut compter dessus.

Ah, ce n'était pas ça l'exemple ?

Alors c'est fiable si c'est utilisé correctement.
Pour empêcher l'air de passer en le posant pile comme ça a été montré à la formation, oui ça éteint la friteuse.

En posant le coin dans la flamme, il y a des chances que ça ne l'éteigne pas.

N.B. On n'apprend pas à éteindre une friteuse en regardant une vidéo.
On regarde, on trouve ça intéressant. Mais on n'apprend pas.
1  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 24/01/2026 à 8:01
Citation Envoyé par gabi7756 Voir le message
Ton dépend de son utilisation et de sa qualité ( coton ? ou autre ?).
Pour éteindre une friteuse, on peut raisonnablement escompter qu'un torchon mouillé soit fiable, sauf si il est trop petit.

Ce qui n'est pas fiable, c'est le bonhomme qui a juste vu une vidéo.

C'est qu'une friteuse en feu, ça chauffe méchamment plus qu'un réchaud à gaz.

Concernant une voiture, si on laisse de côté la conduite automatique, on peut appliquer l'analogie.
Si la voiture a été correctement révisée, elle est tout-à-fait en mesure de freiner.

En revanche si le conducteur a un coup dans le nez ou n'a pas pris assez de leçons de conduite, l'efficacité du freinage risque d'en pâtir considérablement. Il faut aussi se méfier de l'effet de sa voisine dans la voiture si elle a à la fois une plastique parfaite, une voix douce mais audible et une conversation passionnante.

C'est un cas de figure où la conduite automatique peut se révéler moins influençable. J'ai bien dit, peut.
1  0