IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La conduite autonome intégrale promise par Elon Musk reste hors de portée : deux actionnaires de Tesla endommagent gravement leur Model Y en tentant de démontrer les capacités du logiciel Full Self-Diriving

Le , par Mathis Lucas

206PARTAGES

4  0 
La conduite autonome intégrale promise par Elon Musk reste hors de portée : deux actionnaires de Tesla endommagent gravement leur Model Y en tentant de démontrer les capacités du logiciel Full Self-Diriving

Elon Musk promet une conduite autonome intégrale sans supervision depuis 2016. Environ une décennie plus tard, sa promesse est loin d'être tenue. La version actuelle de son logiciel Full Self-Driving (FSD) présente encore de graves limites techniques et expose les utilisateurs à des risques réels. Lors d'un récent test du FSD, le logiciel a violemment percuté un obstacle sur la route. Le conducteur n’avait pas les mains sur le volant au moment où le passager signale les débris bien en avance. Le véhicule a été gravement endommagé en raison de l'impact : barre de torsion brisée, composants de la suspension touchés, nombreux avertissements du système.

La conduite autonome est la promesse centrale autour de laquelle Elon Musk a bâti son entreprise. Il est convaincu qu'il s'agit de la prochaine frontière de l'industrie automobile. Tesla n'a jamais livré de véhicule véritablement autonome, mais le milliardaire continue d'affirmer que « ses voitures rouleront bientôt sans aucune intervention humaine ». En attendant, l'Autopilot, son logiciel d'aide à la conduite, n'est pas vraiment aussi avancé qu'il le prétend.

Et même les partisans d'Elon Musk se rendent compte des dangers liés aux défaillances techniques du logiciel. Récemment, deux actionnaires de Tesla et influenceurs ont voulu démontrer que la promesse de longue date d’Elon Musk d’un trajet autonome d’une côte à l’autre des États-Unis est enfin réalisable.

Leur objectif : parcourir les États-Unis de San Diego à Jacksonville en utilisant uniquement le mode Full Self-Driving (FSD). Mais leur Tesla Model Y équipée de la dernière version du système n’a pas tenu longtemps. Après seulement une soixantaine de miles (96,5606 km), soit à peine 2,5 % du trajet prévu, la voiture a percuté des débris sur la route. Le conducteur, qui n’avait pas les mains sur le volant, a réagi trop tard malgré l’avertissement du passager. L’impact a endommagé la suspension et d’autres composants essentiels, mettant fin prématurément à l’expérience.

En 2016, Elon Musk avait déclaré que Tesla réaliserait « un trajet entièrement autonome entre Los Angeles et New York d'ici la fin de l'année 2017 ». Nous sommes en 2025 et Tesla n'a jamais réalisé ce trajet. L'idée des deux actionnaires de Tesla était de diffuser en direct ou de filmer un trajet complet non monté entre les deux côtes, avec le véhicule roulant de manière autonome tout au long du trajet. Ils n'ont même pas réussi à quitter la Californie.


Dans la vidéo, on peut voir que le conducteur n'a pas les mains sur le volant. Le passager repère les débris bien à l'avance. Il y avait largement le temps de réagir, mais le conducteur n'a mis les mains sur le volant qu'à la dernière seconde. Dans une vidéo complémentaire, les deux actionnaires de Tesla ont confirmé que leur Tesla Model Y avait un support de barre stabilisatrice cassé et des composants de suspension endommagés. Le véhicule émet également de nombreux avertissements.

Les limites mises en évidence

Cet échec illustre les faiblesses actuelles du système Full Self-Driving. Malgré ce que pourrait laisser entendre son nom, Tesla le considère toujours comme un système d'aide à la conduite de niveau 2, qui nécessite une vigilance constante du conducteur et la possibilité de reprendre le contrôle immédiatement. L’incident rappelle aussi que la promesse initiale d’Elon Musk, annoncée dès 2016 pour être tenue en 2017, n’est toujours pas concrétisée.

Tesla précise désormais : « FSD désigne un système de conduite avancé, quel que soit le nom commercial utilisé, capable d'effectuer des tâches de transport offrant une fonctionnalité autonome ou similaire dans des conditions de conduite spécifiques ». Cette définition réduit en fait le Full Self Driving à tout système de conduite avancé pouvant inclure des fonctions d'aide à la conduite supervisées. Ce qui est loin de la promesse initiale d'Elon Musk.

Par le passé, Elon Musk, PDG de Tesla, disait que lorsque l'on atteint 99 % d'autonomie, c'est là que commence la « marche des 9 », et qu'il faut atteindre 99,999999999 % d'autonomie pour disposer d'un système de conduite autonome vraiment utile. Le milliardaire a admis que c'était la partie la plus difficile, car le monde réel est imprévisible et difficile à simuler, vous confrontant à de nombreux scénarios difficiles, tels que des débris sur la route.

L'expérience des deux influenceurs suggère que Tesla se trouve actuellement dans cette phase. La partie difficile vient de commencer. Et nul ne sait combien de temps il faudra pour y parvenir. Mais la concurrence, principalement la filiale Waymo du groupe Alphabet, a commencé sa propre « marche des 9 » il y a environ cinq ans. Tesla a encore des années de retard, et quelque chose comme cette conduite par ces deux influenceurs Tesla le prouve.

Plutôt que de valider l’autonomie complète de Tesla, cette tentative ratée montre que la technologie reste loin d’un véritable trajet sans intervention humaine. L’épisode renforce le scepticisme sur les annonces répétées d'Elon Musk concernant l’avenir immédiat de la conduite entièrement autonome.

Full Self-Driving : une nouvelle définition extrêmement vague

En juillet 2025, le PDG de Ford, Jim Farley, a fait part de son scepticisme à l'égard de l'approche de Tesla en matière de conduite autonome. Tesla s'appuie uniquement sur des caméras pour ses fonctions de conduite autonome, tandis que Waymo utilise une combinaison de caméras, de radars et de LiDAR. Invité à comparer les deux systèmes, Jim Farley a souligné les limites du modèle de Tesla et a déclaré que l'approche de Waymo semble « plus logique ».

Aujourd'hui, Tesla a modifié la signification de « conduite entièrement autonome » pour renoncer à sa promesse initiale d'offrir une autonomie sans supervision. L'entreprise a déjà confirmé que tous les véhicules produits entre 2016 et 2023 ne disposent pas du matériel nécessaire pour offrir une conduite autonome comme promise. Cela signifie que Tesla a menti lorsqu'il a promis à ses clients qu'ils pourraient un jour convertir leurs véhicules en « robotaxis ».

Tesla a modifié son discours et ne vend désormais plus que des systèmes « Full Self-Driving (Supervised) » (conduite entièrement autonome sous supervision) à ses clients. Les petits caractères précisent que cela ne rend pas le véhicule « autonome » et ne promet pas cette fonctionnalité. Ainsi, les clients qui achètent le Full Self Driving aujourd'hui n'achètent pas la capacité de conduite autonome sans supervision comme l'ont fait les acheteurs précédents.

Tesla a vendu le pack Full Self-Driving Capability pour un montant pouvant atteindre 15 000 dollars, assurant aux clients que le système évoluerait vers une autonomie totale grâce à des mises à jour en direct. Mais aujourd'hui, l'on est bien loin de la vision initiale. En réalité, le Full Self-Driving est désormais commercialisé comme un simple système avancé d'aide à la conduite (ADAS) sans aucun engagement en matière d'autonomie sans surveillance.

La redéfinition signifie que Tesla ne promet plus aux propriétaires qu'ils pourront s'endormir et se réveiller à destination sans surveillance, une promesse qu'Elon Musk a utilisée pendant des années pour stimuler les ventes. Cela met en évidence une différence flagrante entre la manière dont Tesla commercialise le logiciel auprès des clients et des investisseurs et le langage prudent utilisé dans les documents juridiques et les documents relatifs à la rémunération.

Conduite autonome : l'échec de l'Autopilot et du Full Self-Driving

Au fils des ans, les logiciels Autopilot et Full Self-Driving de Tesla ont été impliqués dans de nombreux accidents, parfois graves ou mortels. Les documents contiennent plus de 2 400 plaintes de clients concernant des accélérations involontaires et plus de 1 500 problèmes de freinage, dont 139 cas impliquant un freinage d'urgence sans cause et 383 freinages fantômes déclenchés par de fausses alertes de collision. Plus de 1 000 accidents sont documentés.

En outre, un document distinct sur les incidents liés à l'aide à la conduite, pour lesquels les clients ont soulevé des préoccupations en matière de sécurité, répertorie plus de 3 000 entrées. La plus ancienne date de 2015, la plus récente de mars 2022. Sur cette période, Tesla a livré environ 2,6 millions de véhicules équipés du logiciel Autopilot. La plupart des incidents se sont produits aux États-Unis, mais des plaintes ont été enregistrées en Europe et en Asie.

Les clients ont décrit leurs voitures comme accélérant soudainement ou freinant brusquement. Certains s'en sont sortis avec une frayeur, d'autres ont fini dans des fossés, ont percuté des murs ou sont entrés en collision avec des véhicules venant en sens inverse. « Après avoir déposé mon fils sur le parking de son école, alors que je m'apprêtais à prendre la sortie à droite, la voiture a soudainement fait un bond en avant », peut-on lire dans une plainte.

Ces dernières années, la NHTSA a recensé plusieurs cas dans lesquels des Tesla ont percuté des véhicules d'urgence à l'arrêt. Dans chacun de ces cas, l'Autopilot s'est désactivé « moins d'une seconde avant l'impact », ce qui laisse beaucoup trop peu de temps au conducteur pour réagir. Les critiques ont averti que ce comportement pourrait permettre à Tesla de faire valoir devant les tribunaux que l'Autopilot n'était pas activé au moment de l'impact.

Le YouTuber Mark Rober, ancien ingénieur à la NASA, a reproduit ce comportement dans une expérience réalisée le 15 mars 2025. Il a simulé une série de situations dangereuses dans lesquelles la Tesla Model Y a obtenu des résultats nettement inférieurs à ceux d'un véhicule concurrent. La Tesla a roulé à plusieurs reprises sur un mannequin d'essai sans freiner. La vidéo est devenue virale, accumulant plus de 14 millions de vues en quelques jours.

L'expérience du YouTuber Mark Rober renforce l'argument selon lequel les systèmes de conduite autonome basés sur le LiDAR sont plus fiables que les systèmes de conduite autonome utilisant uniquement des caméras, comme les systèmes Autopilot et Full Self-Driving de Tesla. La seconde voiture testée par Mark Rober est équipée d'un système de conduite autonome utilisant une combinaison de LiDAR, de caméras et d'autres types de capteurs.

Tesla a décidé de renoncer au LiDAR et de s'appuyer entièrement sur la vision par ordinateur. Selon les critiques, la vision par ordinateur est limitée, ce qui justifierait les défaillances des systèmes Autopilot et Full Self-Driving de Tesla. Le PDG de Tesla, Elon Musk, a qualifié le LiDAR de « béquille », et a déclaré qu'il s'agit d'une « aventure insensée ». Cependant, de nombreux experts de l'industrie automobile ne partagent pas l'avis du PDG de Tesla.

Le logiciel FSD de Tesla est très impopulaire et rebute les clients

Les ventes de Tesla ont chuté de 60 % en France, d’après des données du premier trimestre de l'Association des constructeurs européens d'automobiles (ACEA). La raison a à voir avec le logiciel Full Self Driving à propos duquel plus de la moitié des 8000 consommateurs interrogés dans le cadre d’une récente enquête de l’Electric Vehicle Intelligence Report (EVIR) déclarent qu’il devrait être illégal. C’est le résultat des pratiques commerciales trompeuses de l’entreprise qui finissent par attirer les regards sur la valeur réelle de la filière du véhicule automobile dans son ensemble.

Tesla a récemment supprimé le terme « Full Self-Driving » du nom de son logiciel de conduite autonome en Chine, le FSD ayant déjà été taxé de publicité mensongère pour avoir laissé croire que les véhicules Tesla étaient entièrement autonomes.

La Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) a pour sa part déclaré que ses agents avaient enquêté sur la filiale française de Tesla entre 2023 et 2024 après que des plaintes aient été déposées sur une plateforme dédiée aux consommateurs.

L'enquête a révélé « des pratiques commerciales trompeuses concernant les capacités de conduite entièrement autonome des véhicules Tesla, la disponibilité de certaines options et les offres de reprise de véhicules », selon la DGCCRF.

L'agence a également cité des retards dans le remboursement des commandes annulées, un manque d'informations sur le lieu de livraison et des contrats de vente incomplets, entre autres infractions.

Tesla a obtenu un délai de quatre mois pour se mettre en conformité avec la réglementation. L'entreprise s'expose à une amende journalière de 50 000 euros si elle ne met pas fin à ses pratiques commerciales trompeuses concernant l'option de conduite entièrement autonome de certains modèles Tesla.

L'enquête de la DGCCRF fait écho à des préoccupations plus générales concernant la technologie de conduite autonome de Tesla. Lors d'un test de 1 600 kilomètres mené par la société indépendante AMCI, le système Full Self-Driving de Tesla a commis des erreurs occasionnelles dangereuses et a nécessité l'intervention du conducteur à plus de 75 reprises alors que le système était actif.

Ces préoccupations sont d'autant plus importantes que les statistiques de sécurité sont inquiétantes. Selon une récente étude, malgré des fonctionnalités avancées telles que l'Autopilot et le Full Self-Driving, censées réduire l'erreur humaine, Tesla aurait le taux d'accidents mortels le plus élevé parmi les marques automobiles. Ce constat soulève de nombreuses questions sur la sécurité des voitures électriques, l’efficacité des systèmes d’assistance à la conduite et le comportement des conducteurs.

Conclusion

Le logiciel Full Self-Driving, présenté comme une révolution, montre encore de sérieuses limites techniques et nécessite en permanence la vigilance humaine. L’accident des influenceurs illustre clairement que Tesla est loin de proposer une autonomie complète et sûre, et que les annonces répétées d’Elon Musk se heurtent toujours à la réalité technique et sécuritaire. En définitive, la traversée autonome “d’une côte à l’autre” reste pour l’instant un objectif symbolique, utilisé davantage comme argument marketing que comme réalité technologique.

Malgré les nombreux objectifs manqués en matière de conduite autonome, de nombreux actionnaires de Tesla estiment que l'entreprise est sur le point de proposer une conduite autonome sans supervision, à la suite du déploiement de sa flotte de robotaxis à Austin, au Texas. Cependant, ces robotaxis nécessitent encore la supervision d'employés Tesla. Un rapport signale également que les robotaxis de Tesla enregistrent déjà des accidents inquiétants.

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi

Tesla modifie la signification du terme « Full Self-Driving » et renonce à sa promesse d'offrir une conduite autonome sans surveillance, les problèmes techniques persistent et le logiciel rebute les clients

Les essais des robotaxis de Tesla à Austin ont enregistré trois accidents dès le premier jour, un bilan bien pire que celui de Waymo, avec des collisions, des problèmes logiciels et des infractions routières

Waymo obtient l'autorisation d'exploiter un service de robotaxis entièrement autonomes à l'aéroport international de San Francisco
Vous avez lu gratuitement 1 943 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 22/01/2026 à 17:48
Citation Envoyé par gabi7756 Voir le message
Ca fait un peu peur d'entendre ça. Après ils ont peut être juste mis un petit random dans le code pour un peu plus de fun ?

1600km pour 75 erreurs <=> 21.3km et hop ya un problème. Pas mal comme stat
Même en comptant le facteur humain, je fais 160km par jour.. 8 fois ou ca merde, donc potentiellement 4-5 fois de situation avec danger de mort.
Je me souviens quand on nous disait comme la conduite autonome est super sûre et que c'est comme un conducteur qui aurait plusieurs milliards de km d'expérience!
5  0 
Avatar de David_g
Membre éprouvé https://www.developpez.com
Le 23/01/2026 à 9:26
La conduite autonome de Tesla, en fait tu dois être plus concentré sur la conduite que quand c'est toi qui conduit.
3  0 
Avatar de gabi7756
Membre confirmé https://www.developpez.com
Le 22/01/2026 à 17:14
Citation Envoyé par Jade Emy
Le système FSD de Tesla a été testé sur plus de 1600 kilomètres par AMCI,
...
Le système Full Self-Driving (FSD) supervisé peut fonctionner parfaitement des dizaines de fois dans le même scénario, jusqu'à ce qu'il se dérègle de manière inattendue et nécessite l'intervention du conducteur.
"Ce qui est le plus déconcertant et le plus imprévisible, c'est que vous pouvez voir la FSD négocier avec succès un scénario spécifique à plusieurs reprises - souvent sur le même tronçon de route ou à la même intersection - pour la voir échouer de manière inexplicable la fois suivante".
Ca fait un peu peur d'entendre ça. Après ils ont peut être juste mis un petit random dans le code pour un peu plus de fun ?

1600km pour 75 erreurs <=> 21.3km et hop ya un problème. Pas mal comme stat
Même en comptant le facteur humain, je fais 160km par jour.. 8 fois ou ca merde, donc potentiellement 4-5 fois de situation avec danger de mort.
2  0 
Avatar de gabi7756
Membre confirmé https://www.developpez.com
Le 23/01/2026 à 10:10
Citation Envoyé par Ryu2000
Il existe des vidéos qui prouvent que l'aide à la conduite de Tesla a permis d'éviter des accidents.
Bon il y a également l'histoire des freinages fantômes, mais c'est encore autre chose...
Il y a des vidéos qui prouve qu'un torchon mouillé à sauvé des vies. Et pourtant on va pas se dire qu'un torchon c'est fiable ?
On peux toujours trouvé sur des centaines de cas un cas qui confirme notre point de vue. Le tout c'est de vérifier la fiabilité de la chose. Or la dans ce cas là c'est pas du tout fiable alors qu'il le vendait de base comme LA révolution du siècle...

Et la on peux divaguer sur tout les sujets, comme la géopolitique par exemple. Certaine infos sont vrai, d'autre c'est du fake, toujours une question de fiabilité
2  0 
Avatar de gabi7756
Membre confirmé https://www.developpez.com
Le 23/01/2026 à 10:44
Citation Envoyé par Ruy2000
Oui, il remplit correctement tous ses rôles.
Ton dépend de son utilisation et de sa qualité ( coton ? ou autre ?).

Citation Envoyé par Ruy2000
il n'y a jamais de surprise, il est prédictible.
Un torchon oui, l'aide à la conduite tesla non...

Citation Envoyé par Ruy2000
"ben non, il y a un véhicule dans ton angle mort, tu ne peux pas t'engager dans la procédure pour le moment".
Plus ca va plus ya de l'assistanat dans une voiture. La je parle pas forcément de tesla mais de tout les industriels automobile qui sous le joug du progrès technologique commence à mettre de l'électronique sans raison partout ( le frein à main, aide à la conduite etc... c'est chiant).
Bientôt faudrait faire un ticket au support pour débrider sa voiture quand tu sors de la ville ?

Y a peut être 6 mois de ça t'as un berlingo sur la voie d'arrêt d'urgence qui redémarre et me déboule devant. T'imagine tu dois prié pour que la voiture te dise pas un gros "non" (car une voiture sur l'autre voie donc non respect de la distance de sécu) sur ton changement de voie en urgence. Parce que t'aurai beau freiné, 50m pour faire 110 à 0. Je connais pas de voiture qui fait ça sur le marché .
2  0 
Avatar de ALT
Membre émérite https://www.developpez.com
Le 25/01/2026 à 1:41
Bon, à mon avis, il y a un biais important : quand on conduit, on regarde la route & on sait quoi faire. Quand on a un véhicule sensé faire le boulot, c'est beaucoup difficile :
  1. il faut maintenir son attention ;
  2. il faut rester prêt à intervenir à tout moment, mais...
  3. outre la crampe due à la position des mains près-du-volant-mais-pas-dessus,
  4. on voit un obstacle arriver. Questions :


  • le véhicule a-t-il repéré l'obstacle ?
  • Donc, va-t-il réagir (freiner, se décaler...) ?
  • Quand ?
  • Accessoirement : à quel moment dois-je considérer que ça déconne & que je dois impérativement reprendre le contrôle (trop tard) ?

Bref, c'est pire que quand on conduit soi-même.
Autant j'attends avec impatience la conduite réellement autonome (niveau 5), autant ces solutions bancales (niveau 4 version bêta voire alpha) me sortent par tous les orifices.
1  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 24/01/2026 à 7:02
Citation Envoyé par gabi7756 Voir le message
Ca fait un peu peur d'entendre ça. Après ils ont peut être juste mis un petit random dans le code pour un peu plus de fun ?


1600km pour 75 erreurs <=> 21.3km et hop ya un problème. Pas mal comme stat
Même en comptant le facteur humain, je fais 160km par jour.. 8 fois ou ca merde, donc potentiellement 4-5 fois de situation avec danger de mort.
Un conducteur fiable, quoi.

Que la machine se plante de temps à autre, en soi ce n'est pas un problème, du moment qu'on est près à prendre la main.

Ce qui est dramatique est que c'est vendu comme permettant de se désintéresser de la route.
Alors, il y a eu des morts.

Et la décision avait été prise en leur nom (sans jamais leur demander leur avis) d'autoriser ces machines à rouler sur la voie publique.
0  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 24/01/2026 à 7:05
Citation Envoyé par David_g Voir le message
La conduite autonome de Tesla, en fait tu dois être plus concentré sur la conduite que quand c'est toi qui conduit.
Ah, c'est ça.
C'est un exercice de concentration.
Avec des feintes de temps en temps pour faire croire que ça marche.
0  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 24/01/2026 à 7:10
Citation Envoyé par gabi7756 Voir le message
Il y a des vidéos qui prouve qu'un torchon mouillé à sauvé des vies. Et pourtant on va pas se dire qu'un torchon c'est fiable ?
Ça dépend, quand c'est pour brûler on peut compter dessus.

Ah, ce n'était pas ça l'exemple ?

Alors c'est fiable si c'est utilisé correctement.
Pour empêcher l'air de passer en le posant pile comme ça a été montré à la formation, oui ça éteint la friteuse.

En posant le coin dans la flamme, il y a des chances que ça ne l'éteigne pas.

N.B. On n'apprend pas à éteindre une friteuse en regardant une vidéo.
On regarde, on trouve ça intéressant. Mais on n'apprend pas.
0  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 24/01/2026 à 8:01
Citation Envoyé par gabi7756 Voir le message
Ton dépend de son utilisation et de sa qualité ( coton ? ou autre ?).
Pour éteindre une friteuse, on peut raisonnablement escompter qu'un torchon mouillé soit fiable, sauf si il est trop petit.

Ce qui n'est pas fiable, c'est le bonhomme qui a juste vu une vidéo.

C'est qu'une friteuse en feu, ça chauffe méchamment plus qu'un réchaud à gaz.

Concernant une voiture, si on laisse de côté la conduite automatique, on peut appliquer l'analogie.
Si la voiture a été correctement révisée, elle est tout-à-fait en mesure de freiner.

En revanche si le conducteur a un coup dans le nez ou n'a pas pris assez de leçons de conduite, l'efficacité du freinage risque d'en pâtir considérablement. Il faut aussi se méfier de l'effet de sa voisine dans la voiture si elle a à la fois une plastique parfaite, une voix douce mais audible et une conversation passionnante.

C'est un cas de figure où la conduite automatique peut se révéler moins influençable. J'ai bien dit, peut.
0  0