IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La conduite autonome intégrale promise par Elon Musk reste hors de portée : deux actionnaires de Tesla endommagent gravement leur Model Y en tentant de démontrer les capacités du logiciel Full Self-Diriving

Le , par Mathis Lucas

15PARTAGES

3  0 
La conduite autonome intégrale promise par Elon Musk reste hors de portée : deux actionnaires de Tesla endommagent gravement leur Model Y en tentant de démontrer les capacités du logiciel Full Self-Diriving

Elon Musk promet une conduite autonome intégrale sans supervision depuis 2016. Environ une décennie plus tard, sa promesse est loin d'être tenue. La version actuelle de son logiciel Full Self-Driving (FSD) présente encore de graves limites techniques et expose les utilisateurs à des risques réels. Lors d'un récent test du FSD, le logiciel a violemment percuté un obstacle sur la route. Le conducteur n’avait pas les mains sur le volant au moment où le passager signale les débris bien en avance. Le véhicule a été gravement endommagé en raison de l'impact : barre de torsion brisée, composants de la suspension touchés, nombreux avertissements du système.

La conduite autonome est la promesse centrale autour de laquelle Elon Musk a bâti son entreprise. Il est convaincu qu'il s'agit de la prochaine frontière de l'industrie automobile. Tesla n'a jamais livré de véhicule véritablement autonome, mais le milliardaire continue d'affirmer que « ses voitures rouleront bientôt sans aucune intervention humaine ». En attendant, l'Autopilot, son logiciel d'aide à la conduite, n'est pas vraiment aussi avancé qu'il le prétend.

Et même les partisans d'Elon Musk se rendent compte des dangers liés aux défaillances techniques du logiciel. Récemment, deux actionnaires de Tesla et influenceurs ont voulu démontrer que la promesse de longue date d’Elon Musk d’un trajet autonome d’une côte à l’autre des États-Unis est enfin réalisable.

Leur objectif : parcourir les États-Unis de San Diego à Jacksonville en utilisant uniquement le mode Full Self-Driving (FSD). Mais leur Tesla Model Y équipée de la dernière version du système n’a pas tenu longtemps. Après seulement une soixantaine de miles (96,5606 km), soit à peine 2,5 % du trajet prévu, la voiture a percuté des débris sur la route. Le conducteur, qui n’avait pas les mains sur le volant, a réagi trop tard malgré l’avertissement du passager. L’impact a endommagé la suspension et d’autres composants essentiels, mettant fin prématurément à l’expérience.

En 2016, Elon Musk avait déclaré que Tesla réaliserait « un trajet entièrement autonome entre Los Angeles et New York d'ici la fin de l'année 2017 ». Nous sommes en 2025 et Tesla n'a jamais réalisé ce trajet. L'idée des deux actionnaires de Tesla était de diffuser en direct ou de filmer un trajet complet non monté entre les deux côtes, avec le véhicule roulant de manière autonome tout au long du trajet. Ils n'ont même pas réussi à quitter la Californie.


Dans la vidéo, on peut voir que le conducteur n'a pas les mains sur le volant. Le passager repère les débris bien à l'avance. Il y avait largement le temps de réagir, mais le conducteur n'a mis les mains sur le volant qu'à la dernière seconde. Dans une vidéo complémentaire, les deux actionnaires de Tesla ont confirmé que leur Tesla Model Y avait un support de barre stabilisatrice cassé et des composants de suspension endommagés. Le véhicule émet également de nombreux avertissements.

Les limites mises en évidence

Cet échec illustre les faiblesses actuelles du système Full Self-Driving. Malgré ce que pourrait laisser entendre son nom, Tesla le considère toujours comme un système d'aide à la conduite de niveau 2, qui nécessite une vigilance constante du conducteur et la possibilité de reprendre le contrôle immédiatement. L’incident rappelle aussi que la promesse initiale d’Elon Musk, annoncée dès 2016 pour être tenue en 2017, n’est toujours pas concrétisée.

Tesla précise désormais : « FSD désigne un système de conduite avancé, quel que soit le nom commercial utilisé, capable d'effectuer des tâches de transport offrant une fonctionnalité autonome ou similaire dans des conditions de conduite spécifiques ». Cette définition réduit en fait le Full Self Driving à tout système de conduite avancé pouvant inclure des fonctions d'aide à la conduite supervisées. Ce qui est loin de la promesse initiale d'Elon Musk.

Par le passé, Elon Musk, PDG de Tesla, disait que lorsque l'on atteint 99 % d'autonomie, c'est là que commence la « marche des 9 », et qu'il faut atteindre 99,999999999 % d'autonomie pour disposer d'un système de conduite autonome vraiment utile. Le milliardaire a admis que c'était la partie la plus difficile, car le monde réel est imprévisible et difficile à simuler, vous confrontant à de nombreux scénarios difficiles, tels que des débris sur la route.

L'expérience des deux influenceurs suggère que Tesla se trouve actuellement dans cette phase. La partie difficile vient de commencer. Et nul ne sait combien de temps il faudra pour y parvenir. Mais la concurrence, principalement la filiale Waymo du groupe Alphabet, a commencé sa propre « marche des 9 » il y a environ cinq ans. Tesla a encore des années de retard, et quelque chose comme cette conduite par ces deux influenceurs Tesla le prouve.

Plutôt que de valider l’autonomie complète de Tesla, cette tentative ratée montre que la technologie reste loin d’un véritable trajet sans intervention humaine. L’épisode renforce le scepticisme sur les annonces répétées d'Elon Musk concernant l’avenir immédiat de la conduite entièrement autonome.

Full Self-Driving : une nouvelle définition extrêmement vague

En juillet 2025, le PDG de Ford, Jim Farley, a fait part de son scepticisme à l'égard de l'approche de Tesla en matière de conduite autonome. Tesla s'appuie uniquement sur des caméras pour ses fonctions de conduite autonome, tandis que Waymo utilise une combinaison de caméras, de radars et de LiDAR. Invité à comparer les deux systèmes, Jim Farley a souligné les limites du modèle de Tesla et a déclaré que l'approche de Waymo semble « plus logique ».

Aujourd'hui, Tesla a modifié la signification de « conduite entièrement autonome » pour renoncer à sa promesse initiale d'offrir une autonomie sans supervision. L'entreprise a déjà confirmé que tous les véhicules produits entre 2016 et 2023 ne disposent pas du matériel nécessaire pour offrir une conduite autonome comme promise. Cela signifie que Tesla a menti lorsqu'il a promis à ses clients qu'ils pourraient un jour convertir leurs véhicules en « robotaxis ».

Tesla a modifié son discours et ne vend désormais plus que des systèmes « Full Self-Driving (Supervised) » (conduite entièrement autonome sous supervision) à ses clients. Les petits caractères précisent que cela ne rend pas le véhicule « autonome » et ne promet pas cette fonctionnalité. Ainsi, les clients qui achètent le Full Self Driving aujourd'hui n'achètent pas la capacité de conduite autonome sans supervision comme l'ont fait les acheteurs précédents.

Tesla a vendu le pack Full Self-Driving Capability pour un montant pouvant atteindre 15 000 dollars, assurant aux clients que le système évoluerait vers une autonomie totale grâce à des mises à jour en direct. Mais aujourd'hui, l'on est bien loin de la vision initiale. En réalité, le Full Self-Driving est désormais commercialisé comme un simple système avancé d'aide à la conduite (ADAS) sans aucun engagement en matière d'autonomie sans surveillance.

La redéfinition signifie que Tesla ne promet plus aux propriétaires qu'ils pourront s'endormir et se réveiller à destination sans surveillance, une promesse qu'Elon Musk a utilisée pendant des années pour stimuler les ventes. Cela met en évidence une différence flagrante entre la manière dont Tesla commercialise le logiciel auprès des clients et des investisseurs et le langage prudent utilisé dans les documents juridiques et les documents relatifs à la rémunération.

Conduite autonome : l'échec de l'Autopilot et du Full Self-Driving

Au fils des ans, les logiciels Autopilot et Full Self-Driving de Tesla ont été impliqués dans de nombreux accidents, parfois graves ou mortels. Les documents contiennent plus de 2 400 plaintes de clients concernant des accélérations involontaires et plus de 1 500 problèmes de freinage, dont 139 cas impliquant un freinage d'urgence sans cause et 383 freinages fantômes déclenchés par de fausses alertes de collision. Plus de 1 000 accidents sont documentés.

En outre, un document distinct sur les incidents liés à l'aide à la conduite, pour lesquels les clients ont soulevé des préoccupations en matière de sécurité, répertorie plus de 3 000 entrées. La plus ancienne date de 2015, la plus récente de mars 2022. Sur cette période, Tesla a livré environ 2,6 millions de véhicules équipés du logiciel Autopilot. La plupart des incidents se sont produits aux États-Unis, mais des plaintes ont été enregistrées en Europe et en Asie.

Les clients ont décrit leurs voitures comme accélérant soudainement ou freinant brusquement. Certains s'en sont sortis avec une frayeur, d'autres ont fini dans des fossés, ont percuté des murs ou sont entrés en collision avec des véhicules venant en sens inverse. « Après avoir déposé mon fils sur le parking de son école, alors que je m'apprêtais à prendre la sortie à droite, la voiture a soudainement fait un bond en avant », peut-on lire dans une plainte.

Ces dernières années, la NHTSA a recensé plusieurs cas dans lesquels des Tesla ont percuté des véhicules d'urgence à l'arrêt. Dans chacun de ces cas, l'Autopilot s'est désactivé « moins d'une seconde avant l'impact », ce qui laisse beaucoup trop peu de temps au conducteur pour réagir. Les critiques ont averti que ce comportement pourrait permettre à Tesla de faire valoir devant les tribunaux que l'Autopilot n'était pas activé au moment de l'impact.

Le YouTuber Mark Rober, ancien ingénieur à la NASA, a reproduit ce comportement dans une expérience réalisée le 15 mars 2025. Il a simulé une série de situations dangereuses dans lesquelles la Tesla Model Y a obtenu des résultats nettement inférieurs à ceux d'un véhicule concurrent. La Tesla a roulé à plusieurs reprises sur un mannequin d'essai sans freiner. La vidéo est devenue virale, accumulant plus de 14 millions de vues en quelques jours.

L'expérience du YouTuber Mark Rober renforce l'argument selon lequel les systèmes de conduite autonome basés sur le LiDAR sont plus fiables que les systèmes de conduite autonome utilisant uniquement des caméras, comme les systèmes Autopilot et Full Self-Driving de Tesla. La seconde voiture testée par Mark Rober est équipée d'un système de conduite autonome utilisant une combinaison de LiDAR, de caméras et d'autres types de capteurs.

Tesla a décidé de renoncer au LiDAR et de s'appuyer entièrement sur la vision par ordinateur. Selon les critiques, la vision par ordinateur est limitée, ce qui justifierait les défaillances des systèmes Autopilot et Full Self-Driving de Tesla. Le PDG de Tesla, Elon Musk, a qualifié le LiDAR de « béquille », et a déclaré qu'il s'agit d'une « aventure insensée ». Cependant, de nombreux experts de l'industrie automobile ne partagent pas l'avis du PDG de Tesla.

Le logiciel FSD de Tesla est très impopulaire et rebute les clients

Les ventes de Tesla ont chuté de 60 % en France, d’après des données du premier trimestre de l'Association des constructeurs européens d'automobiles (ACEA). La raison a à voir avec le logiciel Full Self Driving à propos duquel plus de la moitié des 8000 consommateurs interrogés dans le cadre d’une récente enquête de l’Electric Vehicle Intelligence Report (EVIR) déclarent qu’il devrait être illégal. C’est le résultat des pratiques commerciales trompeuses de l’entreprise qui finissent par attirer les regards sur la valeur réelle de la filière du véhicule automobile dans son ensemble.

Tesla a récemment supprimé le terme « Full Self-Driving » du nom de son logiciel de conduite autonome en Chine, le FSD ayant déjà été taxé de publicité mensongère pour avoir laissé croire que les véhicules Tesla étaient entièrement autonomes.

La Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) a pour sa part déclaré que ses agents avaient enquêté sur la filiale française de Tesla entre 2023 et 2024 après que des plaintes aient été déposées sur une plateforme dédiée aux consommateurs.

L'enquête a révélé « des pratiques commerciales trompeuses concernant les capacités de conduite entièrement autonome des véhicules Tesla, la disponibilité de certaines options et les offres de reprise de véhicules », selon la DGCCRF.

L'agence a également cité des retards dans le remboursement des commandes annulées, un manque d'informations sur le lieu de livraison et des contrats de vente incomplets, entre autres infractions.

Tesla a obtenu un délai de quatre mois pour se mettre en conformité avec la réglementation. L'entreprise s'expose à une amende journalière de 50 000 euros si elle ne met pas fin à ses pratiques commerciales trompeuses concernant l'option de conduite entièrement autonome de certains modèles Tesla.

L'enquête de la DGCCRF fait écho à des préoccupations plus générales concernant la technologie de conduite autonome de Tesla. Lors d'un test de 1 600 kilomètres mené par la société indépendante AMCI, le système Full Self-Driving de Tesla a commis des erreurs occasionnelles dangereuses et a nécessité l'intervention du conducteur à plus de 75 reprises alors que le système était actif.

Ces préoccupations sont d'autant plus importantes que les statistiques de sécurité sont inquiétantes. Selon une récente étude, malgré des fonctionnalités avancées telles que l'Autopilot et le Full Self-Driving, censées réduire l'erreur humaine, Tesla aurait le taux d'accidents mortels le plus élevé parmi les marques automobiles. Ce constat soulève de nombreuses questions sur la sécurité des voitures électriques, l’efficacité des systèmes d’assistance à la conduite et le comportement des conducteurs.

Conclusion

Le logiciel Full Self-Driving, présenté comme une révolution, montre encore de sérieuses limites techniques et nécessite en permanence la vigilance humaine. L’accident des influenceurs illustre clairement que Tesla est loin de proposer une autonomie complète et sûre, et que les annonces répétées d’Elon Musk se heurtent toujours à la réalité technique et sécuritaire. En définitive, la traversée autonome “d’une côte à l’autre” reste pour l’instant un objectif symbolique, utilisé davantage comme argument marketing que comme réalité technologique.

Malgré les nombreux objectifs manqués en matière de conduite autonome, de nombreux actionnaires de Tesla estiment que l'entreprise est sur le point de proposer une conduite autonome sans supervision, à la suite du déploiement de sa flotte de robotaxis à Austin, au Texas. Cependant, ces robotaxis nécessitent encore la supervision d'employés Tesla. Un rapport signale également que les robotaxis de Tesla enregistrent déjà des accidents inquiétants.

Et vous ?

Quel est votre avis sur le sujet ?

Voir aussi

Tesla modifie la signification du terme « Full Self-Driving » et renonce à sa promesse d'offrir une conduite autonome sans surveillance, les problèmes techniques persistent et le logiciel rebute les clients

Les essais des robotaxis de Tesla à Austin ont enregistré trois accidents dès le premier jour, un bilan bien pire que celui de Waymo, avec des collisions, des problèmes logiciels et des infractions routières

Waymo obtient l'autorisation d'exploiter un service de robotaxis entièrement autonomes à l'aéroport international de San Francisco
Vous avez lu gratuitement 331 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !