IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les robotaxis autonomes de Tesla d'Elon Musk ont un taux d'accidents neuf fois plus élevé que les conducteurs humains,
Et ce malgré la présence d'un moniteur de sécurité dans chaque voiture

Le , par Mathis Lucas

642PARTAGES

5  0 
Les données relatives aux accidents impliquant les robotaxis de Tesla soulèvent de sérieuses préoccupations en matière de sécurité. Elles indiquent que les robotaxis du constructeur automobile ont un taux d'accidents neuf fois supérieur à celui des conducteurs humains moyens. Ces performances contrastent fortement avec celles d'autres opérateurs de véhicules autonomes comme Waymo, qui ont déclaré des taux de collision inférieurs à ceux enregistrés par les conducteurs humains. Les essais des robotaxis de Tesla ont commencé il y a quelques mois seulement, mais le bilan est catastrophique : collisions, problèmes logiciels, infractions routières, etc.

La vision longtemps promise par Tesla en matière de robotaxis est enfin devenue réalité sur les routes publiques. Tesla a déployé l'année dernière une flotte de robotaxis à Austin, au Texas, afin de les tester et de récolter des données visant à améliorer le programme. Cependant les premières données suggèrent que le déploiement est loin d'être sans heurts. La technologie de conduite autonome Full Self-Driving (FSD) de Tesla soulève des inquiétudes.


Les rapports d'accidents récemment publiés par la National Highway Traffic Safety Administration (NHTSA) des États-Unis, combinés aux données fournies par Tesla sur le kilométrage parcouru par ses robotaxis, brossent un tableau inquiétant des performances du logiciel Full Self-Driving de l'entreprise. Selon les rapports d'accidents de la NHTSA, Tesla a signalé 9 accidents impliquant sa flotte de robotaxis autonomes entre juillet et novembre 2025 :

  • novembre 2025 : collision lors d'un virage à droite ;
  • octobre 2025 : incident à 18 mph (environ 28,96 km/h) ;
  • septembre 2025 : collision avec un animal à 27 mph (environ 43,45 km/h) ;
  • septembre 2025 : collision avec un cycliste ;
  • septembre 2025 : collision arrière lors d'une marche arrière (à environ 9,65 km/h) ;
  • septembre 2025 : collision avec un objet fixe dans un parking ;
  • juillet 2025 : collision avec un SUV dans une zone de travaux ;
  • juillet 2025 : collision avec un objet fixe, causant des blessures légères (à environ 14,48 km/h)
  • juillet 2025 : collision lors d'un virage à droite avec un SUV.


Selon le rapport financier du quatrième trimestre 2025 de Tesla, sa flotte de robotaxis autonome avait parcouru environ 500 000 miles (environ 804672 kilomètres) à Austin en novembre 2025. Cela correspond à environ un accident tous les 55 000 miles (environ 88513,92 km). À titre de comparaison, selon les données de la NHTSA, les conducteurs humains aux États-Unis ont en moyenne environ un accident signalé à la police tous les 500 000 miles.

Cela signifie que les robotaxis de Tesla ont un taux d'accidents 9 fois supérieur à celui des conducteurs humains moyens. Toutefois, ce chiffre n'inclut pas les incidents non signalés à la police. Si l'on ajoute ceux-ci, ou plutôt une estimation de ceux-ci, les humains sont plus proches de 200 000 miles (environ 321868,8 kilomètres) entre deux accidents, ce qui reste bien meilleur que les robotaxis déployés par l'entreprise d'Elon Musk sur les routes publiques.

Tesla reste moins performant même avec des moniteurs de sécurité

Ce qui rend les chiffres de Tesla particulièrement accablants, c'est que chaque robotaxi de la société fonctionne actuellement avec un moniteur de sécurité à l'intérieur du véhicule. Il ne s'agit pas de voitures entièrement autonomes. Un humain formé est présent, surveille la route et est prêt à intervenir. Il est important de noter que les données ne précisent pas combien d'accidents ont été évités grâce à l'intervention des moniteurs de sécurité de Tesla.

Selon les analystes, cette omission est importante. Tout déploiement futur sans moniteurs de sécurité entraînerait presque aussitôt une détérioration significative des performances dans le monde réel. (Sur les neuf incidents signalés par le constructeur automobile, seuls deux se sont produits au cours des deux derniers mois de la période considérée, ce qui pourrait être interprété comme un signe de progrès. Ce n'est pas beaucoup, mais c'est déjà ça.)

Par contre, Waymo exploite une flotte entièrement sans conducteur, sans moniteur de sécurité ni assistance humaine, et affiche des chiffres de sécurité nettement meilleurs. Waymo a parcouru plus de 125 millions de kilomètres en mode autonome et maintient un taux d'accidents bien inférieur à la moyenne humaine.

Tesla accusé de manquer de transparence dans ses rapports

Plus importante encore que les chiffres, c'est le manque de transparence du constructeur automobile. Chaque récit d'accident impliquant un robotaxi Tesla dans la base de données de la NHTSA est expurgé avec la même phrase : « [EXPURGÉ, PEUT CONTENIR DES INFORMATIONS COMMERCIALES CONFIDENTIELLES] ». Chaque récit d'accident impliquant un robotaxi de Tesla dans la base de données de la NHTSA est rédigé avec la même phrase :

  • nous savons qu'un robotaxi Tesla a percuté un cycliste. Nous ne savons pas ce qui s'est passé ;
  • nous savons qu'un accident a causé des blessures légères. Nous ne savons pas ce qui s'est passé ;
  • nous savons qu'un robotaxi a percuté un animal à grande vitesse. Nous ne savons pas ce qui s'est passé.


En revanche, Waymo et d'autres opérateurs de véhicules autonomes publient des descriptions détaillées des incidents. Dans un exemple, un véhicule Waymo a été percuté par l'arrière alors qu'il était à l'arrêt pour laisser passer un piéton, ce qui montre clairement que le système autonome s'est comporté correctement.

Pourquoi la transparence est plus importante que la perfection

Aucun système autonome ne sera jamais parfait, et l'on ne s'attend pas à ce qu'il n'y ait aucun accident. Ce que l'on attend, c'est de la transparence. La transparence permet aux régulateurs, aux chercheurs et au public de comprendre ce qui n'a pas fonctionné et si une entreprise tire réellement les leçons de ses erreurs. Un incident récent impliquant Waymo à Santa Monica illustre cela. Un enfant a couru sur la route depuis l'arrière d'un SUV garé.

Le véhicule Waymo n'a pas pu éviter complètement l'impact, mais a réduit sa vitesse de 17 mph (environ 27,36 km/h) à moins de 6 mph (environ 9,65 km/h), ce qui a considérablement réduit le risque de blessures pour la victime. L'entreprise a rendu publics les détails de l'incident et a même montré des preuves suggérant qu'un conducteur humain aurait pu heurter l'enfant à une vitesse plus élevée. Tesla n'offre rien de tout cela pour le moment.

L'ouverture dont Waymo fait preuve en ce qui concerne les accidents inspire confiance. L'approche de Tesla fait exactement le contraire. Il est clair que Tesla n'est pas responsable de certains de ces accidents, mais le fait que nous ne le sachions pas est entièrement dû au secret entretenu par Tesla.

Les défaillances techniques des logiciels Autopilot et Full Self-Driving

Les systèmes Autopilot et Full Self-Driving de Tesla, longtemps présentés comme les piliers de son avance en matière de conduite autonome, sont aujourd’hui au cœur de nombreuses controverses. Plusieurs accidents, parfois mortels, impliquant des véhicules Tesla en mode Autopilot, ont déclenché des enquêtes fédérales aux États-Unis, notamment par la NHTSA (National Highway Traffic Safety Administration) et le département de la Justice (DOJ).

Ces autorités cherchent à déterminer si Tesla a minimisé les limites de ses systèmes et surestimé leurs capacités dans ses communications publiques. Même les terminologies (« Autopilot » et « Full Self-Driving ») sont critiquées. Selon les experts, ces terminologies peuvent induire les conducteurs en erreur, en leur laissant croire que leur Tesla peut réellement se conduire toute seule, alors qu'il ne s'agit que d'un système d'assistance à la conduite.

Fait intéressant, en mars 2025, Tesla a annoncé la suppression de l'appellation Full Self-Driving de son logiciel de conduite autonome en Chine. En abandonnant cette terminologie en Chine, l'entreprise semble vouloir éviter toute confusion et désillusion auprès des consommateurs chinois qui pourraient avoir des attentes irréalistes quant aux capacités réelles de son logiciel. Tesla a déjà été condamné en Corée du Sud pour publicité mensongère.

En parallèle, le logiciel Full Self-Driving de Tesla, vendu à un prix élevé est toujours en phase bêta et l'objet de nombreuses critiques pour son manque de fiabilité. De nombreux propriétaires de Tesla et des analyses indépendantes ont rapporté des comportements incohérents des Tesla en mode Full Self-Driving, comme des freinages fantômes, des hésitations aux intersections, ou des réactions inappropriées dans des environnements urbains complexes.

Ces dysfonctionnements techniques, combinés à la pression réglementaire, sapent la crédibilité de Tesla. À l'international, notamment en Europe, cette insécurité perçue contribue à détourner les consommateurs au profit de constructeurs proposant des systèmes plus transparents et mieux encadrés. Aux États-Unis, la NHTSA a ouvert plus de 40 enquêtes sur les accidents impliquant les systèmes de conduite assistée Autopilot et Full Self-Driving de Tesla.

Tesla a renoncé à la technologie LiDAR au profit des caméras

Tesla a décidé de renoncer au LiDAR et de s'appuyer entièrement sur la vision par ordinateur. L'argumentaire varie selon les personnes interrogées et le moment, mais il se résume généralement au fait que le LiDAR coûte trop cher, qu'il nécessite plus de traitement de données et qu'il sert finalement de béquille pour ralentir le développement de la vision par ordinateur. Elon Musk est allé jusqu'à déclarer que le LiDAR est une « aventure insensée ».

C'est peut-être vrai, mais il ne traverse pas non plus les murs, alors il faut peser le pour et le contre. Il est difficile d'imaginer que l'on puisse laisser sa voiture percuter un enfant alors qu'elle aurait pu l'éviter grâce à d'autres technologies et de se dire : « au moins, cela n'a pas ralenti le développement d'une technologie qui, à terme,...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !