L’étude, menée par un cabinet indépendant, a analysé des données issues de rapports d’accidents sur une période récente, mettant en lumière une tendance troublante. Les Tesla, bien qu’elles représentent une part relativement faible du parc automobile total, figurent parmi les marques les plus fréquemment impliquées dans des accidents mortels.
Selon les données publiées :
- Les modèles Tesla comptabilisent un nombre plus élevé de décès par kilomètre parcouru par rapport aux voitures de luxe ou électriques concurrentes.
- Les accidents impliquant Tesla surviennent souvent à des vitesses élevées, avec une proportion importante lors de l’utilisation des fonctions semi-autonomes telles que l’Autopilot.
Cette situation interroge non seulement sur la sécurité intrinsèque des véhicules Tesla, mais aussi sur la manière dont les technologies d’assistance à la conduite sont utilisées (ou détournées) par leurs propriétaires.
La Tesla Model S et la Tesla Model Y
« Les Teslas sont les voitures les plus sûres sur la route, mais la plupart des gens ne le savent pas », a écrit Elon Musk, PDG de Tesla, sur X (anciennement Twitter) l'année dernière. Ce superlatif est typique du milliardaire et du constructeur automobile lui-même, qui se vante que ses véhicules « sont conçus pour être les plus sûrs au monde ».
Mais alors que les voitures de Tesla reçoivent régulièrement les meilleures notes de sécurité, notamment de la part de la National Highway Traffic Safety Administration, les statistiques sur les accidents montrent que la marque a le taux le plus élevé d'accidents dans lesquels au moins un occupant de la voiture est tué, selon un nouveau rapport de la société de recherche automobile iSeeCars.Teslas are the safest cars on the road, but most people don’t know that
— Elon Musk (@elonmusk) January 20, 2023
En analysant les collisions mortelles de 2017 à 2022 impliquant des modèles de voitures de 2018 à 2022, le groupe a identifié la Tesla Model S et la Tesla Model Y comme deux des voitures les plus dangereuses sur la route en fonction du taux de mortalité des occupants. Bien que les modèles de Hyundai, Chevrolet, Mitsubishi, Porsche et Honda occupent les cinq premières places de la liste, la Tesla Model S, un SUV de taille moyenne, arrive en sixième position, avec un taux d'accidents mortels 3,7 fois supérieur à celui de la voiture moyenne, et 4,8 fois supérieur à celui du SUV moyen. Le taux de la Model S est deux fois plus élevé que celui de la voiture moyenne.
Le constructeur automobile a enregistré 5,6 accidents mortels par milliard de miles parcourus par ses véhicules, devançant de peu Kia, avec 5,5 par milliard de miles, comme marque ayant le taux global le plus élevé d'accidents mortels. Cela, note l'étude d'iSeeCars, « malgré la technologie avancée d'aide à la conduite de Tesla », avec des fonctionnalités telles que ce qu'on appelle Autopilot et Full-Self Driving (FSD), qui sont censées réduire l'erreur humaine. Le premier est un système de base comprenant un régulateur de vitesse et un changement de voie automatisé sur les autoroutes, tandis que le FSD permet à une Tesla de « se conduire elle-même presque n'importe où avec une intervention minimale du conducteur », selon le langage de l'entreprise. Les deux systèmes nécessitent la supervision continue d'un conducteur attentif qui peut passer outre le logiciel.
Autopilot et Full Self-Driving : un faux sentiment de sécurité ?
Karl Brauer, analyste exécutif chez iSeeCars, a déclaré dans le rapport que les nouvelles voitures sont globalement plus sûres qu'elles ne l'ont jamais été, et que la plupart des modèles de véhicules figurant sur leur liste « ont reçu d'excellentes notes de sécurité et ont obtenu de bons résultats aux tests de collision ». Par conséquent, ajoute-t-il, leurs taux d'accidents élevés « reflètent probablement une combinaison du comportement du conducteur et des conditions de conduite ».
Le système Autopilot de Tesla, une fonctionnalité d’aide à la conduite avancée, a été salué comme une révolution dans l’industrie automobile. Cependant, il est également l’objet de critiques croissantes. Si Tesla insiste sur le fait que l’Autopilot ne rend pas les véhicules totalement autonomes et nécessite une supervision constante du conducteur, des vidéos et témoignages montrent que certains utilisateurs confondent cette technologie avec une conduite entièrement automatisée.
Les autorités de régulation, notamment la National Highway Traffic Safety Administration (NHTSA) aux États-Unis, ont ouvert plusieurs enquêtes concernant des accidents mortels survenus alors que l’Autopilot était activé. Les critiques reprochent à Tesla une communication ambiguë sur la capacité réelle de ses systèmes, pouvant induire un excès de confiance chez les conducteurs.
L'étude n'a pas pris en compte l'utilisation de systèmes avancés tels que l'Autopilot et le FSD de Tesla, mais leurs défauts sont bien documentés, et les accidents de Tesla dans lesquels l'une de ces fonctions était activée ont déclenché une vague de poursuites judiciaires, ainsi qu'un examen minutieux de la part des autorités réglementaires. La NHTSA et le ministère de la Justice enquêtent pour savoir si Tesla a induit les clients en erreur en leur faisant croire que l'Autopilot et le FSD étaient plus fiables qu'ils ne l'étaient réellement. Les critiques affirment que les conducteurs qui pensent que leur Tesla peut fonctionner en toute sécurité et avec une autonomie totale ont tendance à devenir complaisants ou distraits, puis à ne pas prendre le contrôle manuel lorsque c'est nécessaire.
Cela n'a pas empêché Musk de promettre à plusieurs reprises, comme il le fait depuis plus d'une décennie, que Tesla est sur le point de mettre au point une version de la FSD capable de fonctionner en toute sécurité sans aucune surveillance humaine. En octobre, il a réitéré sa promesse en dévoilant le projet d'un « Robotaxi » (ou « Cybercab ») autonome à deux places, sans volant. Il a donné peu de précisions sur la manière dont Tesla pourrait concurrencer les entreprises qui ont déjà des flottes actives de taxis autonomes, comme Waymo, filiale de Google, même s'il a prédit que le modèle Tesla serait en production avant 2027, tout en reconnaissant qu'il a tendance à « être un peu optimiste avec les calendriers. »
Les véhicules Tesla ont continué d'avoir des accidents même après les mises à jour du logiciel Autopilot, d'après la NHTSA
Tesla a rappelé en décembre plus de deux millions de véhicules équipés de son système d'aide à la conduite Autopilot. Ce rappel faisait suite à une enquête de la NHTSA sur des dizaines de cas d'accidents impliquant l'Autopilot, dont plusieurs ont été mortels. Le rappel visait à corriger un système défectueux censé s'assurer que les conducteurs de Tesla sont attentifs lorsqu'ils utilisent l'Autopilot. La NHTSA avait constaté que le nom "Autopilot" pouvait amener les conducteurs à croire faussement que l'automatisation a des capacités plus importantes. Tesla avait rejeté ces conclusions, mais avait accepté d'apporter des correctifs.
Cependant, les autorités américaines ont annoncé fin avril avoir ouvert une nouvelle enquête sur l'Autopilot. L'enquête vise à déterminer si l'entreprise a apporté des correctifs adéquats aux défaillances techniques de l'Autopilot qui ont entraîné le rappel. Dans une lettre datée du lundi 6 mai 2024, la NHTSA a fait part de plusieurs préoccupations concernant la solution proposée par Tesla. L'agence a déclaré qu'une analyse préliminaire a identifié au moins 20 accidents dans des véhicules Tesla équipés de la version mise à jour de l'Autopilot. Les nouveaux cas d'accidents semblent similaires à ceux qui ont entraîné le rappel.
Parmi ces accidents, neuf auraient impliqué des Teslas qui ont percuté d'autres véhicules ou personnes sur leur trajectoire - des accidents de type "frontal plane", dans le jargon de l'agence. Ces accidents semblent indiquer que le système de vision de Tesla, basé sur des caméras, ne permet pas de détecter correctement certains objets devant le véhicule lorsque le système Autopilot est activé. La NHTSA a demandé diverses informations sur la manière dont Tesla a mis au point les correctifs, notamment des données qui lui permettront de comparer les performances des véhicules dans ce type d'accidents avant et après le rappel.
L'agence demande également à Tesla de déterminer combien de fois ses véhicules ont donné aux conducteurs un avertissement "mains sur le volant" - une notification donnée aux conducteurs qui retirent leurs mains du volant alors que la fonction Autopilot est activée (les utilisateurs d'Autopilot sont tenus d'être prêts à prendre le contrôle "à tout moment", selon Tesla). Parmi les autres détails demandés par la NHTSA figurent des explications sur la politique de suspension d'une semaine de Tesla en cas d'utilisation abusive de l'Autopilot et des données sur les différentes façons dont le logiciel peut être activé par les conducteurs.
Réactions et implications pour Tesla
Tesla, sous la houlette de son PDG emblématique Elon Musk, a défendu la sécurité de ses véhicules en publiant régulièrement des données internes suggérant que les Tesla, lorsqu’elles sont utilisées correctement, réduisent le risque d’accident. Selon la marque, la majorité des accidents impliquant ses voitures sont dus à des erreurs humaines ou à une mauvaise utilisation de l’Autopilot.
Cependant, cette défense ne convainc pas tout le monde. Certains experts estiment que Tesla doit faire davantage pour éduquer ses clients sur l’utilisation de ses technologies et limiter les fonctions lorsque les conditions ne permettent pas une conduite sécurisée.
Un débat nécessaire sur la sécurité routière et l’innovation
Les conducteurs de Tesla sont plus souvent victimes d'accidents mortels que les autres conducteurs. Selon Brauer, dans l'ensemble de l'industrie automobile, l'amélioration des dispositifs de sécurité « est contrecarrée par la distraction au volant et l'augmentation de la vitesse, ce qui a entraîné une hausse des taux d'accidents et de décès au cours des dernières années ». Quelle que soit sa qualité de fabrication, une voiture ne peut pas compenser l'irresponsabilité d'une personne au volant.
Au-delà de Tesla, cette étude met en lumière une problématique plus large : l’adoption rapide de nouvelles technologies dans les véhicules peut-elle compromettre la sécurité routière ? Les constructeurs doivent-ils ralentir leur course à l’innovation pour mieux accompagner les conducteurs dans l’apprentissage de ces technologies ?
Source : étude d'iSeeCars
Et vous ?
Tesla devrait-elle être tenue responsable des accidents impliquant l'Autopilot, même si les conducteurs ne respectent pas les consignes d’utilisation ?
Les constructeurs comme Tesla communiquent-ils suffisamment clairement sur les limites de leurs technologies d’assistance à la conduite ?
Faut-il imposer des réglementations plus strictes sur les publicités et la communication autour des systèmes semi-autonomes ?
Pourquoi certains conducteurs abusent-ils des systèmes comme l’Autopilot ? Ces comportements relèvent-ils d’un manque de formation ou d’une confiance excessive en la technologie ?
Les systèmes d’assistance comme l’Autopilot devraient-ils être limités par défaut à certaines vitesses ou conditions de conduite ?
La popularité de Tesla influence-t-elle l’attitude globale du public envers les véhicules autonomes, et est-ce bénéfique ou risqué ?