Les enquêteurs fédéraux chargés de la sécurité ont ouvert une nouvelle enquête visant les véhicules électriques de Tesla. Il s'agit désormais de la 14ème enquête de la National Highway Traffic Safety Administration et de l'une des nombreuses enquêtes actuellement ouvertes. Cette fois, c'est la très controversée fonction de Full Self-Driving (« conduite autonome intégrale ») du constructeur automobile qui est dans le collimateur. La NHTSA affirme avoir reçu quatre rapports de Teslas utilisant la fonction FSD et s'étant écrasées après que le système à caméra seule a rencontré du brouillard, des reflets du soleil ou de la poussière en suspension dans l'air.
Sur les quatre accidents qui ont déclenché cette enquête, l'un d'entre eux a causé la mort d'un piéton lorsqu'un modèle Y l'a percuté à Rimrock, en Arizona, en novembre 2023.
La NHTSA dispose d'un ordre général permanent qui l'oblige à être informée si une voiture s'écrase alors qu'elle est partiellement ou totalement automatisée. Les voitures entièrement automatisées ou autonomes peuvent être qualifiées de « réellement autopilotées », comme les Waymos et les Zooxes qui encombrent les rues de San Francisco. Dotés de dizaines de capteurs extérieurs, ces bancs d'essai à quatre roues circulent, la plupart du temps sans passagers, et recueillent des données avec lesquelles ils s'entraîneront plus tard, sans aucune supervision humaine (C'est ce qu'on appelle l'automatisation SAE de niveau 4).
L'enquête vise à déterminer la capacité de la FSD à « détecter les conditions de visibilité réduite sur la route et à y répondre de manière appropriée ». Contrairement à presque tous les autres systèmes déployés sur la route, Tesla choisit de s'appuyer uniquement sur des caméras et ne dispose pas d'une configuration stéréoscopique, mais plutôt d'un capteur grand angle, d'un capteur principal et d'un capteur à angle étroit orienté vers l'avant. Par ailleurs, des centaines de milliers de Teslas plus anciennes disposent d'un matériel moins performant, mais sont toujours en mesure d'utiliser la FSD.
La NHTSA déterminera également s'il existe d'autres accidents à faible visibilité similaires aux quatre qu'elle connaît déjà, ainsi que des mises à jour ou des ajustements du système par Tesla, « en particulier... le moment, l'objectif et les capacités de ces mises à jour, ainsi que l'évaluation par Tesla de leur impact sur la sécurité ».
La promesse d'une conduite totalement autonome est séduisante, mais est-elle réaliste avec la technologie actuelle ?
Les critiques soulignent que Tesla a peut-être précipité le déploiement du FSD sans s'assurer qu'il soit entièrement fiable dans toutes les conditions. La confiance aveugle placée dans la technologie pourrait détourner l'attention des conducteurs des dangers potentiels, créant une dépendance excessive à un système imparfait.
En outre, la communication de Tesla autour du FSD pourrait être jugée trompeuse. En qualifiant le système de "Full Self-Driving", l'entreprise laisse entendre un niveau d'autonomie que la technologie ne peut pas encore garantir. Cette désignation pourrait inciter les conducteurs à accorder une confiance excessive au FSD, diminuant leur vigilance et augmentant les risques d'accidents.
Les résultats de cette enquête de la NHTSA seront cruciaux pour déterminer l'avenir du FSD de Tesla et pour assurer la sécurité des conducteurs et des piétons sur les routes. Si des failles importantes sont découvertes, cela pourrait mener à un rappel coûteux ou à une interdiction temporaire du système. Plus largement, cela pourrait influencer la perception publique et la réglementation future des véhicules autonomes, dictant les conditions d'un avenir où la technologie et la sécurité devront impérativement aller de pair.
FSD ne fonctionne pas correctement dans les tunnels, malgré un éclairage constant et une absence de piétons
Elon Musk a toujours eu des ambitions audacieuses. Parmi ses projets les plus intrigants figure la Boring Company, une entreprise dédiée à la création de tunnels pour révolutionner le transport urbain. Cependant, malgré les avancées technologiques de Tesla, la Boring Company rencontre des difficultés inattendues : le système de conduite autonome (FSD) de Tesla ne fonctionne pas correctement dans les tunnels.
Pourtant, il s'agit d'un tunnel entièrement contrôlé par Musk, construit exclusivement pour les véhicules Tesla, mais le logiciel phare de l'entreprise ne peut pas le gérer. Pas de circulation, pas de piétons, pas d'intersections, pas même de vrais virages, et pourtant c'est apparemment encore trop pour la FSD.
Un système de Loop de la Boring Company consiste en des tunnels dans lesquels des véhicules électriques Tesla circulent à grande vitesse entre des stations pour transporter des personnes à l'intérieur d'une ville. La Boring Company a déclaré qu'elle travaillait avec Tesla pour utiliser son système de conduite autonome à l'intérieur de ces tunnels, ce qui permettrait de se débarrasser des conducteurs actuels et de réduire le coût d'exploitation.
Cependant, deux ans et plusieurs autres tunnels reliés à la boucle plus tard, The Boring Company utilise toujours des conducteurs dans les tunnels.
Steve Hill, président et directeur général de la Convention de Las Vegas, a déclaré au Review-Journal de Las Vegas que l'objectif était d'utiliser « un outil d'aide à la conduite » dans le Loop d'ici la fin de l'année : « J'espère que nous pourrons commencer à utiliser légèrement un outil d'aide à la conduite d'ici la fin de l'année ».
Il n'y a pas de calendrier pour une « autonomie complète », c'est-à-dire sans conducteur. Actuellement, seules les trois stations du centre de congrès et une station de l'hôtel Resorts World sont en service. Une autre station reliant le réseau à l'hôtel Encore devrait ouvrir prochainement.
Il est légitime de se demander comment le logiciel pourrait être prêt à être commercialisé à grande échelle sous forme de service d'abonnement, pour les conducteurs dont les trajets quotidiens impliquent des facteurs extérieurs incontrôlés, s'il ne peut même pas gérer un tunnel - la situation la plus contrôlable que l'on puisse imaginer ? Tesla a déjà renoncé à affirmer que ses anciennes voitures étaient prêtes pour la FSD, mais il est désormais difficile de soutenir que même ses voitures actuelles peuvent réellement se conduire toutes seules. Si Tesla ne fait pas confiance à ce logiciel sur un circuit fermé, pourquoi le conducteur devrait lui faire confiance dans la rue ?
Cybercab : le robotaxi de Tesla présenté par Elon Musk s'appuie sur FSD
Plus tôt ce mois-ci, Elon Musk a dévoilé un nouveau véhicule électrique dédié à la conduite autonome, une étape importante après des années de fausses promesses et de délais non respectés. Le Robotaxi, qu'Elon Musk a également appelé le « Cybercab », est dépourvu de volant et de pédales, ce qui signifie qu'il devra être approuvé par les autorités de régulation avant d'être mis en production.
Il s'appuie sur Full Self-Driving, dont la fiabilité n'est même pas suffisante pour que Tesla sorte le logiciel de sa phase bêta.
Au cours de sa présentation, Musk a fait de nombreuses promesses, variantes de celles qu'il a déjà faites à maintes reprises. Le Full Self-Driving entrera dans un mode non supervisé qui permettra aux passagers de s'endormir et de se réveiller à leur destination.
Au fil du temps, Musk a affirmé que les coûts d'exploitation de son Cybercab seraient de 20 cents par kilomètre, « et oui, vous pourrez en acheter un », a-t-il déclaré à la foule sous les cris d'enthousiasme. « Nous nous attendons à ce que le coût soit inférieur à 30 000 dollars », a déclaré Musk, avant d'exposer un modèle commercial dans lequel, au lieu que l'entreprise possède et exploite elle-même ces actifs prétendument générateurs de revenus, ils sont détenus par des particuliers qui donnent à Tesla sa part habituelle.
« L'avenir sera glorieux », a déclaré Musk, même s'il ne s'applique pas aux familles ou aux groupes de trois personnes ou plus.
Musk affirme que Tesla « prévoit de commencer » le FSD entièrement non supervisée l'année prochaine sur les routes publiques de Californie et du Texas. Une analyse récente effectuée par AMCI Testing, une société de test indépendante, a révélé que la version actuelle nécessite une intervention humaine environ une fois tous les 20 kilomètres, souvent sur des routes qu'elle a déjà empruntées.
Cette semaine-là, quatre autres cadres supérieurs ont quitté l'entreprise avant l'événement de présentation du Cybercab, parmi lesquels « le responsable mondial de l'automatisation des véhicules et de la politique de sécurité ».
La version actuelle de FSD nécessite une intervention humaine environ une fois tous les 20 kms, souvent sur des routes déjà empruntées
AMCI Testing a évalué les versions 12.5.1 et 12.5.3 de la FSD dans quatre environnements différents : rues de ville, routes rurales à deux voies, routes de montagne et autoroutes. Comme le montrent les vidéos, la FSD a parfois été capable de comportements de conduite assez sophistiqués, comme se garer dans un espace entre des voitures garées pour laisser passer un véhicule venant en sens inverse, ou se déplacer vers la gauche pour laisser de l'espace à des piétons attendant le changement de feu à un passage clouté. L'AMCI a également fait l'éloge de la FSD pour la façon dont elle gère les virages sans visibilité dans la campagne.
« Il est indéniable que la FSD 12.5.1 est impressionnante par le large éventail de réactions humaines qu'elle permet d'obtenir, en particulier pour un système basé sur une caméra », a déclaré Guy Mangiamele, directeur des essais de l'AMCI.
« Mais son apparente infaillibilité au cours des cinq premières minutes d'utilisation de la FSD engendre un sentiment de crainte qui conduit inévitablement à une dangereuse complaisance. Lorsque les conducteurs conduisent avec la FSD enclenchée, le fait de conduire avec les mains sur les genoux ou loin du volant est incroyablement dangereux. Comme vous le verrez dans les vidéos, les moments les plus critiques d'erreur de calcul de la FSD sont des événements qui se déroulent en une fraction de seconde et que même les conducteurs professionnels, qui opèrent avec un état d'esprit de test, doivent s'efforcer de rattraper », a déclaré Mangiamele.
Cette affaire pourrait coûter cher à Tesla
Les enjeux sont importants pour Tesla. Si la NHTSA détermine que la stratégie de l'entreprise consistant à n'utiliser que la caméra n'est pas en mesure de tenir les promesses faites à plusieurs reprises par le PDG de Tesla, Elon Musk, elle peut obliger le constructeur automobile à procéder à un rappel. Cela pourrait impliquer d'équiper les voitures d'un nouveau matériel à grands frais ou de désactiver le système FSD, ce qui priverait Tesla d'une source de revenus essentielle et forcerait peut-être même ses investisseurs à se rendre à l'évidence.
Sources : NHTSA, AMCI Testing
Et vous ?
Dans quelles mesures pensez-vous que les conducteurs devraient être responsables lorsque les systèmes autonomes échouent ?
Croyez-vous que la technologie des véhicules autonomes est prête pour une utilisation généralisée, ou faut-il davantage de tests et de régulations ?
Selon vous, comment Tesla pourrait améliorer la sécurité de son système FSD dans des conditions de visibilité réduite ?
Pensez-vous que l'appellation "Full Self-Driving" de Tesla est trompeuse ? Pourquoi ou pourquoi pas ?
À votre avis, quelles mesures devraient être prises par les régulateurs pour assurer la sécurité des systèmes de conduite autonome ?