Un nouvel accident expose les limites du programme Full Self-Driving de Tesla
Il peut être difficile d'éviter les cerfs sur la route. Parfois, ils sautent sur votre chemin à la dernière seconde, vous laissant très peu de temps pour réagir. D'autres fois, vous vous retrouvez face à un cerf qui se contente d'être sur votre chemin et vous avez toute la place nécessaire pour vous arrêter lentement ou pour le contourner. À moins que vous n'utilisiez le Full Self-Driving (FSD) de Tesla, auquel cas votre voiture peut tout simplement rouler sans s'en soucier.
Video is cut right before sensitive things appear on screen. Safe to watch. pic.twitter.com/FaXD6Gr68S
— Paul S (@TheSeekerOf42) October 28, 2024
Un utilisateur de X avec le pseudonyme « Paul S » a posté sur X une vidéo de la caméra de bord de sa Tesla Model 3. La vidéo le montre en train de percuter un cerf alors que le système Full Self-Driving était activé. Paul affirme qu'il utilisait le système Full Self-Driving là où il est censé être utilisé. C'est-à-dire dans les conditions où le Tesla recommande de l'utiliser : « sur une autoroute clairement délimitée, avec très peu d'autres voitures autour ».
Paul utilisait le Full Self-Driving dans la nuit, un moment de la journée où le logiciel de conduite autonome de Tesla, qui dépend entièrement de ses caméras, peut avoir du mal à voir si la route n'est pas bien éclairée. Cependant, la route sur laquelle roulait Paul semblait suffisamment éclairée par les phares de la voiture électrique. Les choses se gâtent sept secondes après le début de la vidéo, lorsqu'un cerf s'immobilise au milieu de la voie sur laquelle Paul roulait.
Le cerf n'a pas surgi du bord de la route, il était juste là, à regarder autour de lui. Malgré cela, la Tesla le percute comme s'il n'était pas là. La Tesla Model 3 a simplement écrasé le cerf et, selon le propriétaire, elle ne s'est pas arrêtée d'elle-même, même après l'impact. La vidéo a suscité de nombreuses réactions sur la toile. Il y a eu notamment de nombreuses spéculations sur la raison pour laquelle la Tesla n'a pas semblé voir le cerf ou n'a rien tenté pour l'éviter.
Paul a publié une photo de l'avant de la voiture. Elle montre les dégâts qui en résultent : un pare-chocs fissuré et un capot à la fois bosselé. Il affirme que « le Full Self-Driving fonctionne à merveille et qu'un cerf sur la route est un cas limite ». Mais on pourrait arguer que les cas limites sont en effet des éléments très importants de toute suite d'autonomie revendiquée, étant donné que les conducteurs se retirent lorsqu'ils ont l'impression que la voiture fait le travail.
Tesla critiqué sur choix d'abandonner les LiDAR au profit de simples caméras
On ne sait pas exactement pourquoi le Full Self-Driving n'a fait aucun effort pour éviter le cerf. Cela pourrait être dû à la faible visibilité dans la nuit, ou au fait que la reconnaissance d'image de Tesla est tout simplement mauvaise pour identifier les cerfs. « Quoi qu'il en soit, c'est accablant », peut-on lire dans les commentaires sur la vidéo. Si la voiture a bien résisté à l'accident, avec des dégâts minimes, la situation aurait pu être bien pire si l'animal était plus gros.
Hit the deer with my Tesla.
— Paul S (@TheSeekerOf42) October 28, 2024
FSD didn’t stopped, even after hitting the deer on full speed. Huge surprise after getting a dozen of false stops every day!
Experiencing worst side of Tesla service now. Can’t even get an estimate for insurance. Nearest appointments only in January. pic.twitter.com/7PMiROmk5x
Il convient de noter que le Full Self-Driving est purement basé sur la vision, sans aucun des capteurs, équipements LiDAR ou données cartographiques utilisés par certains de ses rivaux, comme General Motors avec Super Cruise. Plutôt que d'utiliser des capteurs avancés, qui coûtent cher, Tesla a décidé de s'appuyer uniquement sur les données fournies par les caméras de la voiture. Les capteurs auraient peut-être détecté le cerf, même si les caméras ne le voyaient pas.
Ce qui est encore plus inquiétant que l'absence de détection, « c'est que la Tesla ne se serait pas arrêtée après avoir heurté le cerf ». C'est du moins ce que dit le conducteur dans son billet sur X. Ce qui suggère l'ordinateur de bord n'a reçu aucune information sur le choc après l'accident. Aucun capteur d'impact ni aucune caméra n'a remarqué l'accident et n'a demandé à la voiture de se ranger sur le côté, de ralentir ou même de rendre le contrôle au conducteur.
Une collision avec un cerf est généralement un impact important pour une voiture de ce type, surtout lorsque le choc parvient à déplacer l'ensemble du capot, mais la Tesla ne l'a pas remarqué ou a simplement décidé que ce n'était pas un problème. Il sera intéressant de lire les explications de Tesla et de son PDG Elon Musk sur la raison pour laquelle le Full Self-Driving n'a pas détecté le cerf, ainsi que les causes potentielles.
L'activation du Full Self-Driving pousse les conducteurs de Tesla à l'inattention
Selon plusieurs critiques, l'approche de Tesla en matière de conduite autonome omet délibérément des technologies qui la rendraient incontestablement mieux préparée à des situations comme celle-ci. La pertinence de la fonction de conduite autonome des voitures est de plus en plus discutée, et l'utilisation de technologies qui n'assurent pas une sécurité optimale aux conducteurs et à tous les autres usagers de la route pourrait avoir de graves conséquences.
To all the people who say that our tests are faked and that @Tesla Full Self-Driving won't run over a small child, here is FSD running over and killing a deer.
— Dan O'Dowd (@RealDanODowd) October 28, 2024
The deer is the same size as a small child. FSD didn't brake and didn't stop after the collision.
Hit and run. https://t.co/2ZxWW9tAVV
L'autre problème soulevé par l'expérience de Paul est celui-ci : dans l'enregistrement qu'il a partagé sur X, il n'y a pas d'intervention humaine. D'après la façon dont la vidéo est coupée, l'on ne sait pas ce qui se passe après la collision. Toutefois, avant la collision, Paul aurait pu éviter le cerf s'il avait été attentif, en freinant ou en braquant. Si un être humain avait été aux commandes, on aurait probablement observé au moins quelques soubresauts avant la collision.
Tesla pourrait déclarer qu'il s'agissait d'un scénario de « tempête parfaite » : un petit cerf, au milieu d'une voie, la nuit, sur une route mal éclairée. Mais selon les critiques, si le Full Self-Driving ne peut pas garantir la sécurité dans de telles conditions, la voiture devrait bloquer l'utilisation du système jusqu'à ce que les conditions adéquates soient réunies. Cela nous rappelle une fois de plus que les systèmes d'aide à la conduite ne sont que cela : « de l'aide à la conduite ».
Ils existent pour faciliter la conduite ou la rendre plus sûre et non pour remplacer complètement l'homme. Dan O'Dowd, un milliardaire qui critique sévèrement le Full Self-Driving et qui est convaincu qu'il n'est pas sûr, a dépensé des millions de dollars ces dernières années pour tenter de faire retirer le logiciel des voitures en circulation. L'argent ne semble pas avoir été bien dépensé jusqu'à présent, car le Full Self-Driving est de plus en plus utilisé chaque semaine.
Il n'abandonne pas toutefois. Il a déjà démontré qu'en plaçant un petit objet de la taille d'un enfant devant une Tesla en mode Full Self-Driving, la voiture pouvait rouler sur l'objet - à condition qu'il soit placé dans le bon angle ou la bonne position et qu'il se trouve sur la trajectoire de la voiture. Il a eu vent de l'histoire de Paul et a publié un billet, disant que cela renforce son affirmation selon laquelle une Tesla en mode Full Self-Driving peut écraser un enfant.
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous de l'histoire de Paul S concernant la collision avec un cerf ? Est-elle crédible ?
Selon vous, pourquoi le Full Self-Driving n'a ni ralenti ni arrêté la voiture alors que le cerf était sur son chemin ?
Selon vous, la faible visibilité dans la nuit peut-elle expliquer le mauvais fonctionnement du Full Self-Driving ? Pourquoi ?
Tesla s'appuie uniquement sur des caméras pour sa fonction de conduite autonome. Ce choix est-il adéquat ? Quelles sont ses limites ?
Voir aussi
Elon Musk affirme que le service de robotaxi de Tesla est testé par les employés sur les routes de San Francisco depuis près d'un an, il promet un Full Self-Driving « non supervisé » d'ici 2025 pour le Cybercab
La NHTSA ouvre une nouvelle enquête de sécurité concernant le Full Self-Driving de Tesla après quatre accidents, dont un mortel, impliquant la fonctionnalité dans des conditions de visibilité réduite
Tesla aurait intimé l'ordre aux développeurs de l'Autopilot d'ignorer certains panneaux de signalisation et de s'occuper de leurs affaires et de leur niveau de salaire, selon un rapport