IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une Tesla en mode Full Self-Driving percute violemment un cerf sans ralentir et sans s'arrêter,
L'incident relance le débat sur le choix de Tesla d'abandonner le Lidar au profit de caméras pour le FSD

Le , par Mathis Lucas

4PARTAGES

3  0 
Les choix techniques de Tesla soulèvent de nouveau la polémique après la publication récente de la vidéo d'un accident impliquant le logiciel Full Self-Driving (FSD) de la société. La vidéo montre une Tesla Model 3 qui percute un cerf sans ralentir et sans s'arrêter. Le conducteur, qui a posté la vidéo sur le réseau social X (ex-Twitter), a déclaré que la Tesla était en mode Full Self-Driving au moment de l'accident. La question est de savoir pourquoi le logiciel n'a rien fait pour éviter le cerf. Cela pourrait être dû à une visibilité réduite la nuit. D'un autre côté, l'incident soulève de nouvelles préoccupations sur la sécurité des logiciels Autopilot et Full Self-Driving de Tesla.

Un nouvel accident expose les limites du programme Full Self-Driving de Tesla

Il peut être difficile d'éviter les cerfs sur la route. Parfois, ils sautent sur votre chemin à la dernière seconde, vous laissant très peu de temps pour réagir. D'autres fois, vous vous retrouvez face à un cerf qui se contente d'être sur votre chemin et vous avez toute la place nécessaire pour vous arrêter lentement ou pour le contourner. À moins que vous n'utilisiez le Full Self-Driving (FSD) de Tesla, auquel cas votre voiture peut tout simplement rouler sans s'en soucier.


Un utilisateur de X avec le pseudonyme « Paul S » a posté sur X une vidéo de la caméra de bord de sa Tesla Model 3. La vidéo le montre en train de percuter un cerf alors que le système Full Self-Driving était activé. Paul affirme qu'il utilisait le système Full Self-Driving là où il est censé être utilisé. C'est-à-dire dans les conditions où le Tesla recommande de l'utiliser : « sur une autoroute clairement délimitée, avec très peu d'autres voitures autour ».

Paul utilisait le Full Self-Driving dans la nuit, un moment de la journée où le logiciel de conduite autonome de Tesla, qui dépend entièrement de ses caméras, peut avoir du mal à voir si la route n'est pas bien éclairée. Cependant, la route sur laquelle roulait Paul semblait suffisamment éclairée par les phares de la voiture électrique. Les choses se gâtent sept secondes après le début de la vidéo, lorsqu'un cerf s'immobilise au milieu de la voie sur laquelle Paul roulait.

Le cerf n'a pas surgi du bord de la route, il était juste là, à regarder autour de lui. Malgré cela, la Tesla le percute comme s'il n'était pas là. La Tesla Model 3 a simplement écrasé le cerf et, selon le propriétaire, elle ne s'est pas arrêtée d'elle-même, même après l'impact. La vidéo a suscité de nombreuses réactions sur la toile. Il y a eu notamment de nombreuses spéculations sur la raison pour laquelle la Tesla n'a pas semblé voir le cerf ou n'a rien tenté pour l'éviter.

Paul a publié une photo de l'avant de la voiture. Elle montre les dégâts qui en résultent : un pare-chocs fissuré et un capot à la fois bosselé. Il affirme que « le Full Self-Driving fonctionne à merveille et qu'un cerf sur la route est un cas limite ». Mais on pourrait arguer que les cas limites sont en effet des éléments très importants de toute suite d'autonomie revendiquée, étant donné que les conducteurs se retirent lorsqu'ils ont l'impression que la voiture fait le travail.

Tesla critiqué sur choix d'abandonner les LiDAR au profit de simples caméras

On ne sait pas exactement pourquoi le Full Self-Driving n'a fait aucun effort pour éviter le cerf. Cela pourrait être dû à la faible visibilité dans la nuit, ou au fait que la reconnaissance d'image de Tesla est tout simplement mauvaise pour identifier les cerfs. « Quoi qu'il en soit, c'est accablant », peut-on lire dans les commentaires sur la vidéo. Si la voiture a bien résisté à l'accident, avec des dégâts minimes, la situation aurait pu être bien pire si l'animal était plus gros.


Il convient de noter que le Full Self-Driving est purement basé sur la vision, sans aucun des capteurs, équipements LiDAR ou données cartographiques utilisés par certains de ses rivaux, comme General Motors avec Super Cruise. Plutôt que d'utiliser des capteurs avancés, qui coûtent cher, Tesla a décidé de s'appuyer uniquement sur les données fournies par les caméras de la voiture. Les capteurs auraient peut-être détecté le cerf, même si les caméras ne le voyaient pas.

Citation Envoyé par Paul S

J'ai heurté un cerf avec ma Tesla.

Le FSD ne s'est pas arrêté, même après avoir heurté le cerf à pleine vitesse. C'est une énorme surprise après avoir reçu une douzaine de faux arrêts chaque jour !

J'ai fait l'expérience du pire côté du service Tesla maintenant. Je n'arrive même pas à obtenir un devis pour l'assurance. Les rendez-vous les plus proches n'ont lieu qu'en janvier.
« C'est le genre de cas où le LiDAR aurait vraiment été utile. La vision artificielle de la Tesla semble avoir manqué le cerf de couleur claire contre la bande de trottoir de couleur plus claire sur la route, mais des capteurs dotés de réelles capacités de détection 3D auraient probablement remarqué l'objet solide qui se trouvait sur le chemin de la voiture », note un critique. En l'absence de capteurs, l'ordinateur de bord n'a peut-être pas reçu suffisamment d'informations.

Ce qui est encore plus inquiétant que l'absence de détection, « c'est que la Tesla ne se serait pas arrêtée après avoir heurté le cerf ». C'est du moins ce que dit le conducteur dans son billet sur X. Ce qui suggère l'ordinateur de bord n'a reçu aucune information sur le choc après l'accident. Aucun capteur d'impact ni aucune caméra n'a remarqué l'accident et n'a demandé à la voiture de se ranger sur le côté, de ralentir ou même de rendre le contrôle au conducteur.

Une collision avec un cerf est généralement un impact important pour une voiture de ce type, surtout lorsque le choc parvient à déplacer l'ensemble du capot, mais la Tesla ne l'a pas remarqué ou a simplement décidé que ce n'était pas un problème. Il sera intéressant de lire les explications de Tesla et de son PDG Elon Musk sur la raison pour laquelle le Full Self-Driving n'a pas détecté le cerf, ainsi que les causes potentielles.

L'activation du Full Self-Driving pousse les conducteurs de Tesla à l'inattention

Selon plusieurs critiques, l'approche de Tesla en matière de conduite autonome omet délibérément des technologies qui la rendraient incontestablement mieux préparée à des situations comme celle-ci. La pertinence de la fonction de conduite autonome des voitures est de plus en plus discutée, et l'utilisation de technologies qui n'assurent pas une sécurité optimale aux conducteurs et à tous les autres usagers de la route pourrait avoir de graves conséquences.


L'autre problème soulevé par l'expérience de Paul est celui-ci : dans l'enregistrement qu'il a partagé sur X, il n'y a pas d'intervention humaine. D'après la façon dont la vidéo est coupée, l'on ne sait pas ce qui se passe après la collision. Toutefois, avant la collision, Paul aurait pu éviter le cerf s'il avait été attentif, en freinant ou en braquant. Si un être humain avait été aux commandes, on aurait probablement observé au moins quelques soubresauts avant la collision.

Tesla pourrait déclarer qu'il s'agissait d'un scénario de « tempête parfaite » : un petit cerf, au milieu d'une voie, la nuit, sur une route mal éclairée. Mais selon les critiques, si le Full Self-Driving ne peut pas garantir la sécurité dans de telles conditions, la voiture devrait bloquer l'utilisation du système jusqu'à ce que les conditions adéquates soient réunies. Cela nous rappelle une fois de plus que les systèmes d'aide à la conduite ne sont que cela : « de l'aide à la conduite ».

Ils existent pour faciliter la conduite ou la rendre plus sûre et non pour remplacer complètement l'homme. Dan O'Dowd, un milliardaire qui critique sévèrement le Full Self-Driving et qui est convaincu qu'il n'est pas sûr, a dépensé des millions de dollars ces dernières années pour tenter de faire retirer le logiciel des voitures en circulation. L'argent ne semble pas avoir été bien dépensé jusqu'à présent, car le Full Self-Driving est de plus en plus utilisé chaque semaine.

Il n'abandonne pas toutefois. Il a déjà démontré qu'en plaçant un petit objet de la taille d'un enfant devant une Tesla en mode Full Self-Driving, la voiture pouvait rouler sur l'objet - à condition qu'il soit placé dans le bon angle ou la bonne position et qu'il se trouve sur la trajectoire de la voiture. Il a eu vent de l'histoire de Paul et a publié un billet, disant que cela renforce son affirmation selon laquelle une Tesla en mode Full Self-Driving peut écraser un enfant.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de l'histoire de Paul S concernant la collision avec un cerf ? Est-elle crédible ?
Selon vous, pourquoi le Full Self-Driving n'a ni ralenti ni arrêté la voiture alors que le cerf était sur son chemin ?
Selon vous, la faible visibilité dans la nuit peut-elle expliquer le mauvais fonctionnement du Full Self-Driving ? Pourquoi ?
Tesla s'appuie uniquement sur des caméras pour sa fonction de conduite autonome. Ce choix est-il adéquat ? Quelles sont ses limites ?

Voir aussi

Elon Musk affirme que le service de robotaxi de Tesla est testé par les employés sur les routes de San Francisco depuis près d'un an, il promet un Full Self-Driving « non supervisé » d'ici 2025 pour le Cybercab

La NHTSA ouvre une nouvelle enquête de sécurité concernant le Full Self-Driving de Tesla après quatre accidents, dont un mortel, impliquant la fonctionnalité dans des conditions de visibilité réduite

Tesla aurait intimé l'ordre aux développeurs de l'Autopilot d'ignorer certains panneaux de signalisation et de s'occuper de leurs affaires et de leur niveau de salaire, selon un rapport

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de mith06
Membre expérimenté https://www.developpez.com
Le 31/10/2024 à 9:43
De toute façon les voitures électriques ça pollue plus que les autres, et Elon Musk est un fasciste!!!
0  0 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 30/10/2024 à 21:13
J'ai fait l'expérience du pire côté du service Tesla maintenant. Je n'arrive même pas à obtenir un devis pour l'assurance. Les rendez-vous les plus proches n'ont lieu qu'en janvier.
il me semble que au royaume unis, les assurances ne veulent meme plus assuré les voitures électrique tellement ca coute trop chère en réparation.

des animaux percuter et écrasé ca arrive, et a la vitesse ou il va sur la video + visibilité, meme un humain ne l'aurait pas évité.
et l'ia a fait le meilleur choix possible, souvent des humains tente d'éviter l'obstacle en allant soit sur la voix de gauche, soit dans le fossé à droite, donc d'un sur accident bien plus grave.

elle aurait pu freiner, mais il devrait déjà remercier dieu musk de l'avoir laissé en vie car au moins sa voiture n'a pas tenté de l'éviter et planter la voiture dans un arbre.
j'espère pour lui que la batterie n'est pas endommagé, car sinon il est bon pour toute la changé, soit plus de 10000€ facile. Sur une diesel bien conçu, seul les phares et le radiateurs serait à changer au pire.
0  2