IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le Full Self-Driving de Tesla commet des "erreurs occasionnelles dangereuses" : lors d'un test sur plus de 1600 kilomètres, les conducteurs ont dû intervenir plus de 75 fois alors que le FSD était actif

Le , par Jade Emy

102PARTAGES

7  0 
Le Full Self-Driving de Tesla commet des "erreurs occasionnelles dangereuses" : lors d'un test sur plus de 1600 kilomètres, les conducteurs ont dû intervenir plus de 75 fois alors que le FSD était actif.

Le système avancé d'aide à la conduite entièrement autonome supervisé (Full Self-Driving supervised) de Tesla a été testé sur plus de 1600 kilomètres par AMCI, un cabinet de recherche automobile indépendant. Au cours du processus d'examen, les conducteurs ont dû intervenir plus de 75 fois. Le système Full Self-Driving (FSD) supervisé peut fonctionner parfaitement des dizaines de fois dans le même scénario, jusqu'à ce qu'il se dérègle de manière inattendue et nécessite l'intervention du conducteur.

Tesla et son PDG au franc-parler, Elon Musk, promettent depuis longtemps des voitures autonomes, mais nous n'en sommes pas encore là. Bien que les deux systèmes avancés d'aide à la conduite (ADAS) disponibles s'appellent Autopilot et Full Self-Driving (Supervised), ils ne sont toujours pas classés comme des systèmes de niveau 3 sur le tableau des niveaux d'autonomie de conduite de la SAE, ce qui signifie que le conducteur doit toujours être attentif et prêt à reprendre le contrôle à tout moment.

En 2023, les statistiques de la NHTSA sur le bilan d'Autopilot et du Full Self-Driving de Tesla inquiétaient. Entre juillet 2021 et le 15 mai 2022, le système Autopilot de Tesla était à l'origine trois quarts de tous les accidents ADAS, soit 273 accidents sur 367 signalés. Sur le marché américain, les données de l'agence américaine énuméraient au moins 17 incidents mortels, dont 11 depuis mai 2023, et cinq blessés graves. Au total, le nombre de décès liés à Tesla au 12 juin 2023 dans le monde est de 393. Le nombre de décès directement associés au logiciel Autopilot est de 33.

Si le FSD peut fonctionner parfaitement dans la majorité des situations, ce rapport montre qu'il peut parfois "manquer sa cible", et ce sont ces erreurs occasionnelles qui peuvent devenir dangereuses. C'est ce qu'a également conclu AMCI Testing, un cabinet de recherche indépendant, après avoir récemment testé le FSD de Tesla sur plus de 1 600 kilomètres de rues urbaines, de routes rurales à deux voies, de routes de montagne et d'autoroutes. L'entreprise a utilisé une Tesla Model 3 Performance 2024 équipée du matériel le plus récent du constructeur automobile et exécutant les dernières itérations logicielles, 12.5.1 et 12.5.3.


Au cours des essais, les conducteurs d'AMCI ont dû intervenir plus de 75 fois alors que le FSD était actif, soit en moyenne une fois tous les 21 kilomètres. Dans un cas, la Tesla Model 3 a grillé un feu rouge en ville pendant la nuit alors que les caméras avaient clairement détecté les feux. Dans une autre situation où la fonction FSD (Supervised) était activée sur une route rurale sinueuse, la voiture a franchi une double ligne jaune et s'est retrouvée dans le trafic venant en sens inverse, obligeant le conducteur à reprendre la main. Une autre mésaventure notable s'est produite en ville lorsque le véhicule électrique s'est arrêté alors que le feu était vert et que les voitures qui le précédaient accéléraient.

Voici comment Guy Mangiamele, directeur des essais de l'AMCI, résume la situation : "Ce qui est le plus déconcertant et le plus imprévisible, c'est que vous pouvez voir la FSD négocier avec succès un scénario spécifique à plusieurs reprises - souvent sur le même tronçon de route ou à la même intersection - pour la voir échouer de manière inexplicable la fois suivante".

"Avec tous les systèmes de conduite augmentée mains libres, et plus encore avec les véhicules autonomes sans conducteur, la confiance entre la technologie et le public est compacte", a déclaré David Stokols, PDG de la société mère d'AMCI Testing, AMCI Global. "S'approcher de l'infaillibilité, mais ne pas y parvenir, crée un problème de complaisance insidieux et dangereux pour l'opérateur, comme le prouvent les résultats des tests", a-t-il ajouté.


Ce n'est pas la première fois que les tests indépendants révèlent les "erreurs occasionnelles dangereuses" des systèmes ADAS de Tesla. Geoffrey Fowler, un chroniqueur technologique, a également partagé ses inquiétudes après avoir testé la mise à jour du logiciel Autopilot de Tesla, déployée lors du plus grand rappel de l'histoire de l'entreprise. Geoffrey Fowler a constaté que la Tesla Model Y, après la mise à jour, continue de prendre des initiatives risquées, telles que franchir des panneaux d'arrêt sans ralentir. Il souligne : "En testant le système de rappel Autopilot de Tesla, j'ai un sentiment d'insécurité persistant que vous devriez partager "

Plus que la défaillance du système en lui-même, l'approche marketing du constructeur automobile est également susceptible d'inciter les conducteurs à ne pas en tenir compte, ce qui conduit aux multiples désastres sur les routes. Tesla définit son système Autopilot d' "ensemble de fonctionnalités d'assistance conducteur destinées à rendre la conduite plus sûre et sereine et qui ne sont en aucun cas conçues pour rendre le véhicule entièrement autonome ou pour remplacer le conducteur". Pourtant les véhicules Tesla intègrent la possibilité au conducteur de jouer ou de visionner des contenus vidéo pendant que la voiture est en mouvement. Cela renforce la confusion autour du terme Autopilot et est encore plus susceptible d’amener les conducteurs à penser que le véhicule est entièrement autonome.


Source : AMCI

Et vous ?

Pensez-vous que ces tests sont crédibles ou pertinents ?
Quel est votre avis sur le sujet ?

Voir aussi :

Tesla n'offre plus le logiciel Full Self-Driving à la vente, mais plutôt une version dite supervisée, d'après une mise à jour de ses CGU qui cache un aveu de publicité mensongère

Une étude indique que les véhicules autonomes sont plus sûrs, sauf à l'aube, au crépuscule ou dans les virages. Le risque d'accident est cinq fois plus élevé que celui des humains en cas de faible luminosité

General Motors envisagerait de mettre fin au développement de son nouveau système de conduite autonome Ultra Cruise. Ce dernier était censé rivaliser avec le logiciel Full Self-Driving de Tesla

Voiture autonome : une étude montre que les systèmes semi-autonomes n'améliorent pas la sécurité routière, bien que certains les considèrent sécuritaires
Vous avez lu gratuitement 2 875 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Gluups
Membre expert https://www.developpez.com
Le 25/02/2025 à 16:00
Citation Envoyé par Mathis Lucas Voir le message
Mais la réalité a eu du mal à le rattraper. Tesla soutient toujours que son logiciel Full Self-Driving exige que les conducteurs soient engagés et prêts à prendre le contrôle à tout moment. Dans la pratique, les conducteurs comme Jonathan Challinger se déconnectent souvent lors que le système est activé.
Ah oui, compter sur l'autonomie totale d'un système dont le constructeur dit de se tenir sur ses gardes, c'est un peu comme se croire protégé en acceptant de participer massivement à des essais cliniques sur quelque chose qui modifie votre génome ... Tant de risque pour si peu de résultats, pourquoi ?

Au fil des ans, les logiciels Autopilot et le Full Self-Driving de Tesla ont été liés des centaines
d'accidents, dont certains étaient mortels, et ont été impliqués dans un grand nombre de poursuites judiciaires. Certains reprochent à Tesla de distribuer un logiciel en version bêta utilisable sur les routes publiques.
Finalement, appeler ce logiciel "Full Self Driving", amène à se demander ce qu'on entend au juste par là, puisque ce logiciel a été recalé très largement à l'examen du permis de conduire. Si je dois déléguer la conduite de ma voiture à quelqu'un, j'aime autant que ça ne soit pas un gamin qui n'a pas eu son permis.

En matière de conduite automatisée, il est facile de se représenter que les coûts ne sont pas du tout du même ordre entre un "proof of concept" (après tout le procès concerne les États Unis) et un produit abouti et fiable. Les termes de communication sont donc forcément au cœur du débat.

Les procédures qui ont abouti à autoriser la circulation sur la voie publique doivent probablement aussi être revues.
5  0 
Avatar de Fagus
Membre expert https://www.developpez.com
Le 19/03/2025 à 14:01
Au contraire, je trouve que c'est pédagogique. En dehors des initiés, personne ne sait ce qu'est un lidar.

Certes, les paysages à la tex avery sont rares (attention aux fresques murales !), mais ça illustre qu'un système basé sur la vision pâtit des limites de la vision.

Leur système ne sera-t-il pas handicapé la nuit, dans le brouillard, face à un obstacle sombre (ex un piéton habillé en noir), là où un lidar aurait fait l'affaire ?
5  0 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 22/01/2026 à 17:48
Citation Envoyé par gabi7756 Voir le message
Ca fait un peu peur d'entendre ça. Après ils ont peut être juste mis un petit random dans le code pour un peu plus de fun ?

1600km pour 75 erreurs <=> 21.3km et hop ya un problème. Pas mal comme stat
Même en comptant le facteur humain, je fais 160km par jour.. 8 fois ou ca merde, donc potentiellement 4-5 fois de situation avec danger de mort.
Je me souviens quand on nous disait comme la conduite autonome est super sûre et que c'est comme un conducteur qui aurait plusieurs milliards de km d'expérience!
5  0 
Avatar de ALT
Membre émérite https://www.developpez.com
Le 25/01/2026 à 1:41
Bon, à mon avis, il y a un biais important : quand on conduit, on regarde la route & on sait quoi faire. Quand on a un véhicule sensé faire le boulot, c'est beaucoup difficile :
  1. il faut maintenir son attention ;
  2. il faut rester prêt à intervenir à tout moment, mais...
  3. outre la crampe due à la position des mains près-du-volant-mais-pas-dessus,
  4. on voit un obstacle arriver. Questions :


  • le véhicule a-t-il repéré l'obstacle ?
  • Donc, va-t-il réagir (freiner, se décaler...) ?
  • Quand ?
  • Accessoirement : à quel moment dois-je considérer que ça déconne & que je dois impérativement reprendre le contrôle (trop tard) ?

Bref, c'est pire que quand on conduit soi-même.
Autant j'attends avec impatience la conduite réellement autonome (niveau 5), autant ces solutions bancales (niveau 4 version bêta voire alpha) me sortent par tous les orifices.
5  0 
Avatar de Gluups
Membre expert https://www.developpez.com
Le 25/02/2025 à 16:35
Tout-à-fait. Que la pub fasse rêver et donne envie d'en savoir plus, normal, c'est son boulot.

Qu'on signe sans lire, c'est une autre affaire.

L'enseignement de l'esprit critique dans le pays peut aussi faire l'objet de questions, auxquelles le tribunal n'a pas forcément pour mission de répondre.

Le procès risque de s'orienter vers une question sur le droit de faire rêver sur quelque chose de pas vraiment abouti (ce que je n'invente pas puisque c'est Tesla qui l'a dit).

Voilà qui est susceptible de nous rappeler qu'il faut d'abord lire les petits caractères, et ensuite seulement reprendre la lecture au début.

Se faire une idée d'ensemble, et reprendre la lecture le lendemain.
4  0 
Avatar de AaâÂäÄàAaâÂäÄàAaâÂäÄ
Membre expérimenté https://www.developpez.com
Le 25/02/2025 à 17:58
Citation Envoyé par Gluups Voir le message
Qu'on signe sans lire, c'est une autre affaire.
Quand tu achètes une voiture, tu lis réellement l'entiereté des pages et de tout ce à quoi tu consens ?
Entre le crédit, l'application sur le cell, les formulaires sur le consentement à l'utilisation de tes données, la propriété du véhicule, les documents officiels... tu en as pour des heures à tout lire !
Et le pire, sans vraiment d'alternative si tu refuses les conditions.
4  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 26/02/2025 à 7:31
Citation Envoyé par Ryu2000 Voir le message
Personne ne lit les conditions d'utilisation et ce genre de textes.
C'est beaucoup trop chiant et long. Il faudrait être juriste pour supporter ça.
Non seulement pour supporter mais aussi pour comprendre. Certaines formulations relèvent du jargon juridique et sont peu/pas compréhensible pour le quidam.
4  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 10/03/2025 à 9:49
Citation Envoyé par Mathis Lucas Voir le message
Steve Wozniak a raconté l'histoire de sa femme, qui a été arrêtée après avoir omis de signaler un virage alors qu'elle conduisait une Tesla. L'informaticien raconte : « le policier n'avait jamais vu ce volant à étrier. Lorsque vous tournez déjà, vous ne trouvez pas les boutons du clignotant ». Mais le comble a été atteint lorsque le policier a demandé les informations relatives à l'assurance, que la plupart des conducteurs conservent généralement dans la boîte à gants.

« C'est une nouvelle Tesla, avec un nouveau logiciel, et il n'y a pas de bouton pour la boîte à gants. Il faut chercher dans les menus jusqu'à ce que l'on trouve la boîte à gants par hasard, c'est horrible », a expliqué Steve Wozniak. Ses critiques font écho aux mises en garde de plusieurs études sur le sujet.
Effectivement ce n'est pas top.
Les contrôles physiques sont plus simple, plus rapide, plus sécurisant.
4  0 
Avatar de David_g
Membre éprouvé https://www.developpez.com
Le 23/01/2026 à 9:26
La conduite autonome de Tesla, en fait tu dois être plus concentré sur la conduite que quand c'est toi qui conduit.
4  0 
Avatar de gabi7756
Membre confirmé https://www.developpez.com
Le 23/01/2026 à 10:10
Citation Envoyé par Ryu2000
Il existe des vidéos qui prouvent que l'aide à la conduite de Tesla a permis d'éviter des accidents.
Bon il y a également l'histoire des freinages fantômes, mais c'est encore autre chose...
Il y a des vidéos qui prouve qu'un torchon mouillé à sauvé des vies. Et pourtant on va pas se dire qu'un torchon c'est fiable ?
On peux toujours trouvé sur des centaines de cas un cas qui confirme notre point de vue. Le tout c'est de vérifier la fiabilité de la chose. Or la dans ce cas là c'est pas du tout fiable alors qu'il le vendait de base comme LA révolution du siècle...

Et la on peux divaguer sur tout les sujets, comme la géopolitique par exemple. Certaine infos sont vrai, d'autre c'est du fake, toujours une question de fiabilité
4  0