Tesla et son PDG au franc-parler, Elon Musk, promettent depuis longtemps des voitures autonomes, mais nous n'en sommes pas encore là. Bien que les deux systèmes avancés d'aide à la conduite (ADAS) disponibles s'appellent Autopilot et Full Self-Driving (Supervised), ils ne sont toujours pas classés comme des systèmes de niveau 3 sur le tableau des niveaux d'autonomie de conduite de la SAE, ce qui signifie que le conducteur doit toujours être attentif et prêt à reprendre le contrôle à tout moment.
En 2023, les statistiques de la NHTSA sur le bilan d'Autopilot et du Full Self-Driving de Tesla inquiétaient. Entre juillet 2021 et le 15 mai 2022, le système Autopilot de Tesla était à l'origine trois quarts de tous les accidents ADAS, soit 273 accidents sur 367 signalés. Sur le marché américain, les données de l'agence américaine énuméraient au moins 17 incidents mortels, dont 11 depuis mai 2023, et cinq blessés graves. Au total, le nombre de décès liés à Tesla au 12 juin 2023 dans le monde est de 393. Le nombre de décès directement associés au logiciel Autopilot est de 33.
Si le FSD peut fonctionner parfaitement dans la majorité des situations, ce rapport montre qu'il peut parfois "manquer sa cible", et ce sont ces erreurs occasionnelles qui peuvent devenir dangereuses. C'est ce qu'a également conclu AMCI Testing, un cabinet de recherche indépendant, après avoir récemment testé le FSD de Tesla sur plus de 1 600 kilomètres de rues urbaines, de routes rurales à deux voies, de routes de montagne et d'autoroutes. L'entreprise a utilisé une Tesla Model 3 Performance 2024 équipée du matériel le plus récent du constructeur automobile et exécutant les dernières itérations logicielles, 12.5.1 et 12.5.3.
Au cours des essais, les conducteurs d'AMCI ont dû intervenir plus de 75 fois alors que le FSD était actif, soit en moyenne une fois tous les 21 kilomètres. Dans un cas, la Tesla Model 3 a grillé un feu rouge en ville pendant la nuit alors que les caméras avaient clairement détecté les feux. Dans une autre situation où la fonction FSD (Supervised) était activée sur une route rurale sinueuse, la voiture a franchi une double ligne jaune et s'est retrouvée dans le trafic venant en sens inverse, obligeant le conducteur à reprendre la main. Une autre mésaventure notable s'est produite en ville lorsque le véhicule électrique s'est arrêté alors que le feu était vert et que les voitures qui le précédaient accéléraient.
Voici comment Guy Mangiamele, directeur des essais de l'AMCI, résume la situation : "Ce qui est le plus déconcertant et le plus imprévisible, c'est que vous pouvez voir la FSD négocier avec succès un scénario spécifique à plusieurs reprises - souvent sur le même tronçon de route ou à la même intersection - pour la voir échouer de manière inexplicable la fois suivante".
"Avec tous les systèmes de conduite augmentée mains libres, et plus encore avec les véhicules autonomes sans conducteur, la confiance entre la technologie et le public est compacte", a déclaré David Stokols, PDG de la société mère d'AMCI Testing, AMCI Global. "S'approcher de l'infaillibilité, mais ne pas y parvenir, crée un problème de complaisance insidieux et dangereux pour l'opérateur, comme le prouvent les résultats des tests", a-t-il ajouté.
Ce n'est pas la première fois que les tests indépendants révèlent les "erreurs occasionnelles dangereuses" des systèmes ADAS de Tesla. Geoffrey Fowler, un chroniqueur technologique, a également partagé ses inquiétudes après avoir testé la mise à jour du logiciel Autopilot de Tesla, déployée lors du plus grand rappel de l'histoire de l'entreprise. Geoffrey Fowler a constaté que la Tesla Model Y, après la mise à jour, continue de prendre des initiatives risquées, telles que franchir des panneaux d'arrêt sans ralentir. Il souligne : "En testant le système de rappel Autopilot de Tesla, j'ai un sentiment d'insécurité persistant que vous devriez partager "
Plus que la défaillance du système en lui-même, l'approche marketing du constructeur automobile est également susceptible d'inciter les conducteurs à ne pas en tenir compte, ce qui conduit aux multiples désastres sur les routes. Tesla définit son système Autopilot d' "ensemble de fonctionnalités d'assistance conducteur destinées à rendre la conduite plus sûre et sereine et qui ne sont en aucun cas conçues pour rendre le véhicule entièrement autonome ou pour remplacer le conducteur". Pourtant les véhicules Tesla intègrent la possibilité au conducteur de jouer ou de visionner des contenus vidéo pendant que la voiture est en mouvement. Cela renforce la confusion autour du terme Autopilot et est encore plus susceptible d’amener les conducteurs à penser que le véhicule est entièrement autonome.
Source : AMCI
Et vous ?
Pensez-vous que ces tests sont crédibles ou pertinents ?
Quel est votre avis sur le sujet ?
Voir aussi :
Tesla n'offre plus le logiciel Full Self-Driving à la vente, mais plutôt une version dite supervisée, d'après une mise à jour de ses CGU qui cache un aveu de publicité mensongère
Une étude indique que les véhicules autonomes sont plus sûrs, sauf à l'aube, au crépuscule ou dans les virages. Le risque d'accident est cinq fois plus élevé que celui des humains en cas de faible luminosité
General Motors envisagerait de mettre fin au développement de son nouveau système de conduite autonome Ultra Cruise. Ce dernier était censé rivaliser avec le logiciel Full Self-Driving de Tesla
Voiture autonome : une étude montre que les systèmes semi-autonomes n'améliorent pas la sécurité routière, bien que certains les considèrent sécuritaires