IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le Full Self-Driving de Tesla commet des "erreurs occasionnelles dangereuses" : lors d'un test sur plus de 1600 kilomètres, les conducteurs ont dû intervenir plus de 75 fois alors que le FSD était actif

Le , par Jade Emy

5PARTAGES

6  0 
Le système avancé d'aide à la conduite entièrement autonome supervisé (Full Self-Driving supervised) de Tesla a été testé sur plus de 1600 kilomètres par AMCI, un cabinet de recherche automobile indépendant. Au cours du processus d'examen, les conducteurs ont dû intervenir plus de 75 fois. Le système Full Self-Driving (FSD) supervisé peut fonctionner parfaitement des dizaines de fois dans le même scénario, jusqu'à ce qu'il se dérègle de manière inattendue et nécessite l'intervention du conducteur.

Tesla et son PDG au franc-parler, Elon Musk, promettent depuis longtemps des voitures autonomes, mais nous n'en sommes pas encore là. Bien que les deux systèmes avancés d'aide à la conduite (ADAS) disponibles s'appellent Autopilot et Full Self-Driving (Supervised), ils ne sont toujours pas classés comme des systèmes de niveau 3 sur le tableau des niveaux d'autonomie de conduite de la SAE, ce qui signifie que le conducteur doit toujours être attentif et prêt à reprendre le contrôle à tout moment.

En 2023, les statistiques de la NHTSA sur le bilan d'Autopilot et du Full Self-Driving de Tesla inquiétaient. Entre juillet 2021 et le 15 mai 2022, le système Autopilot de Tesla était à l'origine trois quarts de tous les accidents ADAS, soit 273 accidents sur 367 signalés. Sur le marché américain, les données de l'agence américaine énuméraient au moins 17 incidents mortels, dont 11 depuis mai 2023, et cinq blessés graves. Au total, le nombre de décès liés à Tesla au 12 juin 2023 dans le monde est de 393. Le nombre de décès directement associés au logiciel Autopilot est de 33.

Si le FSD peut fonctionner parfaitement dans la majorité des situations, ce rapport montre qu'il peut parfois "manquer sa cible", et ce sont ces erreurs occasionnelles qui peuvent devenir dangereuses. C'est ce qu'a également conclu AMCI Testing, un cabinet de recherche indépendant, après avoir récemment testé le FSD de Tesla sur plus de 1 600 kilomètres de rues urbaines, de routes rurales à deux voies, de routes de montagne et d'autoroutes. L'entreprise a utilisé une Tesla Model 3 Performance 2024 équipée du matériel le plus récent du constructeur automobile et exécutant les dernières itérations logicielles, 12.5.1 et 12.5.3.


Au cours des essais, les conducteurs d'AMCI ont dû intervenir plus de 75 fois alors que le FSD était actif, soit en moyenne une fois tous les 21 kilomètres. Dans un cas, la Tesla Model 3 a grillé un feu rouge en ville pendant la nuit alors que les caméras avaient clairement détecté les feux. Dans une autre situation où la fonction FSD (Supervised) était activée sur une route rurale sinueuse, la voiture a franchi une double ligne jaune et s'est retrouvée dans le trafic venant en sens inverse, obligeant le conducteur à reprendre la main. Une autre mésaventure notable s'est produite en ville lorsque le véhicule électrique s'est arrêté alors que le feu était vert et que les voitures qui le précédaient accéléraient.

Voici comment Guy Mangiamele, directeur des essais de l'AMCI, résume la situation : "Ce qui est le plus déconcertant et le plus imprévisible, c'est que vous pouvez voir la FSD négocier avec succès un scénario spécifique à plusieurs reprises - souvent sur le même tronçon de route ou à la même intersection - pour la voir échouer de manière inexplicable la fois suivante".

"Avec tous les systèmes de conduite augmentée mains libres, et plus encore avec les véhicules autonomes sans conducteur, la confiance entre la technologie et le public est compacte", a déclaré David Stokols, PDG de la société mère d'AMCI Testing, AMCI Global. "S'approcher de l'infaillibilité, mais ne pas y parvenir, crée un problème de complaisance insidieux et dangereux pour l'opérateur, comme le prouvent les résultats des tests", a-t-il ajouté.


Ce n'est pas la première fois que les tests indépendants révèlent les "erreurs occasionnelles dangereuses" des systèmes ADAS de Tesla. Geoffrey Fowler, un chroniqueur technologique, a également partagé ses inquiétudes après avoir testé la mise à jour du logiciel Autopilot de Tesla, déployée lors du plus grand rappel de l'histoire de l'entreprise. Geoffrey Fowler a constaté que la Tesla Model Y, après la mise à jour, continue de prendre des initiatives risquées, telles que franchir des panneaux d'arrêt sans ralentir. Il souligne : "En testant le système de rappel Autopilot de Tesla, j'ai un sentiment d'insécurité persistant que vous devriez partager "

Plus que la défaillance du système en lui-même, l'approche marketing du constructeur automobile est également susceptible d'inciter les conducteurs à ne pas en tenir compte, ce qui conduit aux multiples désastres sur les routes. Tesla définit son système Autopilot d' "ensemble de fonctionnalités d'assistance conducteur destinées à rendre la conduite plus sûre et sereine et qui ne sont en aucun cas conçues pour rendre le véhicule entièrement autonome ou pour remplacer le conducteur". Pourtant les véhicules Tesla intègrent la possibilité au conducteur de jouer ou de visionner des contenus vidéo pendant que la voiture est en mouvement. Cela renforce la confusion autour du terme Autopilot et est encore plus susceptible d’amener les conducteurs à penser que le véhicule est entièrement autonome.


Source : AMCI

Et vous ?

Pensez-vous que ces tests sont crédibles ou pertinents ?
Quel est votre avis sur le sujet ?

Voir aussi :

Tesla n'offre plus le logiciel Full Self-Driving à la vente, mais plutôt une version dite supervisée, d'après une mise à jour de ses CGU qui cache un aveu de publicité mensongère

Une étude indique que les véhicules autonomes sont plus sûrs, sauf à l'aube, au crépuscule ou dans les virages. Le risque d'accident est cinq fois plus élevé que celui des humains en cas de faible luminosité

General Motors envisagerait de mettre fin au développement de son nouveau système de conduite autonome Ultra Cruise. Ce dernier était censé rivaliser avec le logiciel Full Self-Driving de Tesla

Voiture autonome : une étude montre que les systèmes semi-autonomes n'améliorent pas la sécurité routière, bien que certains les considèrent sécuritaires

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de OuftiBoy
Membre éclairé https://www.developpez.com
Le 27/09/2024 à 15:45


Citation Envoyé par Jade Emy Voir le message
Le Full Self-Driving de Tesla commet des "erreurs occasionnelles dangereuses" : lors d'un test sur plus de 1600 kilomètres, les conducteurs ont dû intervenir plus de 75 fois alors que le FSD était actif.

Le système avancé d'aide à la conduite entièrement autonome supervisé (Full Self-Driving supervised) de Tesla a été testé sur plus de 1600 kilomètres par AMCI, un cabinet de recherche automobile indépendant. Au cours du processus d'examen, les conducteurs ont dû intervenir plus de 75 fois. Le système Full Self-Driving (FSD) supervisé peut fonctionner parfaitement des dizaines de fois dans le même scénario, jusqu'à ce qu'il se dérègle de manière inattendue et nécessite l'intervention du conducteur.
1600 / 75 = 21,333... Il me semble que celà remet en cause une "idée reçue" qu'on ne pouvait pas contredire sous peine d'excommunication , comme quoi il y aura moins d'accidents fait par les "voitures autonomes" que celles conduite par un humain.

Citation Envoyé par Jade Emy Voir le message
Tesla et son PDG au franc-parler, Elon Musk
A ce niveau là, on ne peut pas dire que c'est du franc-parler. C'est plutôt de mensonge éhonté qu'il faudrait parler.

Citation Envoyé par Jade Emy Voir le message
promettent depuis longtemps des voitures autonomes, mais nous n'en sommes pas encore là. Bien que les deux systèmes avancés d'aide à la conduite (ADAS) disponibles s'appellent Autopilot et Full Self-Driving (Supervised), ils ne sont toujours pas classés comme des systèmes de niveau 3 sur le tableau des niveaux d'autonomie de conduite de la SAE, ce qui signifie que le conducteur doit toujours être attentif et prêt à reprendre le contrôle à tout moment.
Pour être plus précis, AUCUNE avançée significative n'a été faite par Tesla, depuis longtemps (Pratiquement 10 ans). Ah si, on peut jouer à des jeux vidéo dans une Tesla maintenant. Waouw, ça c'est de bombe.

Citation Envoyé par Jade Emy Voir le message
Si le FSD peut fonctionner parfaitement dans la majorité des situations, ce rapport montre qu'il peut parfois "manquer sa cible", et ce sont ces erreurs occasionnelles qui peuvent devenir dangereuses. C'est ce qu'a également conclu AMCI Testing, un cabinet de recherche indépendant, après avoir récemment testé le FSD de Tesla sur plus de 1 600 kilomètres de rues urbaines, de routes rurales à deux voies, de routes de montagne et d'autoroutes. L'entreprise a utilisé une Tesla Model 3 Performance 2024 équipée du matériel le plus récent du constructeur automobile et exécutant les dernières itérations logicielles, 12.5.1 et 12.5.3.
Heu, je ne veux pas remettre en doute le paragraphe ci-dessus écrit par Jade Emy, mais quant même, il faut dire les choses clairement :

  • Si le FSD peut fonctionner parfaitement dans la majorité des situations, c'est tout simplement le contraire: Le FSD ne fonctionne "parfaitement" que dans une minorité de situations. C'est à dire sur autoroute avec des belles lignes bien blanches, je mets le "parfaitement" entre des guillemets, car il faut retirer l'entrée et la sortie de ces autoroutes.
  • ce rapport montre qu'il peut parfois (tout les 21km et parfois ne vont pas très bien ensemble), "manquer sa cible" se planter royalement, et ce sont ces erreurs occasionnelles (encore une fois, tous les 21km, je ne vois pas très bien le lien avec le mot "occasionnelles"), qui peuvent devenir dangereuses mortels.


Citation Envoyé par Jade Emy Voir le message
Au cours des essais, les conducteurs d'AMCI ont dû intervenir plus de 75 fois alors que le FSD était actif, soit en moyenne une fois tous les 21 kilomètres. Dans un cas, la Tesla Model 3 a grillé un feu rouge en ville pendant la nuit alors que les caméras avaient clairement détecté les feux. Dans une autre situation où la fonction FSD (Supervised) était activée sur une route rurale sinueuse, la voiture a franchi une double ligne jaune et s'est retrouvée dans le trafic venant en sens inverse, obligeant le conducteur à reprendre la main. Une autre mésaventure notable s'est produite en ville lorsque le véhicule électrique s'est arrêté alors que le feu était vert et que les voitures qui le précédaient accéléraient.
Oh, que ça, de petits incidents sans importance donc. Des broutilles quoi. Rien de bien méchant.

Citation Envoyé par Jade Emy Voir le message
Voici comment Guy Mangiamele, directeur des essais de l'AMCI, résume la situation : "Ce qui est le plus déconcertant et le plus imprévisible, c'est que vous pouvez voir la FSD négocier avec succès un scénario spécifique à plusieurs reprises - souvent sur le même tronçon de route ou à la même intersection - pour la voir échouer de manière inexplicable la fois suivante".
C'est le plus inquiètant, car cela veut dire que pour une même situation, on a un résultat différent.
Comment expliquer ce phènomène ?
Est-il possible de savoir Pourquoi ce phénomène ?

Parce que si je freine avec une voiture normale, elle freine.

Citation Envoyé par Jade Emy Voir le message
"Avec tous les systèmes de conduite augmentée mains libres, et plus encore avec les véhicules autonomes sans conducteur, la confiance entre la technologie et le public est compacte", a déclaré David Stokols, PDG de la société mère d'AMCI Testing, AMCI Global. "S'approcher de l'infaillibilité, mais ne pas y parvenir, crée un problème de complaisance insidieux et dangereux pour l'opérateur, comme le prouvent les résultats des tests", a-t-il ajouté.
Quant je lis: S'approcher de l'infaillibilité, j'ai mal au yeux. On parle ici d'une bagnole autonome de niveau 2 (à peine), on est très loin de l'infaillibilité. C'est une tournure de phrase faite pour minimiser les problèmes.

Citation Envoyé par Jade Emy Voir le message
Ce n'est pas la première fois que les tests indépendants révèlent les "erreurs occasionnelles dangereuses" des systèmes ADAS de Tesla.
Pourrait on de temps en temps, parler franchement et dire la simple vérité ? Parce que ces "erreurs occasionnelles dangereuses" se produisent tout les 21km. C'est la 3ème fois dans le même article qu'on est dans le mensonge pure et simple. Ah, ce stade, ce n'est plus une erreur, c'est une volonté de faire passer des vessives pour des lanternes...

Moi ? Je n'ai pas envie d'en lire plus, il y a déjà bien assez d'âneries et de contradictions dans ce que j'ai lu jusqu'ici. Et je m'excuse d'avance, mon intention n'est pas de blâmer Jade Emy. Je fais des erreurs, nous faisons tous des erreurs, mais là, j'ai comme l'impression que l'article est une simple recopie (ou retransmission), faite sans recul, et sans réelle analyse de l'article en question.

Je comprend bien qu'il faut alimenter le site, et je suis content généralement de la manière dont les choses se passent, mais pas avec ce genre d'article.

BàV et Peace & Love.
0  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 27/09/2024 à 16:01
Citation Envoyé par OuftiBoy Voir le message
C'est le plus inquiètant, car cela veut dire que pour une même situation, on a un résultat différent.
Comment expliquer ce phènomène ?
Est-il possible de savoir Pourquoi ce phénomène ?
On m'explique que l'IA est avant tout un réponse statistique à un ensemble de paramètres.
Mais si le modèle suggère qu'une attitude est adéquate 90% des cas et une autre dans 10%, n'est il pas possible qu'il fasse presque toujours ce qui est naturel mais qu'il diverge une fois sur 10.
Une autre explication est qu'un paramètre qui nous semble négligeable vienne mettre son grain de sel et mettent le bazar.
Dans les deux cas ce n'est pas acceptable.

C'est marrant qu'à des formations sur l'IA on nous explique que les IA ont longtemps pris les chats dans de la neige pour des loups à cause de la neige.
Mais qu'un système qui prend des décisions vitale puisse faire le même genre d'erreur et qu'en plus on arrive pas à trouver la raison de celles ci.

Le pire est qu'on parle d'un environnement plutôt maitrisé, imaginez le jour où elles arrivent en Europe et que les feus ne sont plus après mais avant les carrefours...
On reprends tout depuis 0.
0  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 28/09/2024 à 1:02
Euh ... Je ne voudrais pas être mauvaise langue (excessivement), mais à l'examen du permis de conduire, l'intervention du moniteur d'auto-école est éliminatoire.
Et il n'y a pas besoin pour ça qu'il intervienne 75 fois.
Donc, le pilote automatique de la Tesla n'a pas le permis, c'est embêtant pour lui confier la conduite.

Et une certaine stabilité dans les réactions aurait quelque chose d'utile. Si la voiture est systématiquement mise en difficulté par une situation, bon, on pourrait se dire qu'on peut la laisser conduire ailleurs, mais que là, il va falloir ouvrir l'œil, et même mieux que ça prendre le volant.
Mais, l'utilisateur n'a pas cette chance. La voiture commence par le mettre en confiance une dizaine de fois environ, et c'est seulement une fois qu'il commence à se dire que ça marche et qu'il regarde là-bas au loin comme cette colline est belle (je pourrais mettre un autre cliché mais j'ai voulu changer), que la voiture se met à faire des bêtises.

Le plus ennuyeux, c'est qu'il y a effectivement eu des utilisateurs qui se sont mis à avoir confiance, et que ça a coûté la vie à quelques centaines de personnes.

Qu'est-ce que c'est bien, de pouvoir regarder une vidéo pendant que la voiture est en train de jouer aux auto-tamponneuses avec ce que le trafic routier lui offre comme occasions de s'amuser.

Il paraît qu'il y a eu des routes de montagne, aussi. On parie que les testeurs ont été attentifs là-dessus, et que peut-être occasionnellement leur a perlé une petite goutte de sueur sur le front ?

Nous vivons une époque moderne. Nous avons à notre disposition des voitures automatiques dont la fiabilité est telle qu'elle tue des usagers de la route, des candidats aux élections présidentielles qui annoncent toutes les garanties de compétence en matière de gestion, et puis qui une fois élus font des dépenses qu'un parent responsable ne laisserait pas son petit gamin faire, et qui plantent l'économie du pays. Nous avons aussi des politiques qui trouvent que des bêtes sauvages qui s'attaquent aux habitants ça nous manquait.
On pourrait se dire qu'on va aussi se trouver en présence d'une méga-météorite qui va nous rejouer le coup des dinosaures, ah non là coup de bol on l'a pulvérisée. On n'est pas encore trop tranquille au sujet des morceaux qui arrivent, cela étant, mais ils sont quand même plus petits que ce qui était prévu.

Non mais visez un peu l'itinéraire biscornu qu'il a fallu que j'échafaude pour trouver une conclusion positive.
0  0