IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Les véhicules Tesla ont continué d'avoir des accidents même après les mises à jour du logiciel Autopilot, d'après la NHTSA.
Elon Musk a donc décidé de virer les ingénieurs concernés pour arranger les choses

Le , par Mathis Lucas

11PARTAGES

4  1 
Les défaillances du système d'aide à la conduite Autopilot de Tesla persistent et entraînent de nouveaux cas d'accidents. La NHTSA (National Highway Traffic Safety Administration) des États-Unis rapporte qu'au moins 20 cas d'accidents impliquant l'Autopilot ont été signalés après les correctifs apportés par Tesla à son logiciel à la suite du rappel de plus de deux millions de véhicules en Amérique du Nord. Les régulateurs fédéraux ont intensifié leur enquête sur l'Autopilot et ont demandé plus d'informations sur la sécurité du système. Entre-temps, le PDG de Tesla, Elon Musk, aurait congédié certains des ingénieurs concernés pour arranger les choses.

Tesla a rappelé en décembre plus de deux millions de véhicules équipés de son système d'aide à la conduite Autopilot. Ce rappel faisait suite à une enquête de la NHTSA sur des dizaines de cas d'accidents impliquant l'Autopilot, dont plusieurs ont été mortels. Le rappel visait à corriger un système défectueux censé s'assurer que les conducteurs de Tesla sont attentifs lorsqu'ils utilisent l'Autopilot. La NHTSA avait constaté que le nom "Autopilot" pouvait amener les conducteurs à croire faussement que l'automatisation a des capacités plus importantes. Tesla avait rejeté ces conclusions, mais avait accepté d'apporter des correctifs.

Cependant, les autorités américaines ont annoncé fin avril avoir ouvert une nouvelle enquête sur l'Autopilot. L'enquête vise à déterminer si l'entreprise a apporté des correctifs adéquats aux défaillances techniques de l'Autopilot qui ont entraîné le rappel. Dans une lettre datée du lundi 6 mai 2024, la NHTSA a fait part de plusieurs préoccupations concernant la solution proposée par Tesla. L'agence a déclaré qu'une analyse préliminaire a identifié au moins 20 accidents dans des véhicules Tesla équipés de la version mise à jour de l'Autopilot. Les nouveaux cas d'accidents semblent similaires à ceux qui ont entraîné le rappel.


Parmi ces accidents, neuf auraient impliqué des Teslas qui ont percuté d'autres véhicules ou personnes sur leur trajectoire - des accidents de type "frontal plane", dans le jargon de l'agence. Ces accidents semblent indiquer que le système de vision de Tesla, basé sur des caméras, ne permet pas de détecter correctement certains objets devant le véhicule lorsque le système Autopilot est activé. La NHTSA a demandé diverses informations sur la manière dont Tesla a mis au point les correctifs, notamment des données qui lui permettront de comparer les performances des véhicules dans ce type d'accidents avant et après le rappel.

L'agence demande également à Tesla de déterminer combien de fois ses véhicules ont donné aux conducteurs un avertissement "mains sur le volant" - une notification donnée aux conducteurs qui retirent leurs mains du volant alors que la fonction Autopilot est activée (les utilisateurs d'Autopilot sont tenus d'être prêts à prendre le contrôle "à tout moment", selon Tesla). Parmi les autres détails demandés par la NHTSA figurent des explications sur la politique de suspension d'une semaine de Tesla en cas d'utilisation abusive de l'Autopilot et des données sur les différentes façons dont le logiciel peut être activé par les conducteurs.

La NHTSA cherche également à savoir si Tesla a utilisé la science des facteurs humains dans sa conception, et notamment le nombre d'employés qu'il a consacrés à cette conception. L'agence demande également à Tesla de fournir des informations sur la manière dont il recueille les données télémétriques en réponse aux accidents qui se produisent lorsque le véhicule est équipé du système Autopilot ou de la fonction de conduite autonome Full Self-Driving (FSD). La NHTSA souhaite également obtenir davantage de détails sur la manière dont l'entreprise utilise sa caméra embarquée pour surveiller l'attention du conducteur.

La NHTSA conclut sa lettre en soulignant que si Tesla ne répond pas aux demandes qu'elle a formulées, il pourrait se voir infliger une amende journalière de 27 168 dollars par infraction, ce qui pourrait représenter une amende maximale de 135 millions de dollars, selon la loi américaine. L'entreprise a jusqu'au 1er juillet 2024 pour répondre. Les correctifs du rappel devaient également permettre de déterminer si l'Autopilot devait être autorisé à fonctionner sur des routes autres que les autoroutes à accès limité. (La solution consistait à multiplier les avertissements au conducteur sur les routes comportant des intersections.)

Cependant, les préoccupations liées à l'Autopilot ne cessent de se multiplier et Tesla peine à proposer des correctifs adéquats. Mais le PDG Elon Musk aurait supprimé certains postes au sein des équipes chargées du développement et de la sécurité de l'Autopilot. De nouveaux rapports indiquent que l'entreprise a licencié de nouveaux employés ce week-end. Le nombre de personnes qui ont perdu leur emploi lors de cette dernière vague de licenciements n'est pas connu, mais selon les rapports et certains travailleurs concernés, les coupes ont été réalisées dans les équipes des logiciels, des services et de l'ingénierie.


Pour rappel, dans sa lettre, la NHTSA demande à Tesla d'identifier chaque poste impliqué dans l'évaluation du comportement humain et les qualifications des travailleurs. Et elle demande à Tesla de dire si les postes existent toujours. Phil Koopman, professeur à l'université Carnegie Mellon qui étudie la sécurité de la conduite automatisée, pense que la lettre montre que le rappel n'a pas permis de résoudre les problèmes critiques l'Autopilot. « Il est assez clair pour tous ceux qui regardent que Tesla a essayé de faire le moins de correctifs possible pour voir ce qu'ils pouvaient faire », a déclaré Koopman à propos de la mise à jour.

« La NHTSA doit réagir avec force, sinon d'autres constructeurs automobiles commenceront à proposer des solutions inadéquates », a-t-il ajouté. Selon Missy Cummings, professeur d'ingénierie et d'informatique à l'Université George Mason qui étudie les véhicules automatisés, la NHTSA répond aux critiques des législateurs à propos d'un manque perçu d'action sur les véhicules automatisés. Elle a déclaré qu'elle soupçonne Musk d'avoir licencié toute personne ayant des connaissances en matière de comportement humain, une compétence clé nécessaire pour déployer des systèmes partiellement automatisés tels que l'Autopilot.

Ces systèmes ne peuvent pas se conduire eux-mêmes et nécessitent que des humains soient prêts à intervenir à tout moment. Cummings affirme : « si vous avez une technologie qui dépend de l'interaction humaine, vous avez intérêt à avoir quelqu'un dans votre équipe qui sait ce qu'il fait dans ce domaine ». Cummings affirme que ses recherches ont montré qu'une fois qu'un système de conduite prend le relais de l'homme, le cerveau humain n'a plus grand-chose à faire. De nombreux conducteurs ont tendance à trop se fier au système et à s'en désintéresser.

« Vous pouvez avoir la tête fixée dans une position, vous pouvez potentiellement avoir les yeux sur la route, et vous pouvez être à des millions de kilomètres dans votre tête. Toutes les technologies de surveillance du conducteur au monde ne vous forceront pas à être attentif », a-t-elle déclaré. Selon les experts en sécurité, la NHTSA pourrait demander d'autres mesures correctives pour les rappels, obliger Tesla à limiter les endroits où l'Autopilot peut fonctionner, ou même forcer l'entreprise à désactiver le système jusqu'à ce qu'il soit réparé.

Source : la lettre de la NHTSA

Et vous ?

Quel est votre avis sur le sujet ?
Quelles conclusions pourraient être tirées des informations demandées par la NHTSA à Tesla au sujet de l'Autopilot ?
Les régulateurs américains doivent-ils interdire l'Autopilot et l'autoriser à nouveau une fois que Tesla rendra le logiciel plus sûr ?
Que pensez-vous de la rumeur selon laquelle Elon Musk aurait viré certains des ingénieurs qui travaillaient sur l'Autopilot ?

Voir aussi

Tesla licencie de nouveaux employés alors que l'hécatombe entre dans sa quatrième semaine, des employés des équipes des logiciels, des services et de l'ingénierie disent avoir été licenciés

Tesla licencie plus de 10 % de ses effectifs, soit au moins 14 000 postes, et perd des cadres supérieurs. Elon Musk est rendu en partie responsable de la situation par ses prises de parole sur Twitter/X

Elon Musk licencie de nouveaux cadres de Tesla et la totalité de l'équipe de 500 personnes qui travaillait sur les superchargeurs, ce qui pourrait avoir des retombées sur la recharge des véhicules Tesla

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 28/05/2024 à 10:36
Il y a quand même en sacré paquet de loupé dans cet accident inadminissble même pour du FSD en béta test :
- Le dépassement de la vitesse limite autorisée en étant à 60 mph (96 kmh!) au lieu de 55
- Aller à 100kmh en plein brouillard! surtout sur une route a double sens, pas si large que ça et avec un passage à niveau en approche...
- ne pas identifier le train avec le brouillard, ok, pourquoi pas, par contre les signaux lumineux standardisés dans le pays?

Le plus choquant pour moi est que par simple corrélation avec la carte, la tesla devrait déjà savoir qu'elle va croiser une voie ferrée, c'est une raison suffisante pour ralentir, d'autant plus avec des conditions météos pourries...

Si le FSD passait son permit en France, le Moniteur aurait pilé longtemps avant l'accident.
5  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 30/05/2024 à 8:14
Citation Envoyé par calvaire Voir le message
un simple petit autocollant sur un stop peut fausser les algos de reconnaissance d'image, le fsd serait bien incapable de voir un elephant dans un couloirs si cette elephant n'est pas similaire a ceux de son dataset
Je suis bien d'accord mais le FSD peut il être pertinent s'il ignore ce qu'il ne reconnait pas?
Je ne croit pas, si le vaisseau des Mondo-Shawan (les gros être métallique qui voyagent dans des chrysalides géantes dans le cinquième élément) atterrissait devant ma voiture je m'arrêterais ou j'essayerais d'éviter l'obstacle. Ca tombe sous le sens.
Pourtant le FSD semble ignorer tout obstacle physique qu'il ne reconnait pas, ce qui me semble effarant et très dangereux (cette fois pour le chauffeur mais potentiellement pour d'autres, je penses aux tallbikes, monocycles et autres véhicules atypiques.
Si quelqu'un qui n'a jamais vu d'éléphant en voit un dans un couloir, il va devenir plus prudent face à l'inconnu imposant. Le FSD, lui, l'ignore va s'en rapprocher rapidement. Ca donne peu de durée de vie dans la théorie Darwiniste.
2  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 28/05/2024 à 11:20
c'est de toute façon les limites des réseaux de neurones, le résultat n'est pas garantie.
Une liste de 50 conditions if c'est moche/dur à lire mais c'est du code solide écrit en dur et reproductible.

Un réseau de neurone, le comportement est non prédictible, même bien entrainer sur un cas "simple", le taux d'erreur et de 1% au mieux par exemple.
la reconnaissance d'image et les classifier de ce que j'ai utilisé en python avec la lib Scikit-learn, j'ai toujours pour les projets d'entreprises eux des taux positif au mieux de 90% pour de la reconnaissance d'image et c'est des cas bien plus simple que la conduite autonome qui doit reconnaitre des milliers d’objets sur la route dont le train.

pour peu qu'on utilise les llm avec chatgpt par exemple on voit vite les problèmes, il m'invente des API qui n'existe pas, parfois même m'invente une syntaxe qui n'existe pas...

Et le gros problème c'est que ces algos ne peuvent pas savoir qu'ils ne savent pas pour laisser la main a l'humain, c'est tres difficile de programmer ces algos pour qu'en cas de doute de laisser l'humain reprendre le contrôle. Un simple pixel sur un panneaux peut faire comprendre l'inverse du panneau.
1  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 29/05/2024 à 15:51
Citation Envoyé par calvaire Voir le message
Et le gros problème c'est que ces algos ne peuvent pas savoir qu'ils ne savent pas pour laisser la main a l'humain
Je suis d'accord mais on parle d'un train, donc un ensemble de pixels qui prennent 1/3 du capteur et qui se déplacent tous dans la même direction et à la même vitesse ce qui devrait au moins suggérer qu'il y a quelque chose devant.
Quand tout l'écran bouge c'est soit que tu bouges très fort soit qu'il y a un gros truc devant, dans les deux cas, tu dois déclencher les mesures d'urgences (Mais lesquelles? C'est une autre question)
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 31/05/2024 à 10:27
Citation Envoyé par calvaire Voir le message
et meme avec le lidar, il faut comprendre que l'obstacle (le train) avance et la voiture aussi et calculer que oui il y'a collision si les 2 vecteurs continue d'avancer au même rythme dans 30 secondes...
Dans ce cas, que le train avance ou pas n'a aucune importance, puisqu'il peut-être considéré comme un obstacle fixe. Seul le fait que l'obstacle soit sur le chemin que la voiture emprunte est important. Et il est quand même incroyable que le FSD ne "voit" pas l'obstacle ! Qu'importe s'il le reconnait comme un train, ou le prend pour un mur, une maison ou un troupeau d'éléphants.
1  0 
Avatar de Pierre Louis Chevalier
Expert éminent sénior https://www.developpez.com
Le 31/05/2024 à 14:16
Aux USA le seul robot taxi qui arrive à s'en sortir, c'est Waymo, qui est en exploitation dans plusieurs villes aux USA, et Waymo utilise un Lidar, de même que les robots Taxi qui sont déjà utilisés en exploitation en Chine.

Le FSD "surpuissant" promis par Elon Musk et ça sans Lidar on voie bien que c'est du flan, trop risqué, pas assez fiable.

Yes, Elon. Radar is necessary for full self-driving (FSD)
1  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 31/05/2024 à 16:05
Citation Envoyé par calvaire Voir le message
vu que tesla n'a pas de lidar non le fsd n'a peut etre pas vu que c'était un obstacle.
C'est pour ça que je suis contre l'abandon de cette technologie ou d'une autre qui permet de percevoir les surfaces/volumes.
et meme avec le lidar, il faut comprendre que l'obstacle (le train) avance et la voiture aussi et calculer que oui il y'a collision si les 2 vecteurs continue d'avancer au même rythme dans 30 secondes...
Pour un LIDAR il est facile d'identifier si l'objet bouge (dans quelle direction et à quelle vitesse) parce que l'effet Doppler entraine une variation de la fréquence du signal de retour.
Donc en 1s d'analyse on doit être capable d'évaluer si l'obstacle bouge, s'il bouge de façon chaotique ou non, et d'évaluer une surface à laquelle il va se trouver dans, 1s, 10s, 30s etc. (avec une incertitude qui augmente progressivement)
J'espère qu'une Tesla est capable d'évaluer sa trajectoire nominale dans les 2 prochaine minutes (elle a une route, un GPS pour l'aider).
Ce qui donne pas mal d'information sur la probabilité d'impact, sur la gravité de l'impact et sur quelques choix pour empêcher/minimiser cette probabilité et/ou gravité.

Je peux faire un paquet d'hypothèse pour identifier un obstacle sans LIDAR mais pourquoi le faire si un LIDAR le fera toujours mieux et plus vite que tout ce que je vais suggérer via une caméra.
Exemple : Une route ne s'interrompt que dans les cas suivants :
Je suis en haut d'une colline (elle ne s'interrompt pas, je ne vois juste pas la suite)
Je suis dans un virage (elle ne s'interrompt pas, la suite est hors du champs de la caméra)
Il y a un carrefour en T (elle croise une autre route, il y a des indications au sol ou un panneau)
Il y a un truc au milieu de la route (la perspective change soudainement, ou je ne suis dans aucun cas précédents), et par truc j'entends aussi un trou parce que je dois autant l'éviter qu'un camion couché ou qu'un train.

Tout ce que je dit est bien sur caricatural, ce n'est pas un hasard si peu y arrivent.
Mais, face à un enjeu majeure (ce qu'est le FSD pour Tesla), une preuve d'intelligence consiste à faciliter la collecte des données (avec un lidar/sonar par exemple) plus tot que se baser sur un système moins fiable (une caméra).
1  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 29/05/2024 à 16:01
Citation Envoyé par totozor Voir le message
Je suis d'accord mais on parle d'un train, donc un ensemble de pixels qui prennent 1/3 du capteur et qui se déplacent tous dans la même direction et à la même vitesse ce qui devrait au moins suggérer qu'il y a quelque chose devant.
Quand tout l'écran bouge c'est soit que tu bouges très fort soit qu'il y a un gros truc devant, dans les deux cas, tu dois déclencher les mesures d'urgences (Mais lesquelles? C'est une autre question)
un simple petit autocollant sur un stop peut fausser les algos de reconnaissance d'image, le fsd serait bien incapable de voir un elephant dans un couloirs si cette elephant n'est pas similaire a ceux de son dataset
0  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 30/05/2024 à 8:51
Citation Envoyé par totozor Voir le message
Je suis bien d'accord mais le FSD peut il être pertinent s'il ignore ce qu'il ne reconnait pas?
Je ne croit pas, si le vaisseau des Mondo-Shawan (les gros être métallique qui voyagent dans des chrysalides géantes dans le cinquième élément) atterrissait devant ma voiture je m'arrêterais ou j'essayerais d'éviter l'obstacle. Ca tombe sous le sens.
Pourtant le FSD semble ignorer tout obstacle physique qu'il ne reconnait pas, ce qui me semble effarant et très dangereux (cette fois pour le chauffeur mais potentiellement pour d'autres, je penses aux tallbikes, monocycles et autres véhicules atypiques.
Si quelqu'un qui n'a jamais vu d'éléphant en voit un dans un couloir, il va devenir plus prudent face à l'inconnu imposant. Le FSD, lui, l'ignore va s'en rapprocher rapidement. Ca donne peu de durée de vie dans la théorie Darwiniste.
si tu es novice, je t'invite a tester des algos de scikit learn, tu verras que parfois ca ne fonctionne pas, sans comprendre pourquoi.
par exemple le randomforest classifier

même avec un cas simple, si tu l'entraine bien avec un dataset propre il n'a pas un taux de réussite de 100%.
et c'est bien plus basique et "debeugable" qu'un énorme réseau neurone comme doit avoir le fsd.

un exemple ici

Accuracy: 0.885
88% des prédictions du modèle sont correctes.

Precision: 0.578
précision mesure le nombre de vrais positifs (57%)

Recall: 0.0873
c'est le nombre de vrais positifs par rapport au nombre total de cas positifs réels
8% ca veut dire que le modèle manque beaucoup de cas positifs. le modèle ne parvient à identifier correctement que 8.73% des cas.

cette exemple soulève un probleme: pour faire des prédictions justes (88%), ton modèle zap pas mal de cas positif (il en détecte que 8%)...
si tu veux détecter plus de cas positifs, ton modèle risque de perdre en Accuracy

Cette exemple montre toute la complexité et que l'ia c'est pas magique et ce le sera jamais.
Les hallucination de chatgpt sont inévitable par exemple, la seul solution de le réduire c'est de réduire ces options de réponses mais dans ce cas on va perdre en qualité du modèle.
Pour le FSD j'imagine un dilemme similaire, le train il a du bien l’identifier ou la identifier avec autre chose.

Les voitures autonomes au jours d'aujourd'hui je pense devrait etre utilisé uniquement sur autoroute (peut être faut t'il faire des certifications d'autoroute d'ailleurs, certifié "ia firendly") et dans les bouchons ou il suffit juste de suivre la voiture en face.
Une autoroute/national/bout de national certifié aurait des normes a respecter: panneaux a une certaine hauteur et à un certain angle pour éviter qu'ils ne soit pas vu par l'ia, comprendrais uniquement des voix d’acceleration/décelleration comme carrefour (donc feu/stop interdit), n'aurait aucun passage a niveau...etc.

la signalisation devrait peut être même être normalisé au niveau mondial (même couleurs, même forme des panneaux et même police d'écriture), quand je vais en allemagne c'est pas la même police d'écriture, les voitures des secours et polices ne sont pas pareil (couleur différente, bruit sonore différent...) ca n'aide pas l'entrainement des ia tous ca, en suisse les autoroute sont des panneaux vert et les autoroute en bleu...etc.
0  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 31/05/2024 à 8:57
Citation Envoyé par calvaire Voir le message
Cette exemple montre toute la complexité et que l'ia c'est pas magique et ce le sera jamais.
Ca je comprends bien, c'est notamment la raison pour laquelle je penses que Tesla a eu tort de n'utiliser que des caméras.
Les hallucination de chatgpt sont inévitable par exemple, la seul solution de le réduire c'est de réduire ces options de réponses mais dans ce cas on va perdre en qualité du modèle.
Pour le FSD j'imagine un dilemme similaire, le train il a du bien l’identifier ou la identifier avec autre chose.
Et c'est là que je veux en venir, et ce que je vais dire est surement naïf mais tout système de conduite autonome devrait hiérarchiser ses informations :
1. Ce que j'observe est il un obstacle? Oui/Non (il faut différencier une voiture/train/vélo de la pluie/nuage bas/glitch visuel)
2. Si oui, Est ce que je vais ou risque d'entrer en collision avec ? Oui/Non (sa trajectoire croise t-elle la mienne? Sa trajectoire est elle suffisamment proche de la mienne?)
3. Si oui, est ce grave? Oui /Non (Il faut différencier une voiture/train/vélo d'une feuille/papier)
Dans aucune de ces questions j'ai besoin d'identifier si c'est un train ou un vaisseau Mondo-Shawan.
Et dans ces questions il y a une chose cool, plus les choses sont dangereuses (lourdes et rapides) plus leur trajectoire est prévisible. Un objet non identifié qui a une trajectoire chaotique est très probablement inoffensif et sans risque.
Après on peut commencer à identifier les voitures pour se méfier des Audi qui ont plus tendance à violer les priorités que les Kia.
la signalisation devrait peut être même être normalisé au niveau mondial (même couleurs, même forme des panneaux et même police d'écriture), quand je vais en allemagne c'est pas la même police d'écriture, les voitures des secours et polices ne sont pas pareil (couleur différente, bruit sonore différent...) ca n'aide pas l'entrainement des ia tous ca, en suisse les autoroute sont des panneaux vert et les autoroute en bleu...etc.
Ce qui est d'office impossible parce que nous ne mesurons pas tous la vitesse de la même façon.
Ceci dit ma voiture reconnait très bien les panneaux de vitesse en France, Belgique et Allemagne alors qu'ils sont tous plus ou moins différents (en Belgique on précise souvent km après la valeur).
Et je penses que la lecture des panneaux n'est pas suffisante, par exemple quand on arrive en France il y a un panneau assez incompréhensible qui donne les règles de vitesse dans le pays, ce qui permet d'économiser les panneaux ensuite.
Il existe plusieurs tronçon en Belgique qui sont renseignés par mon GPS voiture, Google Maps et Waze comme limité à 90km/h alors qu'ils sont limités à 120km/h si on suit le code de la route donc je suppose qu'il existe une base qui renseigne les vitesses limites.
0  0