IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une nouvelle vidéo montre une Tesla en pilotage automatique percutant une voiture de police après avoir alerté le conducteur
150 fois

Le , par Nancy Rey

11PARTAGES

5  0 
Un nouveau rapport montre les images de la caméra de surveillance de Tesla d'un accident violent où le véhicule percute une voiture de police arrêtée alors que l'Autopilot est activé. La vidéo montre à quel point l'Autopilot gère mal les véhicules d'urgence arrêtés et comment n'importe quel conducteur en état d'ébriété peut provoquer un tel accident. Les agents blessés sur les lieux accusent et poursuivent Tesla pour cet incident.

La vidéo est l'une des nombreuses obtenues par le Wall Street Journal en lien avec une enquête de la National Highway Traffic Safety Administration (NHTSA). La NHTSA est une agence fédérale américaine des États-Unis chargée de la sécurité routière. Cette enquête dure depuis la mi-2021 et concerne la manière dont Autopilot gère les véhicules d'urgence arrêtés sur la route. À ce jour, il a été impliqué, sans être jugé fautif, dans au moins 16 accidents.


Dans la vidéo principale, une Tesla Model X semble percuter une voiture de police arrêtée sans aucun avertissement. Si l'on creuse un peu plus les détails, les responsabilités deviennent beaucoup plus floues.

Le WSJ a également obtenu des données de la Tesla impliquée dans l'accident, qui montrent de nombreux appels à plus d'attention de la part du conducteur. En fait, au moment où l'accident se produit, le système a alerté le conducteur pour qu'il soit plus attentif pas moins de 150 fois sur une période d'environ 45 minutes. Néanmoins, le système n'a pas reconnu un manque d'engagement au point de couper l'Autopilot.

Au bout de 45 minutes, la Tesla percute une voiture de police arrêtée sur la voie de droite. Les données du système Autopilot montrent qu'il a reconnu la voiture arrêtée 37 mètres ou 2,5 secondes avant l'accident. Le système Autopilot ralentit également la voiture avant de la désengager complètement. Le film montre clairement que tout conducteur vigilant aurait reconnu la situation et changé de voie.

Les policiers blessés dans l'accident poursuivent Tesla, et non le conducteur prétendument en état d'ébriété, à la suite de l'accident. Tesla affirme que la faute incombe au conducteur. Dans au moins un autre cas, c'est exactement ce qu'un tribunal a conclu. L'Autopilot semble avoir fonctionné exactement comme prévu et un conducteur en état d'ébriété n'a pas fait son travail derrière le volant ici.

Et la réalité est que n'importe quel véhicule avec un régulateur de vitesse et un conducteur en état d'ébriété au volant aurait probablement percuté la voiture de police à une vitesse plus élevée. L'Autopilot est peut-être décrié pour son nom, mais les conducteurs sont en fin de compte responsables de la manière dont ils choisissent de piloter n'importe quelle voiture, y compris une Tesla.

Source : Le Wall Street Journal

Er vous ?

Pensez-vous que les noms Autopilot et FSD induisent les conducteurs en erreur ? Doivent-ils, à votre avis, être changés ?

Quelle lecture en faites-vous ? Des implications potentielles pour Tesla ?

Voir aussi :

Tesla confronté à une nouvelle enquête de la NHTSA sur son système d'intelligence artificielle "Autopilot", après la mort de trois personnes dans un accident impliquant un model S

La Tesla Model S qui a provoqué un carambolage à San Francisco était en mode Full Self-Driving selon les données publiées par le gouvernement fédéral

Un ingénieur d'Apple mort dans l'accident de son véhicule Tesla s'était déjà plaint du logiciel Autopilot, et de ses dysfonctionnements, après l'application d'une mise à jour

Le logiciel « full-self-driving » de Tesla aurait provoqué un accident impliquant huit voitures, le conducteur a déclaré à la police que « le logiciel de conduite autonome avait mal fonctionné »

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de totozor
Membre émérite https://www.developpez.com
Le 25/08/2023 à 8:19
Bis repetita

Je ne suis même plus étonné, et presque plus révolté de lire ça.
Supprimons les traces pour que ça n'existe plus.
La méthode est redoutable et paye à long terme.
7  0 
Avatar de PomFritz
Membre confirmé https://www.developpez.com
Le 27/08/2023 à 12:15
Citation Envoyé par Bruno Voir le message
Malgré la prétention de Musk que les Model S et les Model X étaient plus sûres que les humains en mode autonome, aucune Tesla n’avait cette capacité. Il a donc été poursuivi en justice. Un juge californien a demandé à interroger Musk sous serment afin de déterminer s'il a fait des déclarations spécifiques sur l'Autopilot de Tesla, mais pour éviter que d'éventuelles frasques du milliardaire ne se retrouvent sur la place publique, ses avocats ont déclaré que la vidéo en question pourrait n'être qu'un deepfake. Une affirmation que le juge a qualifiée de troublante.

Les avocats de Tesla ont déclaré que Musk ne pouvait pas se souvenir des détails de ses affirmations. Selon eux, comme beaucoup de personnalités publiques, il fait l'objet de plusieurs vidéos et enregistrements audio deepfakes qui prétendent le montrer en train de dire et de faire des choses qu'il n'a jamais dites ou faites en réalité. Toutefois, un juge de l'État de Californien a réfuté cet argument et a finalement rendu une ordonnance provisoire exigeant que le PDG de Tesla se présente au tribunal en vue d'une déposition sous serment.
Fallait oser. Musk l'a fait. Ils se foutent quand même de la gueule du monde! Exactement comme dans la série The Capture...
2  0 
Avatar de sevyc64
Modérateur https://www.developpez.com
Le 14/08/2023 à 15:08
Citation Envoyé par Nancy Rey Voir le message
Pensez-vous que les noms Autopilot et FSD induisent les conducteurs en erreur ? Doivent-ils, à votre avis, être changés ?
Peut-être, mais je ne pense pas que ce soit juste un problème de nom. Je pense même que ce problème de nom est plutôt un épiphénomène.

Le problème est plutôt que sous prétexte d'automatisme, les conducteurs se désengagent totalement de la conduite alors qu'ils ne maitrisent pas du tout l'outil.
Il y a eu, de la même façon, il y a quelques années les affaires de régulateurs soit-disant bloqués. En réalité, ça toujours été des conducteurs qui n'ont pas su gérer cet outil dans une situation particulière.
La situation typique concernant les régulateurs est, dans une situation de relative urgence, on désengage le régulateur et on appuie sur le frein en même temps. Hors de freiner désengage automatiquement le régulateur. Pour peu que le désengagement automatique se produise un 1/4 seconde avant le désengagement manuel, celui-ci devient en réalité un réengagement avec derrière, potentiellement, panique du conducteur et accusation de blocage.

Citation Envoyé par Nancy Rey Voir le message
Quelle lecture en faites-vous ? Des implications potentielles pour Tesla ?
Pour moi, oui.
150 alertes en 45 minutes, l'autopilote aurait du réagir bien avant et stopper le véhicule !

Concernant l'autopilote, peut-être faudrait-il, comme sur les trains, une fonction Homme-mort.
Sur les trains, le conducteur, même en pilotage automatique, doit actionner un levier toutes les 180 secondes (si je me trompe pas dans le chiffre) au maximum. A la 181ème seconde sans action, le train déclenche automatiquement le freinage d'urgence et l'immobilisation de la trame sur la voie.
1  0 
Avatar de cyberkeak
Candidat au Club https://www.developpez.com
Le 15/08/2023 à 9:57
Je me suis poser la question de : si j'ai un malaise en conduisant la model 3 comment va réagir le véhicule ?
Souvent j'ai constaté que juste avant une situation dangereuse , le régulateur et maintient dans la voie se desengagent 1s avant . Je trouve que c'est une faute de Tesla. Dans le sens que même si le conducteur dort au volant , le véhicule devrait mettre les feux de détresse et ralentir le véhicule. Dans l'exemple de l'article. Le freinage d'urgence aurait dû fonctionner. Bien le conducteur a sa part de faute, Tesla aussi fautif car la désactivation de l'auto-pilote est mal fait. Normalement il y a le freinage d'urgence et d'autres systèmes d'évitement d'obstacle tout le temps actif?
Je rappelle aussi que 150 demande de vigilance c'est normal, il n'y a pas de de volant capacitif pour détecter si le conducteur tiens le volant , donc le système demande régulièrement de manifester sa présence en bougeant légèrement le volant .
0  0