IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un employé de Tesla qui aimait Elon Musk aurait été tué par un véhicule en mode Full Self-Driving. « On nous a vendu un faux sentiment de sécurité »
A déclaré sa veuve

Le , par Stéphane le calme

2PARTAGES

5  0 
Hans von Ohain, un recruteur chez Tesla et un admirateur du PDG Elon Musk de 33 ans, aurait perdu la vie dans un accident de voiture au Colorado en 2022 impliquant le système de conduite autonome de Tesla, appelé Full Self-Driving (FSD). Selon son ami et passager Erik Rossiter, qui a survécu à la collision, von Ohain avait activé le FSD sur sa Tesla Model 3 lorsqu’il a quitté la route et heurté un arbre, provoquant une explosion et un incendie. Bien que le jeune père de famille ait consommé de l'alcool avant l'accident mortel, les détectives ont élargi leur enquête après qu'il est apparu qu'il ne s'agissait pas d'un cas ordinaire de conduite en état d'ébriété.

« Indépendamment de l'état d'ébriété de Hans, Musk a prétendu que cette voiture pouvait se conduire toute seule et qu'elle était essentiellement meilleure qu'un humain », a déclaré Nora Bass, la veuve de von Ohain. « On nous a donné un faux sentiment de sécurité ».


Un employé de Tesla (et fan « dévoué » de son PDG Elon Musk) nommé Hans von Ohain a été tué après que sa Model 3 se soit écrasée contre un arbre et ait pris feu en 2022. Son ami et passager Erik Rossiter, qui a survécu à la collision, a depuis déclaré au Washington Post que Hans von Ohain avait activé la fonction de Full Self-Driving de la voiture au moment de l'accident mortel.

Si cette hypothèse est confirmée, il pourrait s'agir du premier décès connu lié à cette fonction, une option de 15 000 dollars qui a déjà attiré l'attention des autorités de régulation.

Le quotidien a également confirmé que le véhicule était équipé de cette fonction (von Ohain l'avait reçue gratuitement grâce à sa réduction d'employé) et sa veuve a également déclaré qu'il l'utilisait fréquemment.

L’accident s’est produit près de Denver, dans le Colorado, alors que les deux amis revenaient d’une partie de golf. Rossiter a déclaré au Washington Post que le FSD avait fait plusieurs écarts pendant le trajet aller et que von Ohain avait dû reprendre le contrôle à plusieurs reprises. Ils avaient également consommé de l’alcool pendant la journée, mais Rossiter a affirmé que von Ohain semblait sobre et maître de lui au moment de monter dans la voiture pour le retour.

Une autopsie de von Ohain a révélé qu’il avait un taux d’alcoolémie de 0,26 - plus de trois fois la limite légale. La police de l’État du Colorado a conclu que l’intoxication était le principal facteur à l’origine de l’accident, mais elle a également mené une enquête sur le rôle éventuel du FSD de Tesla. Le sergent Robert Madden, qui a dirigé l’enquête, a observé des traces de pneus en roulement sur le lieu de l’accident, ce qui signifie que le moteur a continué à envoyer de la puissance aux roues au moment de l’impact. Il n’y avait pas non plus de traces de freinage.

Madden a déclaré : « Étant donné la dynamique de l’accident et la façon dont le véhicule a quitté la route sans preuve d’une manœuvre soudaine, cela correspond à la fonctionnalité [d’assistance à la conduite] ». Il a ajouté qu’il n’avait pas accès aux journaux de bord du véhicule, qui auraient pu confirmer ou infirmer l’utilisation du FSD.

La veuve de von Ohain, Nora Bass, veut que Tesla assume sa responsabilité dans la mort de son mari : « Peu importe à quel point Hans était ivre, Musk a affirmé que cette voiture pouvait se conduire elle-même et qu’elle était essentiellement meilleure qu’un humain. On nous a vendu un faux sentiment de sécurité ». Elle n’a pas réussi à trouver un avocat pour prendre l’affaire, car son mari était ivre.


L'entreprise tente de se dédouaner

Malgré le marketing trompeur de l'entreprise, les véhicules Tesla sont encore loin d'être capables de se conduire tout seuls. Sur son site web, l'entreprise avertit les conducteurs qu'ils doivent être « prêts à prendre des mesures immédiates, y compris le freinage » :

Les fonctionnalités Autopilot, Enhanced Autopilot et Full Self-Driving sont destinées à un conducteur attentif, qui a les mains sur le volant et qui est prêt à prendre le contrôle à tout moment. Bien que ces fonctionnalités soient conçues pour devenir plus performantes au fil du temps, votre véhicule n’est pas autonome avec les fonctionnalités actuellement actives[...].

Comme pour toutes les fonctionnalités d'Autopilot, vous devez contrôler votre véhicule, faire attention à son environnement et être prêt à prendre des mesures immédiates, y compris le freinage. Cette fonction est en version bêta et peut ne pas s'arrêter pour tous les contrôles de la circulation. Si le contrôle de la circulation et des panneaux d'arrêt est activé sur les routes de surface lorsque l'Autosteer est actif, votre vitesse sera limitée à la limite indiquée.
Full Self-Driving (FSD) développe le logiciel d'aide à la conduite Autopilot de l'entreprise, et est conçu pour prendre des décisions au nom de l'utilisateur tout en conduisant à la fois sur les autoroutes et dans les rues animées des villes.

Alors que la National Highway Traffic Safety Administration enquête déjà sur Autopilot à la suite d'une série d'accidents dans lesquels des Tesla ont percuté des véhicules d'intervention d'urgence arrêtés avec des sirènes ou des fusées éclairantes, aucun accident mortel n'a été définitivement lié à la FSD - bien que la mort de von Ohain, comme le rapporte Washington Post, semble assurément suspecte.

Selon une analyse du Washington Post de l'année dernière, le nombre d'accidents mortels impliquant le mode Autopilot a bondi. Sur plus de 700 accidents impliquant la fonctionnalité depuis 2019, au moins 17 ont été mortels.

Qui est responsable ?

Néanmoins, même si l'alcool n'était pas en cause, des experts ont souligné que le marketing trompeur de Tesla pouvait donner aux conducteurs un faux sentiment de sécurité au volant.

Malgré les affirmations démesurées de Tesla au sujet de cette technologie, Tesla maintient que sa fonction FSD est encore en "bêta", ce qui signifie qu'elle est toujours en cours de développement.

Sa prise de décision sur la route peut être très suspecte. Dans une vidéo téléchargée la semaine dernière, le propriétaire d'une Tesla a dû neutraliser la fonction après que la voiture a tenté de tourner brusquement à gauche, se dirigeant tout droit vers les véhicules venant en sens inverse. Nous avons également vu des vidéos de Teslas avec la fonction activée ignorant des feux rouges, percutant une voiture de police et se débattant dans la neige.

La mort de Von Ohain soulève d'importantes questions éthiques, notamment en ce qui concerne la culpabilité. Le marketing trompeur de Tesla est-il à blâmer, ou s'agit-il d'un cas d'imprudence de la part d'un conducteur ?

Sa veuve a déclaré au journal que, personnellement, elle trouvait la fonction trop imprévisible et « saccadée ».

L'enjeu est de taille, puisque Musk a déclaré en 2022 que la FSD est « la différence entre une Tesla qui vaut beaucoup d'argent et une Tesla qui n'en vaut pratiquement pas du tout ». Même si le développement de cette fonction bénéficie de tout son soutien, le logiciel est encore loin d'atteindre son objectif déclaré d'autonomie totale.

Musk a promis à plusieurs reprises que Tesla atteindrait le niveau 5 d'autonomie en moins d'un an, un point auquel une voiture est entièrement autonome et n'a pas besoin de volant ou de pédale de frein. Cependant, aujourd'hui, la fonction n'a toujours pas dépassé le niveau 2 d'autonomie, qui exige que le conducteur prenne le contrôle à tout moment.

Le FSD de Tesla qualifié « d'escroquerie flagrante »

Jason Hughes, un hacker bien connu dans le monde Tesla, a qualifié le FSD de Tesla « d'escroquerie flagrante ». Il a accusé la société de prendre l'argent des propriétaires de Tesla en contrepartie d'un logiciel "défectueux" qui est en version bêta depuis sa sortie en 2016. Les clients doivent désormais débourser 15 000 dollars pour utiliser la version bêta FSD, mais le logiciel est loin d'avoir tenu les promesses faites par Tesla et le PDG Elon Musk.

En second lieu, Hughes pense que « le FSD n'est qu'un gadget ». Le hacker a déclaré que, selon son « expérience de l'utilisation sur autoroute, c'est comme apprendre à un adolescent à conduire ». « Vous devez être encore plus concentré et attentif que vous ne le seriez normalement », a-t-il déclaré. Selon lui, cela « finit par être plus épuisant par kilomètre parcouru que de simplement conduire soi-même ». En outre, un autre problème que Hughes n'a toutefois pas mentionné est que le FSD a un modèle de propriété particulièrement bizarre : le logiciel n'appartient pas à la voiture à laquelle il est associé ni aux personnes qui la paient.

Plus précisément, si un acheteur du FSD vend la voiture avec le logiciel, il ne peut pas le garder s'il achète une nouvelle Tesla. Le nouveau propriétaire du véhicule ne l'obtient pas non plus : le logiciel disparaît tout simplement. La seule conclusion logique possible est que seule Tesla est propriétaire du FSD. Tout ce que vous payez pour l'acquérir - un abonnement mensuel ou 15 000 dollars - n'est qu'une licence d'utilisation. « Comment pouvez-vous payer pour une fonctionnalité, et votre voiture arrive en EOL (fin de vie) sans jamais y avoir accès ? C'est insensé ! », a déclaré Hughes. Mais le problème va plus loin encore.


Les experts en véhicules autonomes, les défenseurs de la sécurité routière et d'autres critiques classent l'accès au FSD comme un cauchemar de sécurité et veulent l'empêcher à tout prix. Selon des critiques, ce n'est pas un hasard si les investisseurs de Tesla veulent toujours s'assurer que toutes les références au FSD sont suivies d'un mot qui libère Tesla de toute responsabilité : bêta. Cela signifie que le logiciel n'est pas prêt pour la production : il est encore en phase de test. Ainsi, les experts en sécurité routière affirment que seuls les ingénieurs et les conducteurs formés devraient être autorisés à tester le logiciel pour le moment.

Le coût du Full Self Driving de Tesla a augmenté de 300 % depuis qu'il a été remanié et rendu disponible à l'achat en 2019. Ceux qui ont eu la chance d'acheter le FSD en avril 2019 l'ont obtenu au prix bradé de 5 000 dollars - il coûte désormais 15 000 dollars aux États-Unis. Hughes a déclaré qu'il était ridicule que Tesla ait augmenté "le prix d'un produit que vous ne pouvez même pas obtenir en réalité lorsque vous le payez plusieurs fois". Même si les clients pouvaient payer 15 000 dollars pour le FSD et commencer à l'utiliser immédiatement, Hughes aurait toujours des problèmes avec lui. Il a récemment exposé un certain nombre de ces problèmes.

Sources : Washington Post, Tesla

Et vous ?

Que pensez-vous du FSD de Tesla ? Est-ce une technologie révolutionnaire ou dangereuse ?
Qui devrait être tenu responsable des accidents impliquant le FSD de Tesla ? Le conducteur, Tesla, ou les deux ?
Faites-vous confiance à la conduite autonome ? Seriez-vous prêt à utiliser le FSD de Tesla ou un système similaire ?
Quels sont les avantages et les inconvénients de la conduite autonome pour la société et l’environnement ?
Quelles sont les limites de la conduite autonome ? Comment les réguler et les contrôler ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Axel Mattauch
Membre averti https://www.developpez.com
Le 14/02/2024 à 11:46
Citation Envoyé par grunk Voir le message
Rappel c'est un bien grand mot , il vont juste pousser une màj sur les véhicule comme il le font en permanence.
...et remplacer un ancien bug par un nouveau.
C'est ce que font la plupart des mises à jour.
2  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 14/02/2024 à 12:02
On nous a vendu un faux sentiment de sécurité
aux français aussi, bienvenue au club
1  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 14/03/2024 à 10:54
Citation Envoyé par Stéphane le calme Voir le message
Quelle est votre opinion sur les résultats de l’étude de l’IIHS concernant les systèmes de conduite automatisée partielle ?
on savait déjà que ça coute une blinde, se montre non rentable et que presque personne n'en veut aussi parce que ça ne fonctionne pas et qu'en plus les constructeurs voudraient que l'utilisateur soit responsable des arbitrages techniques et comportementaux des constructeurs. Rien de neuf donc pas de surprise dans les résultats de l’étude.

Citation Envoyé par Stéphane le calme Voir le message
Pensez-vous que la technologie de conduite automatisée est prête pour une utilisation généralisée ou nécessite-t-elle encore des améliorations significatives ?
Drôle de question vu que c'est l'objet du fil que de parler du fait que ça ne fait pas le job, que pour faire le job il faudrait des trucs super couteux et que c'est un casse tête juridique a tel point que bon nombre d'acteurs s'interroge sur l'intéret à s'acharner sur le sujet. Non la techno n'est pas prête et elle est très loin de l'être.
Citation Envoyé par Stéphane le calme Voir le message
Comment les constructeurs automobiles peuvent-ils améliorer la surveillance du conducteur pour garantir une utilisation sûre des systèmes de conduite automatisée ?
Laisser le conducteur conduire pour que son attention soit normale. On ne peut pas faire 99% du job du conducteur et lui demander d'être 100% concentré pour gérer le 1% qui reste. La conduite assisté peut apporter beaucoup par l’apport d'informations et autres assistances au conducteur, sans pour autant conduire à sa place, ce qui n'a pas d’intérêt à part zapper son attention qui est toujours exigée.
Citation Envoyé par Stéphane le calme Voir le message
Quelles mesures devraient être prises pour renforcer la confiance du public dans les technologies de conduite automatisée ?
1) Comprendre que depuis des décennies les pubs sur les voitures parlent de "plaisir de conduire"
2) Comprendre qu'une IA a besoin de valider ses données et a donc besoin de plusieurs sources de données concurrentes ; de simples cameras bon marché seules ne permettront jamais la conduite autonome
3) Comprendre que personne n'a envie de payer une blinde pour un truc qui ne lui apporte rien.
4) Comprendre que seul le constructeur peut être responsable des accidents, sauf a laisser l'utilisateur choisir le comportement de la machine
5) Comprendre que tout le monde a déjà eu un appareil en panne et que au fond de nous on sait tous qu'une voiture qui part dans le décors ça fait mal, personne ne pourra jamais lutter contre ce biais psychologique, surtout après l'épisode Musk qui ment sur les accidents.
6) Faire des systèmes qui aident le conducteur mais ne conduisent pas à sa place.
7) éventuellement faire des systèmes en environnement contrôlé, une file de voiture dédiée aux véhicules compatibles ou chaque véhicule apporte l'information à l'ensemble du convoi et s'accorde à l'ensemble du convoi (c'est le modèle du train, la faculté à rester sur la route en plus, on sait faire)

Citation Envoyé par Stéphane le calme Voir le message
Le classement de Tesla en tant que pire système évalué vous surprend-il ? Pourquoi ou pourquoi pas ?
bien sur que non, faire le choix de ne conserver que des caméras, pour le coût et pour ne pas perturber le beau design du véhicule ne pouvait pas être efficace et ne pouvait tenir que le temps que le mensonge sur les chiffres ne reste secret.

Citation Envoyé par Stéphane le calme Voir le message
Quel rôle les régulateurs et les organismes de sécurité devraient-ils jouer dans l’évaluation et l’approbation des systèmes de conduite automatisée ?
en premier lieu, interdire totalement et sans restriction les essais confiés aux utilisateurs comme le fait Tesla. Sur le modèle de ce qui se fait en aéronautique la validation des équipements et logiciels est rigoureux avant mise en production et n'est pas modifié OTA au bon vouloir d'un doigt carré dans un bureau.
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 14/03/2024 à 14:00
Citation Envoyé par petitours Voir le message
Sur le modèle de ce qui se fait en aéronautique la validation des équipements et logiciels est rigoureux avant mise en production et n'est pas modifié OTA au bon vouloir d'un doigt carré dans un bureau.
Musk aurait-il racheter Boeing ?
1  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 16/04/2024 à 7:53
Citation Envoyé par Mathis Lucas Voir le message
Les critiques ont rapporté notamment que leurs voitures heurtent les bordures de trottoir lorsqu'elles tentent de tourner en mode Full Self-Driving.
Faites confiance au FSD il est plus performants que le chauffeur d'auto école à sa première de conduite moyen.
Selon de nombreux internautes, la solution consiste à suivre les recommandations de Tesla et à superviser le FSD pendant qu'il roule. (Ils doivent garder en permanence les mains sur le volant.)
Le FSD fonctionne très bien si vous conduisez en parallèle de lui.
Musk et Tesla n'ont pas répondu aux commentaires des internautes sur les performances médiocres du FSD.
Fake it, till you make it, bro.
C'est marrant comme Musk, très bavard est muet dans certaines situations...
L'ancienne conseillère principale en matière de sécurité de la NHTSA, Missy Cummings, a noté que l'augmentation des accidents de Tesla était troublante. « Tesla connaît plus d'accidents graves - et mortels - que les personnes dans un ensemble de données normal », a-t-elle déclaré. Selon Cummings, l'une des causes probables est le déploiement à grande échelle du FSD [dont le nom signifie littéralement "conduite entièrement autonome"]. « Le fait est que n'importe qui et tout le monde peut l'avoir. Est-il raisonnable de s'attendre à ce que cela entraîne une augmentation des taux d'accidents ? Bien sûr, absolument ».
Ah bon, en plus statistiquement le FSD est plus mauvais que le conducteur moyen?
Et la NHTSA constate ça mais n'agit pas? Je ne comprend décidément pas les USA et leur règlementation

Je ne comprends pas comment le FSD peut heurter des trottoirs, c'est quand même l'un des éléments de l'environnement automobile le plus courant et en plus il est particulièrement fixe.
1  0