« Indépendamment de l'état d'ébriété de Hans, Musk a prétendu que cette voiture pouvait se conduire toute seule et qu'elle était essentiellement meilleure qu'un humain », a déclaré Nora Bass, la veuve de von Ohain. « On nous a donné un faux sentiment de sécurité ».
Un employé de Tesla (et fan « dévoué » de son PDG Elon Musk) nommé Hans von Ohain a été tué après que sa Model 3 se soit écrasée contre un arbre et ait pris feu en 2022. Son ami et passager Erik Rossiter, qui a survécu à la collision, a depuis déclaré au Washington Post que Hans von Ohain avait activé la fonction de Full Self-Driving de la voiture au moment de l'accident mortel.
Si cette hypothèse est confirmée, il pourrait s'agir du premier décès connu lié à cette fonction, une option de 15 000 dollars qui a déjà attiré l'attention des autorités de régulation.
Le quotidien a également confirmé que le véhicule était équipé de cette fonction (von Ohain l'avait reçue gratuitement grâce à sa réduction d'employé) et sa veuve a également déclaré qu'il l'utilisait fréquemment.
L’accident s’est produit près de Denver, dans le Colorado, alors que les deux amis revenaient d’une partie de golf. Rossiter a déclaré au Washington Post que le FSD avait fait plusieurs écarts pendant le trajet aller et que von Ohain avait dû reprendre le contrôle à plusieurs reprises. Ils avaient également consommé de l’alcool pendant la journée, mais Rossiter a affirmé que von Ohain semblait sobre et maître de lui au moment de monter dans la voiture pour le retour.
Une autopsie de von Ohain a révélé qu’il avait un taux d’alcoolémie de 0,26 - plus de trois fois la limite légale. La police de l’État du Colorado a conclu que l’intoxication était le principal facteur à l’origine de l’accident, mais elle a également mené une enquête sur le rôle éventuel du FSD de Tesla. Le sergent Robert Madden, qui a dirigé l’enquête, a observé des traces de pneus en roulement sur le lieu de l’accident, ce qui signifie que le moteur a continué à envoyer de la puissance aux roues au moment de l’impact. Il n’y avait pas non plus de traces de freinage.
Madden a déclaré : « Étant donné la dynamique de l’accident et la façon dont le véhicule a quitté la route sans preuve d’une manœuvre soudaine, cela correspond à la fonctionnalité [d’assistance à la conduite] ». Il a ajouté qu’il n’avait pas accès aux journaux de bord du véhicule, qui auraient pu confirmer ou infirmer l’utilisation du FSD.
La veuve de von Ohain, Nora Bass, veut que Tesla assume sa responsabilité dans la mort de son mari : « Peu importe à quel point Hans était ivre, Musk a affirmé que cette voiture pouvait se conduire elle-même et qu’elle était essentiellement meilleure qu’un humain. On nous a vendu un faux sentiment de sécurité ». Elle n’a pas réussi à trouver un avocat pour prendre l’affaire, car son mari était ivre.
L'entreprise tente de se dédouaner
Malgré le marketing trompeur de l'entreprise, les véhicules Tesla sont encore loin d'être capables de se conduire tout seuls. Sur son site web, l'entreprise avertit les conducteurs qu'ils doivent être « prêts à prendre des mesures immédiates, y compris le freinage » :
Les fonctionnalités Autopilot, Enhanced Autopilot et Full Self-Driving sont destinées à un conducteur attentif, qui a les mains sur le volant et qui est prêt à prendre le contrôle à tout moment. Bien que ces fonctionnalités soient conçues pour devenir plus performantes au fil du temps, votre véhicule n’est pas autonome avec les fonctionnalités actuellement actives[...].
Comme pour toutes les fonctionnalités d'Autopilot, vous devez contrôler votre véhicule, faire attention à son environnement et être prêt à prendre des mesures immédiates, y compris le freinage. Cette fonction est en version bêta et peut ne pas s'arrêter pour tous les contrôles de la circulation. Si le contrôle de la circulation et des panneaux d'arrêt est activé sur les routes de surface lorsque l'Autosteer est actif, votre vitesse sera limitée à la limite indiquée.
Comme pour toutes les fonctionnalités d'Autopilot, vous devez contrôler votre véhicule, faire attention à son environnement et être prêt à prendre des mesures immédiates, y compris le freinage. Cette fonction est en version bêta et peut ne pas s'arrêter pour tous les contrôles de la circulation. Si le contrôle de la circulation et des panneaux d'arrêt est activé sur les routes de surface lorsque l'Autosteer est actif, votre vitesse sera limitée à la limite indiquée.
Alors que la National Highway Traffic Safety Administration enquête déjà sur Autopilot à la suite d'une série d'accidents dans lesquels des Tesla ont percuté des véhicules d'intervention d'urgence arrêtés avec des sirènes ou des fusées éclairantes, aucun accident mortel n'a été définitivement lié à la FSD - bien que la mort de von Ohain, comme le rapporte Washington Post, semble assurément suspecte.
Selon une analyse du Washington Post de l'année dernière, le nombre d'accidents mortels impliquant le mode Autopilot a bondi. Sur plus de 700 accidents impliquant la fonctionnalité depuis 2019, au moins 17 ont été mortels.
Qui est responsable ?
Néanmoins, même si l'alcool n'était pas en cause, des experts ont souligné que le marketing trompeur de Tesla pouvait donner aux conducteurs un faux sentiment de sécurité au volant.
Malgré les affirmations démesurées de Tesla au sujet de cette technologie, Tesla maintient que sa fonction FSD est encore en "bêta", ce qui signifie qu'elle est toujours en cours de développement.
Sa prise de décision sur la route peut être très suspecte. Dans une vidéo téléchargée la semaine dernière, le propriétaire d'une Tesla a dû neutraliser la fonction après que la voiture a tenté de tourner brusquement à gauche, se dirigeant tout droit vers les véhicules venant en sens inverse. Nous avons également vu des vidéos de Teslas avec la fonction activée ignorant des feux rouges, percutant une voiture de police et se débattant dans la neige.
La mort de Von Ohain soulève d'importantes questions éthiques, notamment en ce qui concerne la culpabilité. Le marketing trompeur de Tesla est-il à blâmer, ou s'agit-il d'un cas d'imprudence de la part d'un conducteur ?
Sa veuve a déclaré au journal que, personnellement, elle trouvait la fonction trop imprévisible et « saccadée ».
L'enjeu est de taille, puisque Musk a déclaré en 2022 que la FSD est « la différence entre une Tesla qui vaut beaucoup d'argent et une Tesla qui n'en vaut pratiquement pas du tout ». Même si le développement de cette fonction bénéficie de tout son soutien, le logiciel est encore loin d'atteindre son objectif déclaré d'autonomie totale.
Musk a promis à plusieurs reprises que Tesla atteindrait le niveau 5 d'autonomie en moins d'un an, un point auquel une voiture est entièrement autonome et n'a pas besoin de volant ou de pédale de frein. Cependant, aujourd'hui, la fonction n'a toujours pas dépassé le niveau 2 d'autonomie, qui exige que le conducteur prenne le contrôle à tout moment.
Le FSD de Tesla qualifié « d'escroquerie flagrante »Is this a thing people really believe? 🤔
— Jason Hughes (@wk057) September 7, 2022
I have so many questions...
So instead of developing a FSD ANN, they developed a hyper reliable, low latency, high bandwidth nationwide wireless network to stream tens of megabits from 100k cars.
That'd probably be more impressive. 🤓 https://t.co/F4SlHiMgKi
Jason Hughes, un hacker bien connu dans le monde Tesla, a qualifié le FSD de Tesla « d'escroquerie flagrante ». Il a accusé la société de prendre l'argent des propriétaires de Tesla en contrepartie d'un logiciel "défectueux" qui est en version bêta depuis sa sortie en 2016. Les clients doivent désormais débourser 15 000 dollars pour utiliser la version bêta FSD, mais le logiciel est loin d'avoir tenu les promesses faites par Tesla et le PDG Elon Musk.
En second lieu, Hughes pense que « le FSD n'est qu'un gadget ». Le hacker a déclaré que, selon son « expérience de l'utilisation sur autoroute, c'est comme apprendre à un adolescent à conduire ». « Vous devez être encore plus concentré et attentif que vous ne le seriez normalement », a-t-il déclaré. Selon lui, cela « finit par être plus épuisant par kilomètre parcouru que de simplement conduire soi-même ». En outre, un autre problème que Hughes n'a toutefois pas mentionné est que le FSD a un modèle de propriété particulièrement bizarre : le logiciel n'appartient pas à la voiture à laquelle il est associé ni aux personnes qui la paient.
Plus précisément, si un acheteur du FSD vend la voiture avec le logiciel, il ne peut pas le garder s'il achète une nouvelle Tesla. Le nouveau propriétaire du véhicule ne l'obtient pas non plus : le logiciel disparaît tout simplement. La seule conclusion logique possible est que seule Tesla est propriétaire du FSD. Tout ce que vous payez pour l'acquérir - un abonnement mensuel ou 15 000 dollars - n'est qu'une licence d'utilisation. « Comment pouvez-vous payer pour une fonctionnalité, et votre voiture arrive en EOL (fin de vie) sans jamais y avoir accès ? C'est insensé ! », a déclaré Hughes. Mais le problème va plus loin encore.
Les experts en véhicules autonomes, les défenseurs de la sécurité routière et d'autres critiques classent l'accès au FSD comme un cauchemar de sécurité et veulent l'empêcher à tout prix. Selon des critiques, ce n'est pas un hasard si les investisseurs de Tesla veulent toujours s'assurer que toutes les références au FSD sont suivies d'un mot qui libère Tesla de toute responsabilité : bêta. Cela signifie que le logiciel n'est pas prêt pour la production : il est encore en phase de test. Ainsi, les experts en sécurité routière affirment que seuls les ingénieurs et les conducteurs formés devraient être autorisés à tester le logiciel pour le moment.
Le coût du Full Self Driving de Tesla a augmenté de 300 % depuis qu'il a été remanié et rendu disponible à l'achat en 2019. Ceux qui ont eu la chance d'acheter le FSD en avril 2019 l'ont obtenu au prix bradé de 5 000 dollars - il coûte désormais 15 000 dollars aux États-Unis. Hughes a déclaré qu'il était ridicule que Tesla ait augmenté "le prix d'un produit que vous ne pouvez même pas obtenir en réalité lorsque vous le payez plusieurs fois". Même si les clients pouvaient payer 15 000 dollars pour le FSD et commencer à l'utiliser immédiatement, Hughes aurait toujours des problèmes avec lui. Il a récemment exposé un certain nombre de ces problèmes.
Sources : Washington Post, Tesla
Et vous ?
Que pensez-vous du FSD de Tesla ? Est-ce une technologie révolutionnaire ou dangereuse ?
Qui devrait être tenu responsable des accidents impliquant le FSD de Tesla ? Le conducteur, Tesla, ou les deux ?
Faites-vous confiance à la conduite autonome ? Seriez-vous prêt à utiliser le FSD de Tesla ou un système similaire ?
Quels sont les avantages et les inconvénients de la conduite autonome pour la société et l’environnement ?
Quelles sont les limites de la conduite autonome ? Comment les réguler et les contrôler ?