![](https://www.developpez.com/images/logos/tesla.png)
Un Cybertruck en mode Full Self-Driving s'écrase contre un poteau d'éclairage
Le logiciel Full Self-Driving (FSD) de Tesla est une nouvelle fois la cible de critiques acerbes sur les plateformes de médias sociaux. « Le Full Self-Driving de Tesla n'est pas sûr pour les routes et ne peut pas être plus sûr que la conduite humaine. Il reste un système de niveau 2 malgré le nom qui donne une idée fausse de ses capacités. Et s'il ne peut pas se conduire lui-même, il ne fait qu'encourager les mauvaises habitudes d'attention au volant », a écrit un critique.
Jonathan Challinger, un développeur de logiciels basé en Floride qui travaille pour la société Kraus Hamdani Aerospace, a posté une photo de son Cybertruck dans un état bien pire que le poteau contre lequel il est entré en collision. Il a expliqué qu'il utilisait la dernière version du logiciel Full Self-Driving (FSD v13.2.4) alors qu'il roulait sur la voie de droite. Le Cybertruck n'a pas réussi à sortir de la voie qui se terminait, alors qu'il n'y avait personne sur la gauche.
Soooooo my @Tesla @cybertruck crashed into a curb and then a light post on v13.2.4.
— Jonathan Challinger (@MrChallinger) February 9, 2025
Thank you @Tesla for engineering the best passive safety in the world. I walked away without a scratch.
It failed to merge out of a lane that was ending (there was no one on my left) and made… pic.twitter.com/vpT4AGz8jZ
Le véhicule n'a pas tenté de ralentir ou de tourner avant de heurter le trottoir, ce qui l'a projeté contre un poteau. L'avant de son Cybertruck a subi des dommages graves, avec notamment une roue arrachée. Étonnamment, il ne semblait pas enragé contre le Full Self-Driving ou le constructeur américain lui-même.
Jonathan Challinger a évité de justesse des blessures graves, mais reste un fervent partisan de Tesla ; il a même remercié l'entreprise d'avoir mis au point « la meilleure sécurité passive au monde » qui lui a permis de s'en sortir sans une égratignure. Il a aussi profité de l'occasion pour lancer un avertissement.
Le message posté par le développeur sur X (ex-Twitter) indique : « je ne m'attends pas à ce qu'elle soit infaillible [...]. Un gros échec de ma part, évidemment. Ne faites pas la même erreur que moi. Faites attention. Cela peut arriver. Il est facile de se reposer sur ses lauriers ; ne le faites pas ».
Dans un billet X plus ancien, il a parlé de son habitude de se déconcentrer lorsque le Full Self-Driving est activé. Bien que l'avertissement de Jonathan Challinger puisse sembler pertinent, il a été accusé de faire de la publicité pour Tesla, alors que le dysfonctionnement du logiciel aurait pu lui coûter la vie.
Le nom Full Self-Driving a tendance à pousser les conducteurs à l'inattention
Le Full Self-Driving de Tesla est censé avertir les conducteurs à plusieurs reprises s'ils ne font pas attention à la route. D'après le manuel d'utilisation de Tesla, le véhicule doit émettre une série d'avertissements sonores de plus en plus forts si le conducteur ne fait pas attention. Il lui sera également demandé de poser les mains sur le volant. Si le conducteur ignore ces avertissements à plusieurs reprises, la Full Self-Driving se désactive pour le reste du trajet.
Comme le soulignent certains experts, dans le cas de Jonathan Challinger, le poteau d'éclairage se trouve dans une position inconfortable, s'avançant sur l'accotement. Mais le Cybertruck aurait dû être en mesure de voir les flèches de fusion sur la route et de changer de voie avant la collision.
Troy Teslike, un passionné de Tesla, note que bien que le poteau d'éclairage soit dans une position inhabituelle, il pense que l'incident montre trois problèmes avec le Full Self-Driving de Tesla : la difficulté du logiciel à voir les marquages routiers la nuit ; son incapacité à sauvegarder certains marquages routiers dans les cartes numériques et sa détection peu fiable de certains objets solides en raison de l'utilisation du Full Self-Driving en vision seule.
The vehicle was in the shoulder lane when Tesla's Full Self-Driving (FSD) first missed the road markings signaling to move left 500 feet before the pole, then failed to detect the pole in the middle of the lane where the shoulder had just ended.
— Troy Teslike (@TroyTeslike) February 9, 2025
This shows three problems with… pic.twitter.com/GvvZoi9hRZ
Dans ses messages sur les réseaux sociaux, Jonathan Challinger n'a pas non plus mentionné le montant qu'il devra débourser pour réparer son véhicule électrique. Un Cybertruck coûte entre 80 000 et 100 000 dollars, en plus de 8 000 dollars pour la mise à jour du logiciel Full Self-Driving de Tesla.
Jonathan Challinger assume également l'entière responsabilité de l'accident, qu'il considère comme une grave erreur de sa part. Il a tagué Tesla dans son message et a proposé d'aider à trouver la raison de l'accident, en espérant « aider à sauver d'autres personnes du même sort ou de bien pire ».
Jonathan Challinger a déclaré qu'il possède les images de la caméra embarquée du Cybertruck et qu'il souhaite les diffuser en tant que message d'intérêt public. Mais il note : « j'hésite parce que je ne veux pas attirer l'attention et je ne veux pas donner de la matière aux ours et aux détracteurs ».
Le Full Self-Driving de Tesla fait l'objet d'enquêtes de la part des régulateurs
Les régulateurs enquêtent sur les logiciels d'aide à la conduite de Tesla (Autopilot et Full Self-Driving) depuis des années. Ils ont découvert que les propriétaires de Tesla sont souvent bercés par un faux sentiment de sécurité, en grande partie à cause du marketing terriblement trompeur de Tesla et de son PDG Elon Musk. Depuis plus de dix ans, Elon Musk promet chaque année que « Tesla livrera une conduite autonome intégrale l'année prochaine ».
Mais la réalité a eu du mal à le rattraper. Tesla soutient toujours que son logiciel Full Self-Driving exige que les conducteurs soient engagés et prêts à prendre le contrôle à tout moment. Dans la pratique, les conducteurs comme Jonathan Challinger se déconnectent souvent lors que le système est activé.
Au fil des ans, les logiciels Autopilot et le Full Self-Driving de Tesla ont été liés des centaines d'accidents, dont certains étaient mortels, et ont été impliqués dans un grand nombre de poursuites judiciaires. Certains reprochent à Tesla de distribuer un logiciel en version bêta utilisable sur les routes publiques.
« Il me semble complètement fou qu'un logiciel (payant) intégré détruise un véhicule de plus de 80 000 dollars et que la réponse du propriétaire soit de dire "merci Tesla, la sécurité passive est si bonne". Cela ressemble à une satire, et pourtant nous y sommes », peut-on lire dans les commentaires.
C'est le dernier incident à mettre en évidence les lacunes flagrantes de la technologie et le niveau de confiance déconcertant des conducteurs de Tesla. Mais il est peu probable que cela empêche Elon Musk de continuer à faire des promesses. Il a promis en 2024 des robotaxis Tesla dans un avenir proche.
Le logiciel Full Self-Driving des Cybertruck accusé d'être beaucoup moins fiable
Les Cybertruck n'ont eu la possibilité d'utiliser la Full Self-Driving qu'à partir de septembre 2024, soit neuf mois après le lancement officiel du véhicule. Compte tenu de la taille, de la forme et du logiciel uniques du véhicule, il a fallu apporter des modifications à la version du Full Self-Driving utilisée par les autres véhicules Tesla. Le Cybertruck accidenté Jonathan Challinger utilisait une version relativement récente (FSD v13.2.4) que Tesla a publiée en janvier.
Selon l'application Not a Tesla, la version 13.2.4 du Full Self-Driving se concentre principalement sur la correction de bogues, mais les notes de mise à jour mentionnent également un système amélioré pour « l'évitement des collisions ». Toutefois, les Cybertruck restent confrontés à de nombreuses difficultés.
La National Highway Traffic Safety Administration (NHTSA) enquête actuellement sur le Full Self-Driving pour un problème distinct lié à quatre accidents survenus dans des situations de faible visibilité. Le processus de la NHTSA comprend l'examen du comportement du conducteur et du logiciel dans chaque incident. Dans un accident mortel survenu en 2019, elle a confirmé que l'Autopilot de Tesla a été enclenché seulement 10 secondes avant la collision.
Les véhicules Tesla ont représenté 40 des 45 accidents mortels de véhicules électriques signalés jusqu'au 15 octobre 2024. Le président américain Donald Trump envisagerait de supprimer l'obligation pour les constructeurs automobiles de signaler tous les accidents impliquant des véhicules dotés ces systèmes.
Elon Musk, un des principaux alliés de Donald Trump, affirme que la règle cible injustement Tesla, étant donné le nombre d'incidents et de rapports qu'il doit fournir à l'organisation. La NHTSA affirme que les informations fournies par la règle de déclaration lui permettent de détecter des schémas dans les accidents.
Malgré les scandales autour de son logiciel, Elon Musk soutient que les véhicules équipés du Full Self-Driving sont plus sûrs que les voitures pilotées par l'homme, avec moins d'accidents par kilomètre parcouru. L'entreprise prévoit de lancer son premier service de robotaxi à Austin, au Texas, en juin 2025.
Et vous ?
![:fleche:](https://www.developpez.net/forums/images/smilies/fleche.gif)
Voir aussi
![:fleche:](https://www.developpez.net/forums/images/smilies/fleche.gif)
![:fleche:](https://www.developpez.net/forums/images/smilies/fleche.gif)
![:fleche:](https://www.developpez.net/forums/images/smilies/fleche.gif)