
Tesla utilise un logiciel dit "entièrement autonome" et renverse un "enfant" lors d'un test dans un bus scolaire. Lors du test, une Model Y équipée du logiciel FSD passait devant un bus scolaire à l'arrêt, avec son panneau d'arrêt déployé et ses feux rouges clignotants. La Tesla n'a pas manqué de détecter le mannequin, mais n'a pas pris la peine de s'arrêter ni même de ralentir. Selon le Dawn project, 90 % des personnes interrogées estiment qu'une voiture autonome qui renverse un enfant traversant la route devrait être interdite.
En mars dernier, Tesla a annoncé la suppression de l’appellation "FSD" (Full Self-Driving) de son logiciel de conduite autonome en Chine. Le terme "FSD" a été fortement associé à la promesse de la conduite autonome complète, un élément central du marketing de Tesla. En abandonnant cette appellation en Chine, l’entreprise semble vouloir éviter toute confusion et désillusion auprès des consommateurs chinois qui pourraient avoir des attentes irréalistes quant aux capacités réelles de son logiciel.
Récemment, un rapport a révélé que Tesla s'apprête à mettre en circulation quelques robotaxis à Austin. Il ne s'agira pas des robotaxis CyberCab que Tesla a "dévoilés" à la fin de l'année 2024, mais de Model Y classiques équipés d'une version du logiciel dit "entièrement autonome" de Tesla. Pourtant, selon les résultats du dernier test réalisé par le Dawn Project, une organisation dédiée à la sécurité fondée par Dan O'Dowd, diplômé du Caltech et ingénieur logiciel, la réponse est clairement "pas terrible". Du moins, si l'on se soucie du fait que les voitures s'arrêtent pour laisser descendre les enfants des bus scolaires.
Lors du test, O'Dowd a conduit un Model Y équipé du logiciel FSD 13.2.9 devant un bus scolaire à l'arrêt, avec son panneau d'arrêt déployé et ses feux rouges clignotants. Ils ont ensuite placé un mannequin de la taille d'un enfant sur la trajectoire de la Tesla pour voir si elle s'arrêterait pour l'enfant. La voiture a roulé sur l'enfant comme s'il n'était pas là.
Pour aggraver les choses, la Tesla n'a pas manqué de détecter le mannequin, ce qui aurait déjà été suffisamment grave. Le système a en fait détecté le mannequin de la taille d'un enfant et l'a classé comme piéton, mais n'a pas pris la peine de s'arrêter ni même de ralentir. Il a simplement continué sa route, ignorant complètement l' "enfant" qui traversait la rue. On pourrait penser qu'une personne aussi éprise d'enfants qu'Elon Musk voudrait au moins que ses produits évitent de renverser des enfants, n'est-ce pas ?
[TWITTER]
<blockquote class="bluesky-embed" data-bluesky-uri="at://did:plc:kwcvfly5uzxk7g7o6y2kh6ak/app.bsky.feed.post/3lqafg2zqfk2v" data-bluesky-cid="bafyreigflxv3z7hysshatfdo4b4ogqul5fbhgxwglgbddjkbmsu4yuifoa" data-bluesky-embed-color-mode="system"><p lang="en">Tesla FSD 13.2.9 will still run a kid down while illegally blowing past a stopped school bus with red lights flashing and stop sign extended.
Elon Musk how many kids does FSD need to run over before you fix this?
I warned about this danger at the 2023 Super Bowl!<br><br><a href="https://bsky.app/profile/did:plc:kwcvfly5uzxk7g7o6y2kh6ak/post/3lqafg2zqfk2v?ref_src=embed">[image or embed]</a></p>— Dan O'Dowd (<a href="https://bsky.app/profile/did:plc:kwcvfly5uzxk7g7o6y2kh6ak?ref_src=embed">@realdanodowd.bsky.social</a>

Le Dawn Project a documenté les problèmes du FSD pour s'arrêter devant les bus scolaires et a averti Tesla du risque il y a deux ans et demi. Il a également diffusé une publicité pendant le Super Bowl en 2023, soulignant la même chose. Peu de temps après la diffusion de la publicité du Dawn Project, ce dont il avait averti s'est apparemment produit dans la vie réelle.
Le conducteur d'une Tesla Model Y a percuté Tillman Mitchell, un lycéen de la Haliwa-Saponi Tribal School à Hollister, en Caroline du Nord, alors qu'il descendait d'un bus scolaire. Les enquêteurs soupçonnent que le mode Autopilot ou Full Self Driving était activé au moment de l'accident. Mitchell a subi des « blessures mortelles » et a été transporté par hélicoptère vers un hôpital voisin pour y être soigné, où il a heureusement survécu. Cependant, une fracture du cou et une jambe cassée ne sont pas exactement le genre de blessures dont on se remet rapidement. Cet incident est loin d'être le seul cas où une Tesla n'a pas réussi à s'arrêter.
Si le logiciel dit « Full Self-Driving » de Tesla ne fonctionnait que sur les autoroutes, comme certains autres systèmes d'aide à la conduite, son incapacité à s'arrêter de manière fiable pour les véhicules d'urgence et autres véhicules à l'arrêt, tels que les bus scolaires, resterait un problème. Mais avec le projet de déployer dans quelques semaines une flotte de Model Y comme robotaxis dans les rues des villes, cela devient encore plus préoccupant.
Pour rappel, un autre rapport a révélé que les véhicules Tesla avec le logiciel Full Self-Driving actif percutent à mort les motocyclistes par l'arrière, plus que toute autre voiture. Selon le rapport, ce n'est pas que les voitures autonomes en général sont dangereuses pour les motos : ce problème est propre à Tesla. Aucun autre constructeur automobile ou fournisseur de technologie similaire n'a signalé un seul accident mortel de moto au cours de la même période. Le rapport ajoute plus de doute à l'autonomie.
Voici le rapport du Dawn Project :
Le Dawn Project a prouvé de manière concluante que le logiciel de conduite autonome de Tesla :
90 % des personnes interrogées s'accordent à dire qu'une voiture autonome qui renverserait un enfant traversant la route devrait être immédiatement interdite de circulation sur les routes publiques.
Le logiciel de conduite autonome de Tesla doit donc être immédiatement retiré de la circulation jusqu'à ce que tous ces problèmes soient résolus.
Mais les régulateurs refusent d'interdire le logiciel, les politiciens n'agissent pas parce que le public ne l'a pas demandé, et Tesla continue de commercialiser ce produit défectueux et dangereux, même si Elon Musk est au courant de ces défauts.
Nous avons publié cinq annonces dans le New York Times, fait paraître des centaines d'articles et même diffusé une publicité pendant le Super Bowl, mais Tesla refuse toujours de corriger les défauts ou de retirer le logiciel de la circulation.
Elon Musk et Tesla n'ont pas agi comme n'importe quelle autre entreprise respectable l'aurait fait face à des preuves concrètes de graves défauts de sécurité, à savoir rappeler le produit jusqu'à ce que les défauts de sécurité soient corrigés.
Les raisons suivantes n'ont pas suffi à convaincre Elon Musk de faire ce qu'il fallait :
C'est maintenant à vous d'utiliser votre arme la plus puissante, couper la source de revenus d'Elon Musk : les ventes de voitures neuves Tesla. Les boycotts ont déjà été une mesure efficace contre Elon Musk sur Twitter (X). Les ventes de voitures Tesla sont les fonds qui permettent à son logiciel de conduite autonome défectueux de rester sur les routes et qui soutiennent ses autres projets dépravés.
Notre mission reste la même : retirer le logiciel de conduite autonome défectueux de Tesla de la circulation.
- Renverserait un enfant traversant la route
- Dépasserait un bus scolaire à l'arrêt
- Ignorerait les panneaux « Sens interdit » et « Route fermée »
- Heurterait un bébé dans une poussette
90 % des personnes interrogées s'accordent à dire qu'une voiture autonome qui renverserait un enfant traversant la route devrait être immédiatement interdite de circulation sur les routes publiques.
Le logiciel de conduite autonome de Tesla doit donc être immédiatement retiré de la circulation jusqu'à ce que tous ces problèmes soient résolus.
Mais les régulateurs refusent d'interdire le logiciel, les politiciens n'agissent pas parce que le public ne l'a pas demandé, et Tesla continue de commercialiser ce produit défectueux et dangereux, même si Elon Musk est au courant de ces défauts.
Nous avons publié cinq annonces dans le New York Times, fait paraître des centaines d'articles et même diffusé une publicité pendant le Super Bowl, mais Tesla refuse toujours de corriger les défauts ou de retirer le logiciel de la circulation.
Elon Musk et Tesla n'ont pas agi comme n'importe quelle autre entreprise respectable l'aurait fait face à des preuves concrètes de graves défauts de sécurité, à savoir rappeler le produit jusqu'à ce que les défauts de sécurité soient corrigés.
Les raisons suivantes n'ont pas suffi à convaincre Elon Musk de faire ce qu'il fallait :
- La moralité
- L'empathie pour les victimes
- Les reproches des régulateurs
- La publicité négative
C'est maintenant à vous d'utiliser votre arme la plus puissante, couper la source de revenus d'Elon Musk : les ventes de voitures neuves Tesla. Les boycotts ont déjà été une mesure efficace contre Elon Musk sur Twitter (X). Les ventes de voitures Tesla sont les fonds qui permettent à son logiciel de conduite autonome défectueux de rester sur les routes et qui soutiennent ses autres projets dépravés.
Notre mission reste la même : retirer le logiciel de conduite autonome défectueux de Tesla de la circulation.
Et vous ?


Voir aussi :



Vous avez lu gratuitement 12 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.