IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Une Tesla sous conduite prétendument "entièrement autonome" renverse un "enfant" lors d'un test
90 % des sondés estiment qu'une voiture autonome qui renverse un enfant devrait être interdite

Le , par Jade Emy

5PARTAGES

6  0 
Tesla utilise un logiciel dit "entièrement autonome" et renverse un "enfant" lors d'un test, 90 % des interrogées estiment qu'une voiture autonome qui renverse un enfant devrait être interdite

Tesla utilise un logiciel dit "entièrement autonome" et renverse un "enfant" lors d'un test dans un bus scolaire. Lors du test, une Model Y équipée du logiciel FSD passait devant un bus scolaire à l'arrêt, avec son panneau d'arrêt déployé et ses feux rouges clignotants. La Tesla n'a pas manqué de détecter le mannequin, mais n'a pas pris la peine de s'arrêter ni même de ralentir. Selon le Dawn project, 90 % des personnes interrogées estiment qu'une voiture autonome qui renverse un enfant traversant la route devrait être interdite.

En mars dernier, Tesla a annoncé la suppression de l’appellation "FSD" (Full Self-Driving) de son logiciel de conduite autonome en Chine. Le terme "FSD" a été fortement associé à la promesse de la conduite autonome complète, un élément central du marketing de Tesla. En abandonnant cette appellation en Chine, l’entreprise semble vouloir éviter toute confusion et désillusion auprès des consommateurs chinois qui pourraient avoir des attentes irréalistes quant aux capacités réelles de son logiciel.

Récemment, un rapport a révélé que Tesla s'apprête à mettre en circulation quelques robotaxis à Austin. Il ne s'agira pas des robotaxis CyberCab que Tesla a "dévoilés" à la fin de l'année 2024, mais de Model Y classiques équipés d'une version du logiciel dit "entièrement autonome" de Tesla. Pourtant, selon les résultats du dernier test réalisé par le Dawn Project, une organisation dédiée à la sécurité fondée par Dan O'Dowd, diplômé du Caltech et ingénieur logiciel, la réponse est clairement "pas terrible". Du moins, si l'on se soucie du fait que les voitures s'arrêtent pour laisser descendre les enfants des bus scolaires.

Lors du test, O'Dowd a conduit un Model Y équipé du logiciel FSD 13.2.9 devant un bus scolaire à l'arrêt, avec son panneau d'arrêt déployé et ses feux rouges clignotants. Ils ont ensuite placé un mannequin de la taille d'un enfant sur la trajectoire de la Tesla pour voir si elle s'arrêterait pour l'enfant. La voiture a roulé sur l'enfant comme s'il n'était pas là.

Pour aggraver les choses, la Tesla n'a pas manqué de détecter le mannequin, ce qui aurait déjà été suffisamment grave. Le système a en fait détecté le mannequin de la taille d'un enfant et l'a classé comme piéton, mais n'a pas pris la peine de s'arrêter ni même de ralentir. Il a simplement continué sa route, ignorant complètement l' "enfant" qui traversait la rue. On pourrait penser qu'une personne aussi éprise d'enfants qu'Elon Musk voudrait au moins que ses produits évitent de renverser des enfants, n'est-ce pas ?

[TWITTER]
<blockquote class="bluesky-embed" data-bluesky-uri="at://did:plc:kwcvfly5uzxk7g7o6y2kh6ak/app.bsky.feed.post/3lqafg2zqfk2v" data-bluesky-cid="bafyreigflxv3z7hysshatfdo4b4ogqul5fbhgxwglgbddjkbmsu4yuifoa" data-bluesky-embed-color-mode="system"><p lang="en">Tesla FSD 13.2.9 will still run a kid down while illegally blowing past a stopped school bus with red lights flashing and stop sign extended.

Elon Musk how many kids does FSD need to run over before you fix this?

I warned about this danger at the 2023 Super Bowl!<br><br><a href="https://bsky.app/profile/did:plc:kwcvfly5uzxk7g7o6y2kh6ak/post/3lqafg2zqfk2v?ref_src=embed">[image or embed]</a></p>— Dan O'Dowd (<a href="https://bsky.app/profile/did:plc:kwcvfly5uzxk7g7o6y2kh6ak?ref_src=embed">@realdanodowd.bsky.social</a> <a href="https://bsky.app/profile/did:plc:kwcvfly5uzxk7g7o6y2kh6ak/post/3lqafg2zqfk2v?ref_src=embed">28 mai 2025 à 17:17</a></blockquote><script async src="https://embed.bsky.app/static/embed.js" charset="utf-8"></script>[/TWITTER]

Le Dawn Project a documenté les problèmes du FSD pour s'arrêter devant les bus scolaires et a averti Tesla du risque il y a deux ans et demi. Il a également diffusé une publicité pendant le Super Bowl en 2023, soulignant la même chose. Peu de temps après la diffusion de la publicité du Dawn Project, ce dont il avait averti s'est apparemment produit dans la vie réelle.

Le conducteur d'une Tesla Model Y a percuté Tillman Mitchell, un lycéen de la Haliwa-Saponi Tribal School à Hollister, en Caroline du Nord, alors qu'il descendait d'un bus scolaire. Les enquêteurs soupçonnent que le mode Autopilot ou Full Self Driving était activé au moment de l'accident. Mitchell a subi des « blessures mortelles » et a été transporté par hélicoptère vers un hôpital voisin pour y être soigné, où il a heureusement survécu. Cependant, une fracture du cou et une jambe cassée ne sont pas exactement le genre de blessures dont on se remet rapidement. Cet incident est loin d'être le seul cas où une Tesla n'a pas réussi à s'arrêter.

Si le logiciel dit « Full Self-Driving » de Tesla ne fonctionnait que sur les autoroutes, comme certains autres systèmes d'aide à la conduite, son incapacité à s'arrêter de manière fiable pour les véhicules d'urgence et autres véhicules à l'arrêt, tels que les bus scolaires, resterait un problème. Mais avec le projet de déployer dans quelques semaines une flotte de Model Y comme robotaxis dans les rues des villes, cela devient encore plus préoccupant.

Pour rappel, un autre rapport a révélé que les véhicules Tesla avec le logiciel Full Self-Driving actif percutent à mort les motocyclistes par l'arrière, plus que toute autre voiture. Selon le rapport, ce n'est pas que les voitures autonomes en général sont dangereuses pour les motos : ce problème est propre à Tesla. Aucun autre constructeur automobile ou fournisseur de technologie similaire n'a signalé un seul accident mortel de moto au cours de la même période. Le rapport ajoute plus de doute à l'autonomie.


Voici le rapport du Dawn Project :

Le Dawn Project a prouvé de manière concluante que le logiciel de conduite autonome de Tesla :

  • Renverserait un enfant traversant la route
  • Dépasserait un bus scolaire à l'arrêt
  • Ignorerait les panneaux « Sens interdit » et « Route fermée »
  • Heurterait un bébé dans une poussette

90 % des personnes interrogées s'accordent à dire qu'une voiture autonome qui renverserait un enfant traversant la route devrait être immédiatement interdite de circulation sur les routes publiques.

Le logiciel de conduite autonome de Tesla doit donc être immédiatement retiré de la circulation jusqu'à ce que tous ces problèmes soient résolus.

Mais les régulateurs refusent d'interdire le logiciel, les politiciens n'agissent pas parce que le public ne l'a pas demandé, et Tesla continue de commercialiser ce produit défectueux et dangereux, même si Elon Musk est au courant de ces défauts.

Nous avons publié cinq annonces dans le New York Times, fait paraître des centaines d'articles et même diffusé une publicité pendant le Super Bowl, mais Tesla refuse toujours de corriger les défauts ou de retirer le logiciel de la circulation.

Elon Musk et Tesla n'ont pas agi comme n'importe quelle autre entreprise respectable l'aurait fait face à des preuves concrètes de graves défauts de sécurité, à savoir rappeler le produit jusqu'à ce que les défauts de sécurité soient corrigés.

Les raisons suivantes n'ont pas suffi à convaincre Elon Musk de faire ce qu'il fallait :

  • La moralité
  • L'empathie pour les victimes
  • Les reproches des régulateurs
  • La publicité négative

C'est maintenant à vous d'utiliser votre arme la plus puissante, couper la source de revenus d'Elon Musk : les ventes de voitures neuves Tesla. Les boycotts ont déjà été une mesure efficace contre Elon Musk sur Twitter (X). Les ventes de voitures Tesla sont les fonds qui permettent à son logiciel de conduite autonome défectueux de rester sur les routes et qui soutiennent ses autres projets dépravés.

Notre mission reste la même : retirer le logiciel de conduite autonome défectueux de Tesla de la circulation.
Source : Dawn Project

Et vous ?

Pensez-vous que ce test est crédible ou pertinent ?
Quel est votre avis sur le sujet ?

Voir aussi :

4 millions de voitures défectueuses : Tesla fait face à une facture de 10 milliards de dollars. Tesla doit soit mettre à niveau soit indemniser les propriétaires de véhicules plus anciens

Tesla annonce des résultats décevants avec une baisse de 71 % du bénéfice net au T1 2025. Musk met en garde contre l'impact des droits de douane et veut réduire le temps consacré au DOGE au profit de Tesla

Tesla a le taux d'accidents mortels le plus élevé parmi les marques automobiles, selon une étude, malgré des fonctionnalités telles qu'Autopilot et Full-Self Driving, censées réduire l'erreur humaine
Vous avez lu gratuitement 12 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de jnspunk
Membre habitué https://www.developpez.com
Le 01/06/2025 à 6:18
Comme si c'était moins grave de renverser un adulte ?!
Les êtres humains ont tués bien plus qu'un "enfant" sur la route alors on devrait leur interdire de conduire ?
0  1