IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Le logiciel Autopilot de Tesla échoue à un test visant à évaluer l'efficacité de sa vision basée sur des caméras face à des obstacles sur la route,
Tandis que le cours de son action et ses ventes dégringolent

Le , par Mathis Lucas

5PARTAGES

4  0 
Trente accidents de Tesla liés au système de conduite assistée font l'objet d'une enquête aux États-Unis,
Les accidents ont fait 10 morts depuis 2016

Les voitures électriques et la conduite autonome sont les plus grandes transformations que connaît l'industrie automobile. Il est difficile de contester que Tesla est en tête sur ces deux plans, mais c'est le dernier qui a placé le constructeur automobile sous la loupe des autorités américaines de réglementation de la sécurité. La National Highway Traffic Safety Administration (NHTSA) a déclaré jeudi qu'elle avait ouvert 30 enquêtes sur des accidents de Tesla impliquant 10 décès depuis 2016 où des systèmes avancés d'aide à la conduite étaient soupçonnés d'avoir été utilisés. L’agence a donné des détails sur les accidents en cours d'examen par ses programmes d'enquêtes spéciales sur les accidents.

Les régulateurs américains de la sécurité automobile ont annoncé des enquêtes en cours sur des accidents de Tesla impliquant 10 décès où des systèmes avancés d'aide à la conduite seraient impliqués, selon des feuilles de calcul vues par Reuters. La NHTSA avait déjà confirmé certaines enquêtes spécifiques sur les accidents de Tesla, mais n'avait pas encore communiqué une comptabilité complète de tous les accidents de Tesla ayant fait l'objet d'une enquête où le système Autopilot de Tesla était soupçonné d'être impliqué. Maintenant, l’agence a publié une liste offrant des détails sur les accidents en cours d'examen par ses programmes d'enquêtes spéciales sur les accidents.


Sur les 30 accidents de Tesla, la NHTSA a exclu le système Autopilot de Tesla dans trois cas et a publié des rapports sur deux de ces accidents. Une première demande d’une liste complète avait été faite à la NHTSA il y a plus d'un an dans le cadre d'une demande de documents publics. Mais la liste ne comprenait que l'État et le mois où les accidents se sont produits. Auparavant, la NHTSA avait déclaré avoir ouvert 28 enquêtes spéciales sur les accidents de Tesla, dont 24 sont en cours. La feuille de calcul montre un accident de février 2019 où l'utilisation d'Autopilot était indéterminée.

Le système Autopilot utilise des caméras, des capteurs à ultrasons et un radar pour voir et détecter l'environnement de la voiture. L'ensemble des capteurs et des caméras permet au conducteur d'avoir une connaissance de son environnement qu'un conducteur seul n'aurait pas autrement. Un puissant ordinateur de bord traite ces données en quelques millisecondes afin de rendre la conduite "plus sûre et moins stressante", selon la société. L'Autopilot est un système d'aide à la conduite pratique qui ne doit être utilisé qu'avec un conducteur pleinement attentif. Il ne transforme pas une Tesla en voiture autonome.

La feuille de calcul montre que la NHTSA a ouvert huit enquêtes sur des accidents de Tesla depuis mars. La question a fait l'objet d'une nouvelle attention après l'accident incendiaire du 17 avril au Texas qui a tué deux hommes et dans lequel la police avait dit croire que personne n'était au volant. Mais Tesla avait réfuté les affirmations de la police, affirmant qu'un volant déformé suggérait que quelqu'un était probablement à la place du conducteur. Les batteries de la voiture, achetée d'occasion sur eBay en janvier, ont brûlé pendant quatre heures après.

Dans le cas de l'accident du Texas, le National Transportation Safety Board (NSTB) a déclaré en mai que les tests suggéraient que le système de pilotage automatique du véhicule n'était "pas disponible" sur la route où l'accident s'est produit. L’agence a critiqué les mesures de protection du système Autopilot de Tesla, qui permet aux conducteurs de ne pas toucher le volant pendant de longues périodes.

L’accident du 17 avril qui a tué deux hommes au Texas

Un autre accident mortel survenu le 5 mai près de Los Angeles fait également l'objet d'une enquête de l'agence. Dans ce cas, le conducteur avait publié sur les médias sociaux des images de lui-même en train de "conduire" sa Tesla sans avoir les mains sur le volant. La Tesla modèle 3 a percuté un camion Mack renversé, et le conducteur a été déclaré mort sur place. L'accident s'est produit sur l'autoroute 210 près de Fontana, en Californie, à environ 80 km à l'est de Los Angeles.

La semaine dernière, la présidente de la commission du commerce du Sénat, Maria Cantwell, a cité les accidents de Tesla pour justifier le vote de la commission contre l'adoption d'une réglementation visant à accélérer l'adoption des voitures à conduite autonome. « Il semble que toutes les deux semaines, nous entendons parler d'un nouveau véhicule qui s'est écrasé alors qu'il était sur Autopilot », a déclaré Cantwell.

Aucune loi aux États-Unis ne rend illégales les voitures entièrement autonomes

En ce qui concerne les lois régissant les véhicules autonomes, les États-Unis sont constitués d'un ensemble de législations qui varient d'un État à l'autre, mais actuellement, il n'existe aucun endroit où il est strictement illégal de posséder et d'utiliser un véhicule totalement autonome. Par ailleurs, un premier projet de loi américain sur les voitures autonomes, qui assouplirait de nombreux règlements fédéraux concernant les véhicules autonomes, avait reçu un appui du Congrès en décembre 2018.

S'il était adopté, le projet de loi permettrait aux fabricants de véhicules tels que Tesla et General Motors de développer et de commercialiser ces véhicules sans action réglementaire spécifique. En même temps, le projet de loi collecterait des informations sur les accidents au niveau fédéral pour les systèmes de conduite autonome de niveau 2 tels que le pilote automatique Tesla et la Super Cruise de GM.

Certains États ont toutefois adopté des lois les réglementant ou les autorisant, mais aucun État ne les a carrément interdites. À ce jour, vingt-neuf États, dont l'Alabama, l'Arkansas, la Californie, le Colorado, le Connecticut et la Floride ont adopté une législation relative aux véhicules autonomes.

Dans une lettre adressée le 1er février au ministère américain des Transports, le président du NTSB, Robert Sumwalt, a exhorté le ministère à promulguer des règlements régissant les systèmes d'aide à la conduite tels qu'Autopilot, ainsi que les essais de véhicules autonomes. La NHTSA s'est principalement appuyée sur des directives volontaires pour les véhicules, adoptant une approche non interventionniste afin de ne pas entraver le développement de nouvelles technologies de sécurité.

Sumwalt a déclaré que Tesla utilise les personnes qui ont acheté les voitures pour tester son logiciel de "conduite entièrement autonome" sur les routes publiques avec une surveillance ou des exigences de rapport limitées. « Étant donné que la NHTSA n'a mis en place aucune exigence, les fabricants peuvent faire rouler et tester des véhicules pratiquement n'importe où, même si l'emplacement dépasse les limites du système de contrôle du véhicule autonome (AV) », a écrit Sumwalt.

Il a ajouté : « Bien que Tesla inclue un avertissement selon lequel "les fonctionnalités actuellement activées nécessitent une supervision active du conducteur et ne rendent pas le véhicule autonome", l'approche non interventionniste de la NHTSA en matière de surveillance des tests des AV pose un risque potentiel pour les automobilistes et les autres usagers de la route ». Cependant, ces derniers mois, la NHTSA, qui a le pouvoir de réglementer les systèmes de conduite automatisée et de demander des rappels si nécessaire, semble avoir développé un intérêt renouvelé pour ces systèmes.

Malgré les milliards de dollars dépensés jusqu'à présent, les constructeurs automobiles n'ont pas encore produit de véhicule complètement autonome. Le système de Tesla a atteint le niveau 2 d'autonomie, selon l'échelle de la Society of Automotive Engineers, ce qui est encore loin de l'autonomie complète et nécessite la présence d'une personne sur le siège du conducteur qui peut prendre le contrôle si nécessaire.

La feuille de calcul de la NHTSA indique également que l’agence a ouvert six autres enquêtes sur six autres accidents impliquant des systèmes d'aide à la conduite, dont deux impliquant des véhicules Cadillac dans lesquels aucun blessé n'a été signalé. Les quatre autres comprennent deux accidents impliquant un Lexus RX450H 2012 et un Navya Arma 2017 dans lesquels aucun blessé n'a été signalé.

Les deux autres impliquent des véhicules Volvo XC90 de 2017, dont un véhicule d'essai à conduite autonome d'Uber Technologies qui a heurté et tué une femme en Arizona en 2018. Uber a pris une série de décisions de développement qui ont contribué à la cause de l'accident et a désactivé les systèmes de freinage automatique d'urgence dans le véhicule Volvo XC90, ont constaté les enquêteurs de sécurité.

Source : NHTSA

Et vous ?

Quel commentaire faites-vous du nombre d’accidents impliquant Autopilot de Tesla depuis cinq ans ?
Que pensez-vous de la progression de la conduite autonome ?

Voir aussi :

Deux personnes sont tuées dans un accident d'une voiture Tesla sans personne au volant, l'Autopilot serait activé, et les batteries de la voiture ne cessaient de raviver les flammes
Vous devez désormais être éveillé et assis dans le siège du conducteur pour conduire une Tesla, la caméra de l'habitacle veillera à cela lorsque Autopilot est activé
Autopilot de Tesla peut être "facilement" trompé pour fonctionner sans personne sur le siège du conducteur, selon Consumer Reports, mais « vous ne devriez pas essayer ça »
Une conductrice de secours d'Uber inculpée dans un accident de conduite autonome de 2018 qui a tué une femme, pour avoir été distraite dans les moments précédant l'accident mortel
Vous avez lu gratuitement 0 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Fagus
Membre expert https://www.developpez.com
Le 19/03/2025 à 14:01
Au contraire, je trouve que c'est pédagogique. En dehors des initiés, personne ne sait ce qu'est un lidar.

Certes, les paysages à la tex avery sont rares (attention aux fresques murales !), mais ça illustre qu'un système basé sur la vision pâtit des limites de la vision.

Leur système ne sera-t-il pas handicapé la nuit, dans le brouillard, face à un obstacle sombre (ex un piéton habillé en noir), là où un lidar aurait fait l'affaire ?
3  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 19/03/2025 à 13:19
Citation Envoyé par Mathis Lucas Voir le message
[B]Le YouTubeur Mark Rober a mis à l'épreuve la technologie Autopilot de sa Tesla Model Y en installant un piège à la Looney Toons. Mark Rober a installé un mur de polystyrène avec une image de route dessus, au milieu d'une route réelle, pour voir comment le système réagit. Ce test met en lumière les différences entre les caméras et les capteurs LiDAR.
Autant j'aime pas Tesla autant il y a moment faut arrêter de nous prendre pour des cons. En effet, il n'est pas compliqué de trompé un système basé sur la vision avec un trompe l'œil.
Je vais faire une expérience en vous faisant gouter des danettes à l'aveugle et en vous demandant leur couleur. Si je ne prends que des danettes dont le gout et la couleurs ne coïncident pas je vous ai trompé mais je n'ai rien prouvé d'utile.
Je peux demander à un daltonien d'identifier des couleurs avec précision, il se trompera régulièrement.
Parce que scoop mais il est fort rare que des murs avec des trompe l'œil de route en traverse une.

Et je me souviens que plusieurs d'entre nous avons manifester notre surprise quand Musk a décidé de virer les Lidar (ou autre système du genre) des Tesla.
0  0 
Avatar de Ryu2000
Membre extrêmement actif https://www.developpez.com
Le 19/03/2025 à 14:02
Citation Envoyé par Mathis Lucas Voir le message
Citation Envoyé par Elon Musk
This level of violence is insane and deeply wrong.

Tesla just makes electric cars and has done nothing to deserve these evil attacks.
C'est vraiment mauvais pour l'environnement de bruler un véhicule électrique.
Ça ne produit pas que du simple CO2, ça produit de la pollution beaucoup plus grave. (fluorure d’hydrogène)

J'espère que des coupables se feront prendre et punir sévèrement.
Pour qu'on voit si c'était des anti Musk qui s'en foutent de l'écologie ou des anti Musk qui s'intéressent à l'écologie, ce serait des hypocrite qui ont des priorités étranges.
Elon Musk n'a rien fait de mal.
C'est un gars qui aime bien dire de la merde sur Twitter et qui n'est pas trop fan de la théorie du genre…

Citation Envoyé par Mathis Lucas Voir le message
Quelles leçons doit-on tirer de ce test ? Quelle comparaison faites-vous entre le LiDAR et la vision par ordinateur ?
On s’en fiche, la voiture n’est pas censée se conduire toute seule. C’est toujours le conducteur qui est responsable. S’il y a un accident, c’est de sa faute, pas celle d’un logiciel.
Et dans le monde réel il n'y a pas de mur peint comme dans Road Runner and Wile E. Coyote.

Citation Envoyé par Mathis Lucas Voir le message
Que pensez-vous de la situation catastrophique dans laquelle se trouve actuellement Tesla ?
D'un côté je n'aime pas Tesla, donc je m'en fous un peu.
Mais j'aurais préféré que l'entreprise s'effondre pour de meilleures raisons.

C'est n'importe quoi d'attaquer Tesla à cause d'Elon Musk.
C'est qu'un type dans une entreprise…

Moi par exemple je n'aime pas Bill Gates, ça ne m'empêche pas d'utiliser des logiciels et des périphériques Microsoft. (même à l'époque où il faisait encore parti de l'entreprise)

Vous savez quand il y a un réalisateur accusé de pédophilie comme Woody Allen ou Roman Polanski on dit qu'il faut "séparer l'art de l'artiste".
Ben là ça pourrait être pareil, sauf qu'Elon Musk n'a jamais commis de crime.
Soutenir un tout petit peu l'AfD ce n'est pas un crime et en plus ça n'a pas fonctionné, puisque le parti n'a pas fait un score énorme au final.

====
Elon Musk pourrait démissionner de Tesla, ça pourrait régler des problèmes.
En plus ça lui dégagerait un peu de temps pour travailler sur The Boring Company.
0  0