La vidéo est l'une des nombreuses obtenues par le Wall Street Journal en lien avec une enquête de la National Highway Traffic Safety Administration (NHTSA). La NHTSA est une agence fédérale américaine des États-Unis chargée de la sécurité routière. Cette enquête dure depuis la mi-2021 et concerne la manière dont Autopilot gère les véhicules d'urgence arrêtés sur la route. À ce jour, il a été impliqué, sans être jugé fautif, dans au moins 16 accidents.
Dans la vidéo principale, une Tesla Model X semble percuter une voiture de police arrêtée sans aucun avertissement. Si l'on creuse un peu plus les détails, les responsabilités deviennent beaucoup plus floues.
Le WSJ a également obtenu des données de la Tesla impliquée dans l'accident, qui montrent de nombreux appels à plus d'attention de la part du conducteur. En fait, au moment où l'accident se produit, le système a alerté le conducteur pour qu'il soit plus attentif pas moins de 150 fois sur une période d'environ 45 minutes. Néanmoins, le système n'a pas reconnu un manque d'engagement au point de couper l'Autopilot.
Au bout de 45 minutes, la Tesla percute une voiture de police arrêtée sur la voie de droite. Les données du système Autopilot montrent qu'il a reconnu la voiture arrêtée 37 mètres ou 2,5 secondes avant l'accident. Le système Autopilot ralentit également la voiture avant de la désengager complètement. Le film montre clairement que tout conducteur vigilant aurait reconnu la situation et changé de voie.
[tweet]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">A WSJ analysis of dashcam footage and data from a Texas crash shows Tesla’s Autopilot system failed to recognize stopped emergency vehicles. <a href="https://t.co/sWBc4aAAoq">https://t.co/sWBc4aAAoq</a></p>— The Wall Street Journal (@WSJ) <a href="https://twitter.com/WSJ/status/1689399944489181185?ref_src=twsrc%5Etfw">August 9, 2023</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/tweet]
Les policiers blessés dans l'accident poursuivent Tesla, et non le conducteur prétendument en état d'ébriété, à la suite de l'accident. Tesla affirme que la faute incombe au conducteur. Dans au moins un autre cas, c'est exactement ce qu'un tribunal a conclu. L'Autopilot semble avoir fonctionné exactement comme prévu et un conducteur en état d'ébriété n'a pas fait son travail derrière le volant ici.
Et la réalité est que n'importe quel véhicule avec un régulateur de vitesse et un conducteur en état d'ébriété au volant aurait probablement percuté la voiture de police à une vitesse plus élevée. L'Autopilot est peut-être décrié pour son nom, mais les conducteurs sont en fin de compte responsables de la manière dont ils choisissent de piloter n'importe quelle voiture, y compris une Tesla.
Source : Le Wall Street Journal
Er vous ?
Pensez-vous que les noms Autopilot et FSD induisent les conducteurs en erreur ? Doivent-ils, à votre avis, être changés ?
Quelle lecture en faites-vous ? Des implications potentielles pour Tesla ?
Voir aussi :
Tesla confronté à une nouvelle enquête de la NHTSA sur son système d'intelligence artificielle "Autopilot", après la mort de trois personnes dans un accident impliquant un model S
La Tesla Model S qui a provoqué un carambolage à San Francisco était en mode Full Self-Driving selon les données publiées par le gouvernement fédéral
Un ingénieur d'Apple mort dans l'accident de son véhicule Tesla s'était déjà plaint du logiciel Autopilot, et de ses dysfonctionnements, après l'application d'une mise à jour
Le logiciel « full-self-driving » de Tesla aurait provoqué un accident impliquant huit voitures, le conducteur a déclaré à la police que « le logiciel de conduite autonome avait mal fonctionné »