Un agent de la police de Fullerton enquêtait sur un accident mortel vers minuit près des avenues Orangethorpe et Courtney. L'officier gérait la circulation et des fusées de détresse avaient été placées sur la route. L'agent se tenait à l'extérieur de son véhicule de patrouille, dont les feux de détresse étaient allumés et a réussi à s'écarter avant que le conducteur d'une Tesla bleue ne percute sa voiture. Aucun policier n'a été blessé dans l'accident. Le conducteur de la Tesla affirme qu'il conduisait le véhicule en mode de conduite autonome tout en utilisant son téléphone portable, selon le rapport de police. Il est resté sur les lieux et a coopéré à l'enquête.
Un incident qui fait suite à un autre dans lequel une Tesla se trouve à deux doigts de se faire écraser par un train parce que la technologie de conduite autonome n’a pas détecté ce dernier.
C’est grâce à l’intervention du propriétaire que le pire ne s’est pas produit. Le conducteur déclare que sa Tesla n'a pas ralenti à l'approche du train et qu'il a freiné et pris la direction de la voiture manuellement, la faisant dévier de la route pour éviter le train.
« Je me suis dit qu'il était impossible qu'il ne voie pas le train. Il est impossible qu'il ne voie pas les feux clignotants. Oui, il y avait du brouillard, mais on pouvait quand même voir les lumières », précise-t-il.
L'accident s'est produit dans la matinée du 8 mai. M. Doty, évaluateur général certifié dans l'Ohio, conduisait à environ 100 km par heure, selon un rapport d'accident de Tesla. La limite de vitesse sur la route était de moins de 90 km par heure, selon Doty et un rapport de police associé à l'accident. Les conducteurs peuvent demander des rapports d'accident à Tesla, qui sont générés à partir des données que les voitures individuelles envoient aux serveurs de Tesla. La vidéo même a été enregistrée par le véhicule accidenté.
Tesla enchaîne les procès en raison des dégâts qui résultent des défaillances de son système dénommé Full Self-Driving
Tesla doit faire face à un procès intenté par des propriétaires de véhicules sur la question de la conduite autonome. Ils accusent Elon Musk de les avoir induits en erreur en leur faisant croire que leurs véhicules pourraient bientôt être dotés de capacités de conduite autonome.
Tesla Autopilot est un système avancé d'aide à la conduite développé par Tesla qui équivaut à une automatisation partielle du véhicule (automatisation de niveau 2, selon la définition de SAE International). Tesla fournit un "Autopilot de base" sur tous les véhicules, qui comprend le centrage sur la voie et le régulateur de vitesse en fonction du trafic.
Les propriétaires peuvent acheter une mise à niveau vers l'"Enhanced Autopilot" (EA), qui ajoute la navigation semi-autonome sur les routes à accès limité, le stationnement automatique et la possibilité d'appeler la voiture depuis un garage ou une place de parking. Full Self-Driving (FSD) est le nom donné par Tesla à son programme d'essais bêta visant à atteindre la conduite entièrement autonome (SAE Level 5). L'appellation est controversée, car les véhicules fonctionnant sous FSD restent au niveau 2 d'automatisation et ne sont donc pas "entièrement autonomes" et nécessitent une supervision active de la part du conducteur.
L'intention déclarée de l'entreprise est d'offrir une conduite entièrement autonome à l'avenir, tout en reconnaissant que des obstacles techniques et réglementaires doivent être surmontés pour atteindre cet objectif. Depuis 2013, le PDG de Tesla, Elon Musk, a fait à plusieurs reprises des prédictions inexactes selon lesquelles Tesla atteindrait l'autonomie de niveau 5 dans un délai d'un à trois ans.
Un juge américain a rejeté récemment la demande de Tesla de rejeter une plainte accusant le constructeur de voitures électriques d'Elon Musk d'avoir fait croire aux propriétaires que leurs véhicules pourraient bientôt être dotés de capacités de conduite autonome. Le recours collectif proposé à l'échelle nationale accuse Tesla et Musk d'avoir, depuis 2016, faussement annoncé qu'Autopilot et d'autres technologies de conduite autonome étaient fonctionnelles ou "juste au coin de la rue", incitant les conducteurs à payer plus cher pour leurs véhicules.
La juge du district de San Francisco, Rita Lin, a déclaré que les propriétaires pouvaient engager des poursuites pour négligence et fraude, dans la mesure où ils s'étaient fiés aux déclarations de Tesla concernant le matériel des véhicules et leur capacité à conduire d'une côte à l'autre des États-Unis. Sans se prononcer sur le fond, M. Lin a déclaré que "si Tesla voulait faire croire que son matériel était suffisant pour atteindre un niveau d'automatisation élevé ou complet, l'allégation est manifestement suffisamment fausse".
L'affaire a été menée par Thomas LoSavio, un avocat californien à la retraite qui a déclaré avoir payé une prime de 8 000 $ en 2017 pour les capacités de conduite autonome complète (FSD) sur une Tesla Model S, pensant que cela rendrait la conduite plus sûre si ses réflexes se détérioraient à mesure qu'il vieillissait. LoSavio a déclaré qu'il attendait toujours la technologie six ans plus tard, Tesla restant incapable "même de loin" de produire une voiture à conduite entièrement autonome.
L'action en justice vise à obtenir des dommages et intérêts non spécifiés pour les personnes qui, depuis 2016, ont acheté ou loué des véhicules Tesla dotés des fonctions Autopilot, Enhanced Autopilot et Full Self-Driving. Depuis de nombreuses années, Tesla fait l'objet d'enquêtes fédérales visant à déterminer si sa technologie de conduite autonome a pu contribuer à des accidents mortels.
Les procureurs fédéraux examinent séparément si Tesla a commis une fraude en matière de valeurs mobilières ou une fraude électronique en trompant les investisseurs sur les capacités de conduite autonome de ses véhicules, selon trois personnes familières avec l'affaire.
Tesla a déclaré que l'Autopilot permettait aux véhicules de se diriger, d'accélérer et de freiner dans leur voie, et que le Full Self-Driving permettait aux véhicules d'obéir aux feux de signalisation et de changer de voie. Mais l’entreprise a reconnu qu'aucune de ces technologies ne rendait les véhicules autonomes, ni ne dispensait les conducteurs de prêter attention à la route.
La Californie a même adopté une loi pour interdire à Tesla d’appeler le logiciel de ses véhicules Full Self Driving
Le PDG de Cruise est d’avis que « même dans des décennies, l’on n’obtiendra pas de véhicules véritablement autonomes à 100 %. » Pourtant, le constructeur américain Tesla associe de la terminologie comme Full Self-Driving ou Autopilot à la publicité de ses véhicules. C’est la raison pour laquelle la Californie a procédé à l’adoption d’une loi qui interdit à Tesla d’appeler le logiciel de ses véhicules Full Self-Driving. Motif : c’est de la publicité mensongère qui laisse croire que les véhicules Tesla sont totalement autonomes.
« Un fabricant ou un concessionnaire ne doit pas nommer une fonction d'automatisation partielle de conduite ou décrire une fonction d'automatisation partielle de conduite dans des documents publicitaires en utilisant un langage qui implique ou qui pourrait autrement amener une personne raisonnable à croire que la fonction permet au véhicule de fonctionner comme un véhicule autonome ou qu'elle possède une fonctionnalité qui n'est pas réellement incluse dans la fonction. Une violation de cette subdivision est considérée comme une publicité mensongère », lit-on.
Et vous ?
Partagez-vous les avis selon lesquels les véhicules Tesla ne sont pas prêts pour rouler sur des routes publiques ?
Quel commentaire faites-vous de la politique publicitaire autour des systèmes d'aide à la conduite de Tesla ?
Voir aussi :
L'Autopilot de Tesla fait l'objet d'une nouvelle enquête visant à vérifier l'efficacité d'une mise à jour publiée après le rappel de plus de 2 millions de véhicules. La NHTSA exprime des doutes
Un juge trouve des preuves que Tesla et Musk étaient au courant du défaut de l'Autopilot. Les déclarations de Musk auraient eu un effet significatif sur la croyance concernant les capacités du produit
Les avocats de Tesla affirment que les déclarations passées d'Elon Musk sur la sécurité de l'Autopilot pourraient n'être que des deepfakes, un juge a déclaré que cet argument est "troublant"