Tesla a modifié la terminologie marketing autour de son logiciel de conduite autonome. Auparavant, les clients avaient la possibilité d'acheter le « Full Self-Driving Capability » (capacité de conduite autonome complète), avec un texte additionnel indiquant que le FSD sera « continuellement améliorée ». Ce texte spécifique n'est plus proposé, et à la place, les clients ne peuvent désormais acheter que le « FSD (supervisé) », qui ne mentionne plus l'amélioration continue. Le changement apparaît comme un aveu de publicité mensongère.
En effet, il fait suite à l’adoption d’une loi en Californie qui interdit à Tesla d’appeler le logiciel de ses véhicules autonomes Full Self-Driving car c’est de la publicité mensongère qui laisse croire que les véhicules Tesla sont entièrement autonomes.
Tesla entame ainsi l’alignement avec le commentaire du texte de loi californien selon lequel « Un fabricant ou un concessionnaire ne doit pas nommer une fonction d'automatisation partielle de conduite ou décrire une fonction d'automatisation partielle de conduite dans des documents publicitaires en utilisant un langage qui implique ou qui pourrait autrement amener une personne raisonnable à croire que la fonction permet au véhicule de fonctionner comme un véhicule autonome ou qu'elle possède une fonctionnalité qui n'est pas réellement incluse dans la fonction. Une violation de cette subdivision est considérée comme une publicité mensongère. »
De multiples incidents permettent en effet d’arriver à la conclusion que l’utilisation de la terminologie Full Self-Driving par Tesla constitue une exagération des capacités de ses véhicules
Un agent de la police de Fullerton enquêtait sur un accident mortel vers minuit près des avenues Orangethorpe et Courtney. L'officier gérait la circulation et des fusées de détresse avaient été placées sur la route. L'agent se tenait à l'extérieur de son véhicule de patrouille, dont les feux de détresse étaient allumés et a réussi à s'écarter avant que le conducteur d'une Tesla bleue ne percute sa voiture. Aucun policier n'a été blessé dans l'accident. Le conducteur de la Tesla affirme qu'il conduisait le véhicule en mode de conduite autonome tout en utilisant son téléphone portable, selon le rapport de police. Il est resté sur les lieux et a coopéré à l'enquête.
Une Tesla se trouve à deux doigts de se faire écraser par un train parce que la technologie de conduite autonome n’a pas détecté ce dernier
C’est grâce à l’intervention du propriétaire que le pire ne s’est pas produit. Le conducteur déclare que sa Tesla n'a pas ralenti à l'approche du train et qu'il a freiné et pris la direction de la voiture manuellement, la faisant dévier de la route pour éviter le train.
« Je me suis dit qu'il était impossible qu'il ne voie pas le train. Il est impossible qu'il ne voie pas les feux clignotants. Oui, il y avait du brouillard, mais on pouvait quand même voir les lumières », précise-t-il.
L'accident s'est produit dans la matinée du 8 mai. M. Doty, évaluateur général certifié dans l'Ohio, conduisait à environ 100 km par heure, selon un rapport d'accident de Tesla. La limite de vitesse sur la route était de moins de 90 km par heure, selon Doty et un rapport de police associé à l'accident. Les conducteurs peuvent demander des rapports d'accident à Tesla, qui sont générés à partir des données que les voitures individuelles envoient aux serveurs de Tesla. La vidéo même a été enregistrée par le véhicule accidenté.
Tesla procède même à des falsifications de l’autonomie de ses véhicules selon certains rapports
Selon une enquête de Reuters, le constructeur aurait truqué le logiciel qui affiche la distance restante avant de devoir recharger la batterie. Au lieu de montrer la valeur réelle, le logiciel aurait donné une estimation « optimiste » de l’autonomie, sur ordre du PDG Elon Musk il y a environ 10 ans.
Cette pratique aurait entraîné un afflux de plaintes et de demandes de réparation de la part des clients qui s’attendaient à une plus grande autonomie, surtout par temps froid. Certains propriétaires ont rapporté des autonomies inférieures à la moitié de celles annoncées, notamment pour le Model 3 qui promet 374 miles (602 km) sur une charge complète. Un conducteur a même déclaré que sa batterie se vidait si rapidement par temps froid qu’il devait s’arrêter pratiquement toutes les heures pour recharger.
La distance que les véhicules électriques peuvent parcourir avant de devoir être rechargés est l'un des principaux inconvénients auxquels les voitures sont confrontées par rapport aux véhicules à essence. L'ordre de gonfler l'autonomie affichée sur les voitures a été donné par le PDG de Tesla, Elon Musk, il y a environ 10 ans, selon Reuters. L'agence de presse a déclaré qu'elle ne pouvait pas déterminer si les algorithmes étaient toujours utilisés.
Pour faire face à ce problème, Tesla aurait créé une équipe secrète à Las Vegas, baptisée « Diversion Team », chargée d’annuler les rendez-vous liés à l’autonomie. Selon Reuters, les employés de cette équipe célébraient chaque annulation en jouant du xylophone acheté par un superviseur. Certains collègues se seraient même levés sur leurs bureaux pour applaudir chaque annulation. Les managers de Tesla auraient dit aux employés qu’ils faisaient économiser 1 000 dollars à l’entreprise pour chaque annulation.
La performance de l'équipe était mesurée par le nombre de rendez-vous annulés chaque jour et l'équipe clôturait souvent la semaine par des centaines de cas de ce genre. Dans la plupart des cas, les voitures n'avaient probablement pas besoin d'être réparées; leur performance avait simplement été surestimée.
Ce n'est pas la première controverse à laquelle l'entreprise fait face.
L’automatisation dans les véhicules actuels est considérée comme étant au niveau 2, selon plusieurs rapports
L’automatisation disponible dans les véhicules disponibles à l’achat aujourd’hui est considérée comme étant de niveau 1 ou 2. Elle s’applique aux systèmes capables d’exécuter une ou plusieurs parties de la tâche de conduite sous la supervision du conducteur. Ces systèmes sont loin de l’automatisation de niveau 5, dans laquelle toute la tâche de conduite peut être effectuée sans intervention humaine dans toutes les conditions.
Une étude a révélé comment les noms utilisés par les fabricants pour ces systèmes peuvent envoyer les mauvais messages aux conducteurs en ce qui concerne leur degré d'attention. Une autre a révélé que les conducteurs ne comprenaient pas toujours les informations importantes communiquées par les écrans du système.
Un autre cas pratique est celui du nom "Autopilot”. Ce dernier est susceptible de conduire les gens à surestimer les capacités de la technologie d'assistance au conducteur de Tesla. Les critiques préviennent que certains clients vont supposer qu’un système appelé “Autopilot” (pilote automatique) est totalement autonome. Les défenseurs de Tesla répliquent en soulignant que les capacités de pilotage automatique des avions ne sont pas totalement autonomes. Les pilotes doivent encore surveiller leur fonctionnement et intervenir en cas de problème, et le système de pilote automatique de Tesla n'est pas différent.
Une enquête de l'Institut d'assurance pour la sécurité routière fournit des données précieuses utiles à ce débat. Le groupe a posé des questions aux conducteurs sur les capacités de cinq systèmes avancés d'assistance au conducteur (ADAS - advanced driver-assistance systems). Ils ont identifié les produits uniquement par leur marque : Autopilot (utilisé par Tesla), Traffic Jam Assist (Audi et Acura), Super Cruise (Cadillac), Driving Assistant Plus (BMW) et ProPilot Assist (Nissan). Les participants à l'enquête ne savaient pas quel constructeur fabriquait chaque produit et ils n'en connaissaient pas les capacités. Il y avait 2 000 répondants au total, mais chacun n'a été interrogé que sur deux systèmes sur cinq, donnant lieu à quelques centaines de réponses pour chaque produit.
Il faut préciser qu’aucun de ces systèmes ne gère de manière fiable le maintien de la voie et le contrôle de la vitesse dans toutes les situations. Tous exigent que les conducteurs restent attentifs, et tous sauf Super Cruise, avertissent le conducteur si leurs mains ne sont pas détectées sur le volant. Super Cruise utilise plutôt une caméra pour surveiller le regard du conducteur et émettra un avertissement si le conducteur ne regarde pas vers l'avant.
Pour chaque système ADAS, les conducteurs ont été interrogés sur la sécurité de diverses activités qui ne sont pas recommandées par les constructeurs automobiles (de l’acte consistant à enlever ses mains du volant à la sieste pendant la conduite). Un plus grand nombre de participants ont estimé que poser chacun de ces actes était sans conséquence avec Autopilot activé plutôt qu'avec l'un des quatre autres systèmes ADAS.
Par exemple, 48% des personnes interrogées ont déclaré qu’il était sans danger pour un conducteur d’enlever ses mains du volant quand Autopilot était activé, contre environ 33% pour ProPilot Assist et moins de 30% pour les autres systèmes nommés. Six pour cent des conducteurs ont déclaré qu'il était sans danger de faire la sieste dans une voiture avec Autopilot activé, tandis que seulement trois pour cent ont déclaré la même chose pour les autres systèmes ADAS.
Sources : Tesla1, Tesla2
Et vous ?
Quel commentaire faites-vous de la politique publicitaire autour des systèmes d'aide à la conduite de Tesla ?
Voir aussi :
L'Autopilot de Tesla fait l'objet d'une nouvelle enquête visant à vérifier l'efficacité d'une mise à jour publiée après le rappel de plus de 2 millions de véhicules. La NHTSA exprime des doutes
Un juge trouve des preuves que Tesla et Musk étaient au courant du défaut de l'Autopilot. Les déclarations de Musk auraient eu un effet significatif sur la croyance concernant les capacités du produit
Les avocats de Tesla affirment que les déclarations passées d'Elon Musk sur la sécurité de l'Autopilot pourraient n'être que des deepfakes, un juge a déclaré que cet argument est "troublant"