
Le contexte de l'innovation automobile et des défis réglementaires en Chine
Tesla a présenté son logiciel de conduite autonome, le Full Self-Driving (FSD), comme une révolution dans le domaine des voitures « intelligentes ». Cette technologie promettait d’offrir une conduite totalement autonome, avec des capacités allant de la gestion de la vitesse à la navigation dans les rues sans intervention humaine. Cependant, la réalité de la conduite autonome n’a pas répondu à toutes les attentes. Les régulations mondiales sur la sécurité et les tests en conditions réelles ont exposé des limites à la technologie, incitant de nombreux pays à adopter une approche plus prudente vis-à-vis de son déploiement.
En Chine, Tesla s'est vu confronté à des régulations strictes concernant la sécurité des véhicules autonomes.
Tesla a modifié le nom de son logiciel de conduite intelligente dans le pays, en supprimant la mention FSD du pack le plus cher. Le changement a été effectué le 25 mars et le nom du logiciel vendu au prix de 64 000 yuans RMB (8 810 €) est passé de « FSD Intelligent Assisted Driving » (FSD 智能辅助驾驶




La description générale de ces fonctions a été modifiée, passant de « Autopilot Automated Assisted Driving » (Autopilot自动辅助驾驶


Hormis le changement de nom, les fonctions de ces trois packs restent inchangées et correspondent respectivement à FSD (Full Self-Driving), Enhanced Autopilot (EAP) et Basic Autopilot (BAP).
Tesla a initialement appelé FSD « Full Self-driving Capability » (完全自动驾驶能力

Une capture d'écran du site web de Tesla Chine montre le dernier nom donné par Tesla à son logiciel de conduite intelligente.
Le retrait du terme "FSD" de son logiciel dans ce pays pourrait être perçu comme une tentative de se conformer à des exigences locales et d’apaiser les préoccupations des autorités, qui sont particulièrement vigilantes vis-à-vis des nouvelles technologies, surtout celles liées à la sécurité publique et à la confidentialité des données.
Le 25 février, Tesla a commencé à déployer en Chine des fonctions de conduite intelligente avancées, similaires à la FSD aux États-Unis, et a évité de mentionner la FSD dans l'introduction à l'époque. Cela a été perçu comme l'introduction officielle de la FSD en Chine. Le nom de la fonction a ensuite été modifié, passant de « Full Self-driving Capability » à « FSD Intelligent Assisted Driving ».
Le 17 mars, Tesla a annoncé qu'elle permettrait aux véhicules éligibles d'expérimenter gratuitement les fonctions FSD jusqu'au 16 avril. Toutefois, le fabricant américain de véhicules électriques a ensuite suspendu l'essai gratuit, expliquant sur Weibo que c'était parce qu'il devait encore terminer l'approbation du logiciel de conduite assistée intelligente. « Toutes les parties font activement avancer le processus concerné et, une fois qu'il sera prêt, il sera diffusé dès que possible », a déclaré le service d'assistance à la clientèle de Tesla sur Weibo.
Ces dernières années, Tesla a permis aux clients chinois d'acheter le logiciel FSD pour 64 000 yuans RMB. Toutefois, la FSD n'étant pas disponible en Chine, même les vendeurs de Tesla ne recommandaient pas aux clients d'acheter le logiciel. En revanche, la plupart des constructeurs automobiles locaux, y compris Xpeng et BYD, fournissent leurs fonctions ADAS (système avancé d'aide à la conduite) gratuitement aux propriétaires de voitures.
La Californie adopte une loi qui interdit à Tesla l'appellation Full Self-Driving
Pour la Californie, c’est de la publicité mensongère qui laisse croire que les véhicules Tesla sont totalement autonomes.
« Un fabricant ou un concessionnaire ne doit pas nommer une fonction d'automatisation partielle de conduite ou décrire une fonction d'automatisation partielle de conduite dans des documents publicitaires en utilisant un langage qui implique ou qui pourrait autrement amener une personne raisonnable à croire que la fonction permet au véhicule de fonctionner comme un véhicule autonome ou qu'elle possède une fonctionnalité qui n'est pas réellement incluse dans la fonction. Une violation de cette subdivision est considérée comme une publicité mensongère », lit-on.
Tesla n'offre plus le logiciel Full Self-Driving à la vente, mais plutôt une version dite supervisée
Tesla a entamé l’alignement avec le commentaire du texte de loi californien ci-dessus, modifiant la terminologie marketing autour de son logiciel de conduite autonome. Auparavant, les clients avaient la possibilité d'acheter le « Full Self-Driving Capability » (capacité de conduite autonome complète), avec un texte additionnel indiquant que le FSD sera « continuellement améliorée ». Ce texte spécifique n'est plus proposé, et à la place, les clients ne peuvent désormais acheter que le « FSD (supervisé) », qui ne mentionne plus l'amélioration continue. Le changement apparaît comme un aveu de publicité mensongère.
De multiples incidents illustrent le fait que l’utilisation de la terminologie "Full Self-Driving" par Tesla constitue une exagération des capacités de ses véhicules
Un agent de la police de Fullerton enquêtait sur un accident mortel vers minuit près des avenues Orangethorpe et Courtney. L'officier gérait la circulation et des fusées de détresse avaient été placées sur la route. L'agent se tenait à l'extérieur de son véhicule de patrouille, dont les feux de détresse étaient allumés et a réussi à s'écarter avant que le conducteur d'une Tesla bleue ne percute sa voiture. Aucun policier n'a été blessé dans l'accident. Le conducteur de la Tesla affirme qu'il conduisait le véhicule en mode de conduite autonome tout en utilisant son téléphone portable, selon le rapport de police. Il est resté sur les lieux et a coopéré à l'enquête.
Une Tesla se trouve à deux doigts de se faire écraser par un train parce que la technologie de conduite autonome n’a pas détecté ce dernier
C’est grâce à l’intervention du propriétaire que le pire ne s’est pas produit. Le conducteur déclare que sa Tesla n'a pas ralenti à l'approche du train et qu'il a freiné et pris la direction de la voiture manuellement, la faisant dévier de la route pour éviter le train.
« Je me suis dit qu'il était impossible qu'il ne voie pas le train. Il est impossible qu'il ne voie pas les feux clignotants. Oui, il y avait du brouillard, mais on pouvait quand même voir les lumières », précise-t-il.
L'accident s'est produit dans la matinée du 8 mai. Doty, évaluateur général certifié dans l'Ohio, conduisait à environ 100 km par heure, selon un rapport d'accident de Tesla. La limite de vitesse sur la route était de moins de 90 km par heure, selon Doty et un rapport de police associé à l'accident. Les conducteurs peuvent demander des rapports d'accident à Tesla, qui sont générés à partir des données que les voitures individuelles envoient aux serveurs de Tesla. La vidéo même a été enregistrée par le véhicule accidenté.
Tesla procède même à des falsifications de l’autonomie de ses véhicules selon certains rapports
Selon une enquête de Reuters, le constructeur aurait truqué le logiciel qui affiche la distance restante avant de devoir recharger la batterie. Au lieu de montrer la valeur réelle, le logiciel aurait donné une estimation « optimiste » de l’autonomie, sur ordre du PDG Elon Musk il y a environ 10 ans.
Cette pratique aurait entraîné un afflux de plaintes et de demandes de réparation de la part des clients qui s’attendaient à une plus grande autonomie, surtout par temps froid. Certains propriétaires ont rapporté des autonomies inférieures à la moitié de celles annoncées, notamment pour le Model 3 qui promet 374 miles (602 km) sur une charge...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.