Pourtant, la société a nié certains des problèmes de suspension et de direction dans des déclarations aux régulateurs américains et au public – et, selon les dossiers de Tesla, a cherché à transférer une partie des coûts de réparation qui en résultent sur les clients.
Tesla a imputé les pannes fréquentes de plusieurs pièces aux propriétaires de Tesla, alléguant qu'ils avaient abusé des voitures, selon des entretiens avec d'anciens directeurs de service, des dossiers de l'entreprise et une lettre de Tesla de 2020 adressée à la National Highway Traffic Safety Administration (NHTSA) des États-Unis. Dans d’autres cas, le constructeur automobile a facturé à ses clients des voitures hors garantie pour remplacer des pièces que les ingénieurs de Tesla qualifiaient en interne de défectueuses ou dont ils savaient qu’elles présentaient des taux de défaillance élevés. Les ingénieurs ont ordonné des refontes répétées de plusieurs pièces et ont discuté de la possibilité de demander un remboursement aux fournisseurs en raison des défauts.
Au moins 11 conducteurs ont déclaré à Tesla qu'un accident avait été causé par une défaillance de la suspension, de la direction ou de la roue, selon les dossiers de l'entreprise consultés par Reuters. Ces réclamations d'accidents, qui n'ont pas été rapportées auparavant par les médias, ont été enregistrées par le personnel de Tesla entre 2018 et 2021 et confiées à des ingénieurs ou des techniciens pour examen.
En avril 2021, le propriétaire d'une Model 3 2020 avec moins de 24 140 kilomètres au compteur s'est rendu dans un centre de réparation Tesla à Brooklyn, New York, après un accident. Résumé du technicien : « La roue avant est tombée lors d’une conduite en Autopilot à 96 km/h », faisant référence au système d'assistance à la conduite de Tesla. La voiture accidentée a été vendue, sans la roue avant, en novembre 2021, selon les archives des enchères.
Le mois suivant, un autre propriétaire d'un Model X 2020 à Madrid a signalé qu'une roue était tombée en conduisant, selon les archives. Aucun des deux conducteurs n’est identifié dans les dossiers, qui ne détaillent pas non plus la manière dont Tesla a réagi.
Tesla aurait imposé une politique interne visant à éviter de consigner par écrit les plaintes des clients
Plus tôt cette année, le média allemand Handelsblatt a reçu environ 100 gigaoctets de données provenant d’un lanceur d’alerte de Tesla sous la forme d’au moins 23 000 fichiers comprenant des PDF, des tableurs et des courriels. La fuite comprend des données d’employés et de clients, ainsi que des milliers de plaintes impliquant des Tesla qui accélèrent toutes seules, des rapports d’accidents et des allégations de freinage d’urgence (baptisés « freinage fantôme) causé par des avertissements de collision défectueux.
Les fichiers contiendraient également un document détaillant la politique de Tesla à l’égard de ses employés, qui leur demandait de communiquer uniquement verbalement avec les clients sur les détails de leurs plaintes, en leur interdisant notamment de mettre les rapports par écrit dans des courriels ou de laisser des détails sur les messageries vocales.
Les fichiers comprennent également des tableaux contenant plus de 100 000 noms d’anciens et actuels employés, y compris le numéro de sécurité sociale du chef de la direction de Tesla, Elon Musk, ainsi que des adresses e-mail privées, des numéros de téléphone, salaires des employés, coordonnées bancaires des clients et détails secrets de la production. Les plaintes les plus anciennes dont dispose le Handelsblatt datent de 2015, la plus récente de mars 2022. Au cours de cette période, Tesla a livré environ 2,6 millions de véhicules avec le logiciel Autopilot. La plupart des incidents ont eu lieu aux États-Unis, mais il y a aussi des plaintes de l’Europe et de l’Asie dans les documents — y compris de nombreux conducteurs allemands de Tesla. Le journal Handelsblatt a contacté des dizaines de clients de plusieurs pays. Tous ont confirmé les informations des fichiers Tesla. Au cours des discussions, ils ont donné un aperçu de leurs expériences avec le pilote automatique. Certains ont révélé leur communication avec le constructeur automobile américain, d’autres ont montré des vidéos de l’accident des journalistes de Handelsblatt.
« Ils n’envoyaient jamais d’e-mails, tout était toujours verbal », aurait déclaré à Handelsblatt un médecin californien. Le médecin aurait signalé un incident en 2021 affirmant que sa voiture avait accéléré toute seule et s’était écrasée contre des piliers en béton.
Dans une partie traduite du reportage de Handelsblatt, les employés de Tesla auraient été informés de marquer les avis et les plaintes comme étant « à usage interne uniquement » et de ne correspondre verbalement qu’avec les clients.
« Chaque entrée contient également la mention en caractères gras que l’information, si elle doit être transmise, ne peut l’être que ‘VERBALEMENT au client’ », indique la traduction. « Ne copiez pas et ne collez pas le rapport ci-dessous dans un e-mail, un message texte ou ne le laissez pas dans une messagerie vocale au client », est-il mentionné. Les données du véhicule ne doivent pas non plus être divulguées sans autorisation. Si, malgré le conseil, « une implication d’un avocat ne peut être évitée », alors « cela doit être consigné ».
Le rédacteur en chef de Handelsblatt, Sebastian Matthes, a publié une note accompagnant le reportage expliquant la décision du média de publier le contenu des données divulguées, qui pourrait violer le droit à la vie privée de l’Union européenne, après des mois d’enquête sur les fichiers et d’interviews de clients mécontents.
Tesla n’a pas répondu aux demandes de commentaires de Handelsblatt ni aux demandes ultérieures d’autres médias. La société dirigée par Elon Musk fait l’objet d’une enquête du National Highway Traffic Safety Administration (NHTSA) aux États-Unis sur plus d’une douzaine d’accidents impliquant son système d’assistance à la conduite Autopilot.
Plusieurs plaintes d'utilisateurs
Steve Wozniak, le cofondateur d’Apple qui a possédé plusieurs modèles de Tesla déclare également avoir fait les frais de ce pilote automatique qui a eu un comportement dangereux à plusieurs reprises. Sur une autoroute par exemple, il rapporte que la voiture a freiné de 120 km/h à 40 km/h sur une autoroute « sans rien autour, pas de voitures, rien du tout ». Heureusement pour lui, il n’y avait pas non plus d’obstacles derrière lui, sinon il aurait pu provoquer un accident. C’est pourquoi il s’est montré très amer au mois de mai dernier lorsqu’il a été interrogé sur l’intelligence artificielle qui soutient ce système de conduite autonome des véhicules Tesla. Steve Wozniak n’y est pas allé de main morte et a vertement fustigé la conduite autonome mise en avant par l’entreprise d’Elon Musk. Selon le cofondateur d’Apple, l’IA des véhicules Tesla essayera de vous tuer dès qu’elle en a l’occasion.
Jeremy Banner, un conducteur d’un véhicule Tesla modèle 3 n’a pas eu la même chance que Wozniak et a heurté un camion-tracteur en combinaison avec une semi-remorque sur l’autoroute 441 à Delray Beach, Palm Beach County, en Floride au mois de au mars 2019. Selon le rapport d’enquête du NTSB, Jeremy Banner, qui est décédé environ un an plus tard à Delray Beach, avait activé la fonction Autopilot de sa berline Model 3 10 secondes avant l’accident, puis a retiré ses mains du volant. La voiture est alors passée sous la semi-remorque qui traversait devant lui, faisant une embardée sur le toit de la voiture et tuant Banner. Cet accident était étrangement similaire à un autre survenu en Floride en 2016 dans lequel un véhicule Tesla sur pilote automatique est passé sous une semi-remorque. Dans un rapport préliminaire, le NTSB a toutefois précisé que les causes de l’accident mortel de Banner n’ont pas encore été élucidées.
Malgré ces rapports et les plaintes des utilisateurs concernant la conduite entièrement autonome (abrégé FSD en anglais) des véhicules Tesla, l’entreprise n’a pas manqué de mettre ce système à la disposition du public en version bêta depuis le mois de novembre dernier. Il faut souligner qu’une fois activé, ce système active toutes les fonctionnalités fournies avec les fonctionnalités de pilote automatique et de pilote automatique amélioré de Tesla, y compris les changements de voie automatiques, l’autoguidage, le stationnement automatique, etc. Pour éviter des pertes en vies humaines ainsi que des dégâts matériels, la National Highway Traffic Safety Administration a commencé à mener des investigations dans le logiciel FSD de Tesla en janvier après que le PDG de Tesla, Elon Musk, a tweeté que la société donnerait aux utilisateurs la possibilité de désactiver le volant de direction. Environ un mois plus tard, l’agence a considéré que cette possibilité de désactiver le volant de direction constituait un risque de collision, ce qui a conduit au rappel de 362 758 voitures équipées de FSD et mis un coup d’arrêt au déploiement du FSD dans les véhicules.
Conclusion
« Nous fabriquons les meilleures voitures », a déclaré Elon Musk à propos de Tesla lors d'un événement du New York Times le mois dernier. « Que vous me détestiez, m'aimiez ou que vous soyez indifférent, la question est : "voulez-vous la meilleure voiture ou ne voulez-vous pas la meilleure voiture ?" »
La manière dont Tesla a traité les plaintes concernant les suspensions et les systèmes de direction reflète une tendance au sein de l’empire corporatif de Musk à rejeter les préoccupations concernant la sécurité ou d’autres préjudices soulevées par les clients, les travailleurs et d’autres personnes alors qu’il se précipite pour déployer de nouveaux produits ou augmenter ses ventes, a constaté Reuters.
Source : Reuters
Et vous ?
Que pensez-vous de la responsabilité de Tesla dans les accidents l’Autopilot ?
Croyez-vous que Tesla a trompé les consommateurs sur les capacités et les limites de l’Autopilot ?
Pensez-vous que l’Autopilot devrait être interdit ou restreint jusqu’à ce qu’il soit prouvé qu’il est fiable et sûr ?
Quelles mesures de sécurité supplémentaires devraient être mises en place pour empêcher les abus du système ?
Quels sont les avantages et les inconvénients de la conduite assistée par rapport à la conduite humaine ?