IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Tesla a blâmé les conducteurs pour les pannes de pièces dont elle savait depuis longtemps qu'elles étaient défectueuses
L'Autopilot n'est pas la seule source de problèmes avec ses véhicules

Le , par Stéphane le calme

0PARTAGES

6  0 
Contrairement aux constructeurs automobiles traditionnels, qui font appel à des concessionnaires indépendants pour vendre et réparer leurs véhicules, Tesla vend directement aux clients et possède et exploite une grande partie de ses centres de service. Cela donne au constructeur automobile une visibilité en temps réel extraordinairement détaillée sur les pannes de pièces, les réparations et les demandes de garantie, que les ingénieurs de Tesla ont méticuleusement suivis et analysés pendant des années, selon les dossiers de l'entreprise.

Pourtant, la société a nié certains des problèmes de suspension et de direction dans des déclarations aux régulateurs américains et au public – et, selon les dossiers de Tesla, a cherché à transférer une partie des coûts de réparation qui en résultent sur les clients.


Tesla a imputé les pannes fréquentes de plusieurs pièces aux propriétaires de Tesla, alléguant qu'ils avaient abusé des voitures, selon des entretiens avec d'anciens directeurs de service, des dossiers de l'entreprise et une lettre de Tesla de 2020 adressée à la National Highway Traffic Safety Administration (NHTSA) des États-Unis. Dans d’autres cas, le constructeur automobile a facturé à ses clients des voitures hors garantie pour remplacer des pièces que les ingénieurs de Tesla qualifiaient en interne de défectueuses ou dont ils savaient qu’elles présentaient des taux de défaillance élevés. Les ingénieurs ont ordonné des refontes répétées de plusieurs pièces et ont discuté de la possibilité de demander un remboursement aux fournisseurs en raison des défauts.

Au moins 11 conducteurs ont déclaré à Tesla qu'un accident avait été causé par une défaillance de la suspension, de la direction ou de la roue, selon les dossiers de l'entreprise consultés par Reuters. Ces réclamations d'accidents, qui n'ont pas été rapportées auparavant par les médias, ont été enregistrées par le personnel de Tesla entre 2018 et 2021 et confiées à des ingénieurs ou des techniciens pour examen.

En avril 2021, le propriétaire d'une Model 3 2020 avec moins de 24 140 kilomètres au compteur s'est rendu dans un centre de réparation Tesla à Brooklyn, New York, après un accident. Résumé du technicien : « La roue avant est tombée lors d’une conduite en Autopilot à 96 km/h », faisant référence au système d'assistance à la conduite de Tesla. La voiture accidentée a été vendue, sans la roue avant, en novembre 2021, selon les archives des enchères.

Le mois suivant, un autre propriétaire d'un Model X 2020 à Madrid a signalé qu'une roue était tombée en conduisant, selon les archives. Aucun des deux conducteurs n’est identifié dans les dossiers, qui ne détaillent pas non plus la manière dont Tesla a réagi.


Tesla aurait imposé une politique interne visant à éviter de consigner par écrit les plaintes des clients

Plus tôt cette année, le média allemand Handelsblatt a reçu environ 100 gigaoctets de données provenant d’un lanceur d’alerte de Tesla sous la forme d’au moins 23 000 fichiers comprenant des PDF, des tableurs et des courriels. La fuite comprend des données d’employés et de clients, ainsi que des milliers de plaintes impliquant des Tesla qui accélèrent toutes seules, des rapports d’accidents et des allégations de freinage d’urgence (baptisés « freinage fantôme) causé par des avertissements de collision défectueux.

Les fichiers contiendraient également un document détaillant la politique de Tesla à l’égard de ses employés, qui leur demandait de communiquer uniquement verbalement avec les clients sur les détails de leurs plaintes, en leur interdisant notamment de mettre les rapports par écrit dans des courriels ou de laisser des détails sur les messageries vocales.

Les fichiers comprennent également des tableaux contenant plus de 100 000 noms d’anciens et actuels employés, y compris le numéro de sécurité sociale du chef de la direction de Tesla, Elon Musk, ainsi que des adresses e-mail privées, des numéros de téléphone, salaires des employés, coordonnées bancaires des clients et détails secrets de la production. Les plaintes les plus anciennes dont dispose le Handelsblatt datent de 2015, la plus récente de mars 2022. Au cours de cette période, Tesla a livré environ 2,6 millions de véhicules avec le logiciel Autopilot. La plupart des incidents ont eu lieu aux États-Unis, mais il y a aussi des plaintes de l’Europe et de l’Asie dans les documents — y compris de nombreux conducteurs allemands de Tesla. Le journal Handelsblatt a contacté des dizaines de clients de plusieurs pays. Tous ont confirmé les informations des fichiers Tesla. Au cours des discussions, ils ont donné un aperçu de leurs expériences avec le pilote automatique. Certains ont révélé leur communication avec le constructeur automobile américain, d’autres ont montré des vidéos de l’accident des journalistes de Handelsblatt.

« Ils n’envoyaient jamais d’e-mails, tout était toujours verbal », aurait déclaré à Handelsblatt un médecin californien. Le médecin aurait signalé un incident en 2021 affirmant que sa voiture avait accéléré toute seule et s’était écrasée contre des piliers en béton.

Dans une partie traduite du reportage de Handelsblatt, les employés de Tesla auraient été informés de marquer les avis et les plaintes comme étant « à usage interne uniquement » et de ne correspondre verbalement qu’avec les clients.

« Chaque entrée contient également la mention en caractères gras que l’information, si elle doit être transmise, ne peut l’être que ‘VERBALEMENT au client’ », indique la traduction. « Ne copiez pas et ne collez pas le rapport ci-dessous dans un e-mail, un message texte ou ne le laissez pas dans une messagerie vocale au client », est-il mentionné. Les données du véhicule ne doivent pas non plus être divulguées sans autorisation. Si, malgré le conseil, « une implication d’un avocat ne peut être évitée », alors « cela doit être consigné ».

Le rédacteur en chef de Handelsblatt, Sebastian Matthes, a publié une note accompagnant le reportage expliquant la décision du média de publier le contenu des données divulguées, qui pourrait violer le droit à la vie privée de l’Union européenne, après des mois d’enquête sur les fichiers et d’interviews de clients mécontents.

Tesla n’a pas répondu aux demandes de commentaires de Handelsblatt ni aux demandes ultérieures d’autres médias. La société dirigée par Elon Musk fait l’objet d’une enquête du National Highway Traffic Safety Administration (NHTSA) aux États-Unis sur plus d’une douzaine d’accidents impliquant son système d’assistance à la conduite Autopilot.


Plusieurs plaintes d'utilisateurs

Steve Wozniak, le cofondateur d’Apple qui a possédé plusieurs modèles de Tesla déclare également avoir fait les frais de ce pilote automatique qui a eu un comportement dangereux à plusieurs reprises. Sur une autoroute par exemple, il rapporte que la voiture a freiné de 120 km/h à 40 km/h sur une autoroute « sans rien autour, pas de voitures, rien du tout ». Heureusement pour lui, il n’y avait pas non plus d’obstacles derrière lui, sinon il aurait pu provoquer un accident. C’est pourquoi il s’est montré très amer au mois de mai dernier lorsqu’il a été interrogé sur l’intelligence artificielle qui soutient ce système de conduite autonome des véhicules Tesla. Steve Wozniak n’y est pas allé de main morte et a vertement fustigé la conduite autonome mise en avant par l’entreprise d’Elon Musk. Selon le cofondateur d’Apple, l’IA des véhicules Tesla essayera de vous tuer dès qu’elle en a l’occasion.

Jeremy Banner, un conducteur d’un véhicule Tesla modèle 3 n’a pas eu la même chance que Wozniak et a heurté un camion-tracteur en combinaison avec une semi-remorque sur l’autoroute 441 à Delray Beach, Palm Beach County, en Floride au mois de au mars 2019. Selon le rapport d’enquête du NTSB, Jeremy Banner, qui est décédé environ un an plus tard à Delray Beach, avait activé la fonction Autopilot de sa berline Model 3 10 secondes avant l’accident, puis a retiré ses mains du volant. La voiture est alors passée sous la semi-remorque qui traversait devant lui, faisant une embardée sur le toit de la voiture et tuant Banner. Cet accident était étrangement similaire à un autre survenu en Floride en 2016 dans lequel un véhicule Tesla sur pilote automatique est passé sous une semi-remorque. Dans un rapport préliminaire, le NTSB a toutefois précisé que les causes de l’accident mortel de Banner n’ont pas encore été élucidées.

Malgré ces rapports et les plaintes des utilisateurs concernant la conduite entièrement autonome (abrégé FSD en anglais) des véhicules Tesla, l’entreprise n’a pas manqué de mettre ce système à la disposition du public en version bêta depuis le mois de novembre dernier. Il faut souligner qu’une fois activé, ce système active toutes les fonctionnalités fournies avec les fonctionnalités de pilote automatique et de pilote automatique amélioré de Tesla, y compris les changements de voie automatiques, l’autoguidage, le stationnement automatique, etc. Pour éviter des pertes en vies humaines ainsi que des dégâts matériels, la National Highway Traffic Safety Administration a commencé à mener des investigations dans le logiciel FSD de Tesla en janvier après que le PDG de Tesla, Elon Musk, a tweeté que la société donnerait aux utilisateurs la possibilité de désactiver le volant de direction. Environ un mois plus tard, l’agence a considéré que cette possibilité de désactiver le volant de direction constituait un risque de collision, ce qui a conduit au rappel de 362 758 voitures équipées de FSD et mis un coup d’arrêt au déploiement du FSD dans les véhicules.

Conclusion

« Nous fabriquons les meilleures voitures », a déclaré Elon Musk à propos de Tesla lors d'un événement du New York Times le mois dernier. « Que vous me détestiez, m'aimiez ou que vous soyez indifférent, la question est : "voulez-vous la meilleure voiture ou ne voulez-vous pas la meilleure voiture ?" »

La manière dont Tesla a traité les plaintes concernant les suspensions et les systèmes de direction reflète une tendance au sein de l’empire corporatif de Musk à rejeter les préoccupations concernant la sécurité ou d’autres préjudices soulevées par les clients, les travailleurs et d’autres personnes alors qu’il se précipite pour déployer de nouveaux produits ou augmenter ses ventes, a constaté Reuters.

Source : Reuters

Et vous ?

Que pensez-vous de la responsabilité de Tesla dans les accidents l’Autopilot ?
Croyez-vous que Tesla a trompé les consommateurs sur les capacités et les limites de l’Autopilot ?
Pensez-vous que l’Autopilot devrait être interdit ou restreint jusqu’à ce qu’il soit prouvé qu’il est fiable et sûr ?
Quelles mesures de sécurité supplémentaires devraient être mises en place pour empêcher les abus du système ?
Quels sont les avantages et les inconvénients de la conduite assistée par rapport à la conduite humaine ?

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Axel Mattauch
Membre averti https://www.developpez.com
Le 14/02/2024 à 11:46
Citation Envoyé par grunk Voir le message
Rappel c'est un bien grand mot , il vont juste pousser une màj sur les véhicule comme il le font en permanence.
...et remplacer un ancien bug par un nouveau.
C'est ce que font la plupart des mises à jour.
2  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 14/02/2024 à 12:02
On nous a vendu un faux sentiment de sécurité
aux français aussi, bienvenue au club
1  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 14/03/2024 à 10:54
Citation Envoyé par Stéphane le calme Voir le message
Quelle est votre opinion sur les résultats de l’étude de l’IIHS concernant les systèmes de conduite automatisée partielle ?
on savait déjà que ça coute une blinde, se montre non rentable et que presque personne n'en veut aussi parce que ça ne fonctionne pas et qu'en plus les constructeurs voudraient que l'utilisateur soit responsable des arbitrages techniques et comportementaux des constructeurs. Rien de neuf donc pas de surprise dans les résultats de l’étude.

Citation Envoyé par Stéphane le calme Voir le message
Pensez-vous que la technologie de conduite automatisée est prête pour une utilisation généralisée ou nécessite-t-elle encore des améliorations significatives ?
Drôle de question vu que c'est l'objet du fil que de parler du fait que ça ne fait pas le job, que pour faire le job il faudrait des trucs super couteux et que c'est un casse tête juridique a tel point que bon nombre d'acteurs s'interroge sur l'intéret à s'acharner sur le sujet. Non la techno n'est pas prête et elle est très loin de l'être.
Citation Envoyé par Stéphane le calme Voir le message
Comment les constructeurs automobiles peuvent-ils améliorer la surveillance du conducteur pour garantir une utilisation sûre des systèmes de conduite automatisée ?
Laisser le conducteur conduire pour que son attention soit normale. On ne peut pas faire 99% du job du conducteur et lui demander d'être 100% concentré pour gérer le 1% qui reste. La conduite assisté peut apporter beaucoup par l’apport d'informations et autres assistances au conducteur, sans pour autant conduire à sa place, ce qui n'a pas d’intérêt à part zapper son attention qui est toujours exigée.
Citation Envoyé par Stéphane le calme Voir le message
Quelles mesures devraient être prises pour renforcer la confiance du public dans les technologies de conduite automatisée ?
1) Comprendre que depuis des décennies les pubs sur les voitures parlent de "plaisir de conduire"
2) Comprendre qu'une IA a besoin de valider ses données et a donc besoin de plusieurs sources de données concurrentes ; de simples cameras bon marché seules ne permettront jamais la conduite autonome
3) Comprendre que personne n'a envie de payer une blinde pour un truc qui ne lui apporte rien.
4) Comprendre que seul le constructeur peut être responsable des accidents, sauf a laisser l'utilisateur choisir le comportement de la machine
5) Comprendre que tout le monde a déjà eu un appareil en panne et que au fond de nous on sait tous qu'une voiture qui part dans le décors ça fait mal, personne ne pourra jamais lutter contre ce biais psychologique, surtout après l'épisode Musk qui ment sur les accidents.
6) Faire des systèmes qui aident le conducteur mais ne conduisent pas à sa place.
7) éventuellement faire des systèmes en environnement contrôlé, une file de voiture dédiée aux véhicules compatibles ou chaque véhicule apporte l'information à l'ensemble du convoi et s'accorde à l'ensemble du convoi (c'est le modèle du train, la faculté à rester sur la route en plus, on sait faire)

Citation Envoyé par Stéphane le calme Voir le message
Le classement de Tesla en tant que pire système évalué vous surprend-il ? Pourquoi ou pourquoi pas ?
bien sur que non, faire le choix de ne conserver que des caméras, pour le coût et pour ne pas perturber le beau design du véhicule ne pouvait pas être efficace et ne pouvait tenir que le temps que le mensonge sur les chiffres ne reste secret.

Citation Envoyé par Stéphane le calme Voir le message
Quel rôle les régulateurs et les organismes de sécurité devraient-ils jouer dans l’évaluation et l’approbation des systèmes de conduite automatisée ?
en premier lieu, interdire totalement et sans restriction les essais confiés aux utilisateurs comme le fait Tesla. Sur le modèle de ce qui se fait en aéronautique la validation des équipements et logiciels est rigoureux avant mise en production et n'est pas modifié OTA au bon vouloir d'un doigt carré dans un bureau.
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 14/03/2024 à 14:00
Citation Envoyé par petitours Voir le message
Sur le modèle de ce qui se fait en aéronautique la validation des équipements et logiciels est rigoureux avant mise en production et n'est pas modifié OTA au bon vouloir d'un doigt carré dans un bureau.
Musk aurait-il racheter Boeing ?
1  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 16/04/2024 à 7:53
Citation Envoyé par Mathis Lucas Voir le message
Les critiques ont rapporté notamment que leurs voitures heurtent les bordures de trottoir lorsqu'elles tentent de tourner en mode Full Self-Driving.
Faites confiance au FSD il est plus performants que le chauffeur d'auto école à sa première de conduite moyen.
Selon de nombreux internautes, la solution consiste à suivre les recommandations de Tesla et à superviser le FSD pendant qu'il roule. (Ils doivent garder en permanence les mains sur le volant.)
Le FSD fonctionne très bien si vous conduisez en parallèle de lui.
Musk et Tesla n'ont pas répondu aux commentaires des internautes sur les performances médiocres du FSD.
Fake it, till you make it, bro.
C'est marrant comme Musk, très bavard est muet dans certaines situations...
L'ancienne conseillère principale en matière de sécurité de la NHTSA, Missy Cummings, a noté que l'augmentation des accidents de Tesla était troublante. « Tesla connaît plus d'accidents graves - et mortels - que les personnes dans un ensemble de données normal », a-t-elle déclaré. Selon Cummings, l'une des causes probables est le déploiement à grande échelle du FSD [dont le nom signifie littéralement "conduite entièrement autonome"]. « Le fait est que n'importe qui et tout le monde peut l'avoir. Est-il raisonnable de s'attendre à ce que cela entraîne une augmentation des taux d'accidents ? Bien sûr, absolument ».
Ah bon, en plus statistiquement le FSD est plus mauvais que le conducteur moyen?
Et la NHTSA constate ça mais n'agit pas? Je ne comprend décidément pas les USA et leur règlementation

Je ne comprends pas comment le FSD peut heurter des trottoirs, c'est quand même l'un des éléments de l'environnement automobile le plus courant et en plus il est particulièrement fixe.
1  0 
Avatar de domi65
Membre éclairé https://www.developpez.com
Le 04/02/2024 à 12:52
La NHTSA a dû se conformer à la loi sur la sécurité des véhicules, qui protège la confidentialité des entreprises.
Sommes-nous dans un mode orwellien ?

Une loi censée améliorer la sécurité des véhicules s'occupe en fait de protéger les intérêts des entreprises ?
1  1 
Avatar de unanonyme
Membre éclairé https://www.developpez.com
Le 04/02/2024 à 13:32
Non c'est le fonctionnement normal des USA, et de la privatisation en général.

Les entreprises financent les autorités qui les régulent,
ce sont les entreprises qui évaluent et rapportent sur la qualité
et la nocivité de leurs produits.

La NHTSA publie les données que les fabricants de voitures lui fournissent sur les accidents liés à des systèmes comme l’Autopilot de Tesla.
Selon le New Yorker, Tesla aurait demandé aux autorités de sécurité routière de ne pas divulguer les informations relatives à l’usage de ses logiciels d’assistance à la conduite lors d’accidents.
Ce qui fait dire,
Cette pratique pose problème quant à la transparence et la responsabilité de l’entreprise,
Alors qu'il faudrait s'interroger à la qualité de l'outil réglementaire
à atteindre l'objectif que celui ci doit bien avoir inscrit quelque part
dans ces articles constituant.

En résumé, tout fonctionne comme il se doit
puisque c'est ainsi que les choses ont été faites pour fonctionner,
même si par ailleurs,
ça semble aberrant.
1  1 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 04/02/2024 à 18:51
La vidéos sur les crashes est juste incroyable tellement les comportements de la voiture sont inadaptés. Il y a des trucs ou ça semble avoir mal ou pas vu mais il y a pire dans les cas où elle a manifestement bien vu mais réagit n'importe comment en continuant là ou il ne faut pas, en faisant une embardée super brutale au point de perdre le contrôle du véhicule...
Rien que ces quelques exemples devraient suffire à n'importe quelle autorité pour interdire tous les "essais" confiés aux clients plutôt qu'à des pilotes d'essai formés et équipés.
Je me doutais que le pilotage "autonome" et en particulier celui des Tesla basé sur des cameras ne valait pas un clou mais je ne pensais pas que c’était à ce point.
0  1