L'Autopilot, le système avancé d'aide à la conduite de Tesla, fait actuellement l'objet d'un examen minutieux en raison d'un procès en cours aux États-Unis. Le procès découle d'une action en justice alléguant que l'Autopilot a fait dévier un conducteur de Model 3 d'une autoroute et l'a fait entrer en collision avec un arbre. La voiture a heurté un palmier et pris feu, le tout en l'espace de quelques secondes. L'accident, survenu en 2019, a entraîné la mort du conducteur, Micah Lee, et causé de graves blessures à deux passagers. Les proches de Lee ont poursuivi Tesla en justice, alléguant que l'Autopilot a causé sa mort. Le procès a commencé le mois dernier.
La plainte affirme que Tesla a sciemment vendu des véhicules équipés de systèmes Autopilot et Full Self-Driving (FSD) défectueux. En 2019, Lee, 37 ans, a payé 6 000 $ pour le pack FSD. À l'époque, le FSD était capable de maintenir la voiture dans sa voie tout en gardant une distance de sécurité avec le véhicule qui la précédait. Le constructeur automobile a par la suite ajouté des fonctions plus avancées au système. (Tesla a augmenté les prix de l'Autopilot et du FSD au cours des trois dernières années.) Tesla nie les allégations de la famille Lee, affirmant qu'il n'est même pas clair si l'Autopilot était engagé au moment où la voiture de Lee s'est écrasée.
Appelé à témoigner dans le cadre du procès, Eloy Rubio Blanco, ingénieur chez Tesla, a réfuté les allégations de l'avocat de la famille Lee selon lesquelles le nom "Full Self-Driving" (conduite autonome complète) avait été choisi pour tromper le public. Selon Blanco, les conducteurs de Tesla sont conscients du fait que les véhicules Tesla sont autonomes. « Est-ce que je pense que nos conducteurs pensent que nos véhicules sont autonomes ? Non », a déclaré Rubio, selon une transcription du procès. Tesla avait initialement demandé à ce que le témoignage de son ingénieur reste confidentiel en raison de préoccupations liées aux secrets commerciaux.
Bien que le juge ait rejeté cette demande, il a ordonné de couper le flux audio en direct du tribunal pendant les déclarations de Blanco. Lors de son témoignage, Blanco a néanmoins reconnu que les véhicules Tesla vendus en 2019 pouvaient présenter des "défauts latents" en raison de la complexité du logiciel du véhicule. Il a déclaré que le système d'aide à la conduite de Tesla avait certaines limites. Par exemple, Blanco a indiqué que l'Autopilot pouvait identifier de manière imprécise un objet, ce qui conduisait la voiture à décélérer. En outre, il a admis que dans certaines situations, le freinage automatique peut s'avérer insuffisant pour éviter une collision.
L'affirmation de Blanco selon laquelle l'appellation "Full Self-Driving" n'implique pas l'autonomie a été vivement critiquée. « Il ne dit nulle part ailleurs comment il pense que le public est censé interpréter "Full Self-Driving". En tant que locuteur natif de l'anglais, je suis déconcerté de penser à ce que cela pourrait signifier d'autre », lit-on dans les commentaires. Un autre critique a écrit : « si "Full Self-Driving" et "Autopilot" n'impliquent pas l'autonomie, quel terme de l'art pourrait l'impliquer ? Ces termes impliquent l'autonomie. Ils sont suffisamment explicites et ne souffrent d'aucune ambiguïté. Et l'on ne pourrait les comprendre autrement ».
On peut lire aussi : « ce qu'ils prétendent avoir voulu dire n'a aucune importance. "Full Self-Driving" (conduite autonome complète) et Autopilot (pilote automatique) sont deux termes de science-fiction qui font référence à un comportement autonome. Le fait que Tesla dit qu'ils n'impliquent pas l'autonomie est presque certainement de mauvaise foi et même si ce n'est pas le cas, cela devrait toujours être de la publicité mensongère simplement parce qu'ils ont choisi ces termes. Tesla n'a aucune porte de sortie en ce qui concerne la signification de ces deux termes. Le mensonge n'a que trop duré et il est temps que Tesla réponde de cela ».
Pour démontrer que Tesla a toujours été dans l'optique de susciter l'euphorie des consommations avec ces termes, d'autres critiques ont rappelé les noms choisis par les concurrents pour leurs systèmes d'aide à la conduite. « Au sein de l'industrie, pratiquement tous les autres constructeurs automobiles ont réussi à trouver des noms plutôt génériques pour leurs implémentations de l'autonomie de niveau 2-3 : Ford BlueCruise, GM Super Cruise, BMW Driving Assistance Professional, Mercedes Drive Pilot (le premier système certifié de niveau 3 aux États-Unis), Toyota Safety Sense 3.0, Rivian Highway Assist, etc. », peut-on lire dans les commentaires.
« Ces noms impliquent tous que la voiture fait quelque chose pour vous aider à conduire, mais aucun d'entre eux n'implique de signification supplémentaire sur leurs capacités ou ne suggère quoi que ce soit sur leur autonomie. Tesla est pratiquement la seule entreprise à adopter des noms - Autopilot, et plus tard, "Full Self-Driving" - qui sont chargés d'une signification culturelle et linguistique. Cela a permis à Tesla d'emprunter l'excitation et le prestige des développements : il ne s'agit pas tant de regarder où nous sommes, mais où nous allons et comment certains petits éléments de ce futur sont présents dans le système actuel », ajoute le critique.
Selon les experts, les termes choisis par Tesla ont bien fonctionné pour les efforts de publicité, mais pas pour éduquer les conducteurs sur ce que leurs voitures étaient réellement capables de faire ou sur ce qu'elles faisaient. « En tant que pilote, cela m'irrite qu'ils [Tesla] aient donné une nouvelle définition. Les pilotes automatiques existent depuis longtemps et ont une signification très spécifique. Ils nécessitent une formation, une connaissance de leurs limites, une surveillance constante et des interventions manuelles fréquentes. Je ne suis pas sûr de ce que Tesla pensait faire en présentant ce terme comme "sans intervention », indique un pilote.
On retrouve toutefois des commentaires qui viennent soutenir les déclarations de Blanco. « Même si je déteste Musk et le désordre que Tesla a créé avec le FSD, je ne pense pas que nous ne pouvions pas blâmer le marketing de Tesla pour l'idée fausse que le public se fait de ce que fait le pilote automatique d'un avion. En effet, la fonction Autopilot de Tesla est en fait assez similaire à celle d'un simple pilote automatique d'avion, avec des limitations très similaires. À la base, il s'agit simplement d'une aide à la conduite pour le suivi des voies, combinée à un régulateur de vitesse adaptatif. Mais les choses sont parties en vrille après », note un critique.
Mais dans le débat dans la communauté, un critique a réfuté l'argument précédent en rappelant une ancienne déclaration de Musk : « on se souvient tous il y a quelques années que Musk poussait l'idée selon laquelle les propriétaires de Tesla pourraient gagner des revenus passifs en laissant leurs voitures équipées du FSD agir comme des taxis autonomes. Musk a fait ces déclarations entre 2018 et 2019 et s'attendait à ce que cela se concrétise en à peine cinq ans. Musk a même évoqué l'idée selon laquelle les robots taxis Tesla pouvaient concurrencer Uber et Lyft ». Mais à ce jour, l'Autopilot et le FSD restent des systèmes d'aide à la conduite de niveau 2.
Le témoignage de Blanco s'est déroulé à huis clos, ce qui nous empêche de le consulter dans son intégralité et dans son contexte. Selon d'autres experts, Blanco parlait peut-être du fait que le FSD était étiqueté comme un "logiciel expérimental" et qu'il fallait donc s'attendre à des bogues. « Tesla utilise en effet le futur dans toutes ses campagnes de marketing et cet ingénieur n'a peut-être pas pris en compte les attentes dues à un nom par rapport à des affirmations explicites sur les performances. D'après les autres extraits du témoignage, il ne semble pas qu'il couvre Tesla en général, donc un contexte supplémentaire serait utile », a écrit un critique.
L'année dernière, Tesla a été poursuivi en justice dans le cadre d'une proposition de recours collectif accusant le constructeur de voitures électriques de Musk d'avoir trompé le public en faisant une publicité mensongère pour ses fonctions Autopilot et FSD. La plainte accuse Tesla et Musk d'avoir fait de la publicité mensongère. Selon la plainte, Tesla a présenté l'Autopilot comme étant pleinement fonctionnel alors qu'ils savaient que la technologie ne fonctionnait pas ou était inexistante, et qu'elle rendait les véhicules peu sûrs. Selon les plaignants, Tesla n'a encore rien produit qui s'approche, ne serait-ce que de loin, d'une voiture entièrement autonome.
Source : Témoignage d'Eloy Rubio Blanco, ingénieur chez Tesla, devant la Cour supérieure du comté de Riverside, en Californie
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des déclarations de l'ingénieur de Tesla ?
Tesla s'est-il livré à une publicité mensongère avec ces appellations ?
Selon vous, les termes "Autopilot" et Full Self-Driving" impliquent-ils ou non l'autonomie ?
Tesla devrait-il être contraint à changer les noms de ses systèmes d'aide à la conduite ?
Selon vous, le constructeur électrique pourrait-il gagner ce procès ?
Que pensez-vous des nombreuses critiques à l'égard de l'Autopilot et le Full Self-Driving ?
L'Autopilot et le Full Self-Driving peuvent-ils être considérés comme des technologies fiables ?
Voir aussi
Le mode Full Self-Driving de Tesla a tellement énervé cet homme qu'il se présente au Sénat, Dan O'Dowd est mécontent du fait que le logiciel bêta de Tesla soit testé sur la voie publique
Tesla se prépare à son premier procès impliquant un accident mortel lié à l'Autopilot, dans ce qui sera probablement un test majeur des affirmations d'Elon Musk au sujet de la technologie
Une Tesla en mode Autopilot a percuté des voitures de police malgré les gyrophares, selon un procès