Le mode de conduite entièrement autonome « Mad Max » de Tesla, qui encourage une conduite agressive ignorant les limitations de vitesse, fait l'objet d'une enquête des autorités réglementaires américainesLes autorités fédérales examinent une nouvelle fois Tesla, cette fois-ci au sujet d'une nouvelle version de son logiciel d'aide à la conduite appelé « Mad Max », qui, selon les premiers utilisateurs, permet aux véhicules de la société de rouler plus vite et de manœuvrer de manière plus agressive qu'auparavant. La National Highway Traffic Safety Administration (NHTSA) a confirmé avoir contacté Tesla pour demander des informations sur cette fonctionnalité, qui fait partie du système de conduite entièrement autonome (FSD) de l'entreprise.
Tesla fait l'objet d'une nouvelle enquête fédérale sur d'éventuels défauts de sécurité dans son système de conduite partiellement automatisé, commercialisé sous le nom de FSD, ou Full Self-Driving (Supervised) aux États-Unis. Cette enquête fait suite à 44 incidents distincts au cours desquels des conducteurs de Tesla utilisant le FSD ont déclaré que le système les avait amenés à commettre des infractions au code de la route. La National Highway Traffic Safety Administration a déclaré que l'enquête concernait environ 2 882 566 véhicules Tesla équipés du FSD.
En effet, Elon Musk promet une conduite autonome intégrale sans supervision depuis 2016. Environ une décennie plus tard, sa promesse est loin d'être tenue. La version actuelle de son logiciel Full Self-Driving (FSD) présente encore de graves limites techniques et expose les utilisateurs à des risques réels. Lors d'un test du FSD, le logiciel a violemment percuté un obstacle sur la route. Le conducteur n’avait pas les mains sur le volant au moment où le passager signale les débris bien en avance. Le véhicule a été gravement endommagé en raison de l'impact : barre de torsion brisée, composants de la suspension touchés, nombreux avertissements du système.
Plus récemment, les autorités fédérales examinent une nouvelle fois Tesla, cette fois-ci au sujet d'une nouvelle version de son logiciel d'aide à la conduite appelé « Mad Max », qui, selon les premiers utilisateurs, permet aux véhicules de la société de rouler plus vite et de manœuvrer de manière plus agressive qu'auparavant. La National Highway Traffic Safety Administration (NHTSA) a confirmé avoir contacté Tesla pour demander des informations sur cette fonctionnalité, qui fait partie du système de conduite entièrement autonome (FSD) de l'entreprise.
L'agence a déclaré que son enquête visait à déterminer si ce mode encourageait des comportements contraires au code de la route, tels que le dépassement des limites de vitesse ou les changements de voie brusques. « Le conducteur au volant reste responsable de la conduite du véhicule en toute sécurité et dans le respect de toutes les lois », a déclaré l'agence dans un communiqué.
Ce regain d'attention intervient alors que la NHTSA poursuit une enquête plus large sur près de trois millions de véhicules Tesla équipés du FSD après avoir reçu des dizaines de plaintes, notamment des signalements de voitures brûlant des feux rouges ou s'engageant dans des intersections malgré les feux tricolores. Selon les données fédérales, ces incidents ont entraîné au moins 14 accidents et 23 blessés.
La société a précédemment déclaré que le FSD est conçu pour aider les conducteurs attentifs, et non pour les remplacer. Tesla commercialise ce système comme étant capable de naviguer « presque partout » sous la supervision d'un humain. Tesla a d'abord expérimenté un profil de conduite « Mad Max » en 2018 dans le cadre de son premier logiciel Autopilot. Ce concept, qui tire son nom de la franchise cinématographique célèbre pour ses courses-poursuites effrénées, désignait un mode permettant de changer de voie plus rapidement et de gérer le trafic de manière plus assertive.
La société a discrètement réintroduit cette fonctionnalité ce mois-ci dans une mise à jour logicielle intitulée FSD Version 14.1.2, parallèlement à un mode de conduite plus lent appelé « Sloth Mode ». Des vidéos ont déjà circulé sur les réseaux sociaux, montrant des véhicules en mode « Mad Max » dépassant largement les limites de vitesse locales et ignorant les panneaux stop, ce qui rappelle les controverses antérieures qui avaient contraint Tesla à rappeler plus de 50 000 véhicules en 2022 afin de supprimer la fonction « rolling stop ».
Pour le secteur des assurances, la dernière mise à jour de Tesla soulève des questions familières mais pressantes. À mesure que les systèmes d'aide à la conduite deviennent plus sophistiqués et plus autonomes dans la pratique, sinon dans la loi, il devient de plus en plus complexe de déterminer la responsabilité en cas d'accident. « Certaines régions des États-Unis sont très litigieuses... ce que vous entendez [aujourd'hui], c'est le langage d'un verdict nucléaire », a déclaré John Farquhar, spécialiste de la gestion des risques liés aux flottes pour les pratiques nationales chez Gallagher.
Selon la réglementation américaine, le système de Tesla est classé comme « automatisation de niveau 2 », ce qui signifie qu'un être humain doit rester aux commandes et prêt à intervenir. Pourtant, l'appellation de fonctionnalités telles que « Full Self-Driving » (conduite entièrement autonome) ou « Mad Max » peut brouiller cette distinction, créant une confusion non seulement pour les conducteurs, mais aussi pour les assureurs, qui doivent évaluer où se situe la responsabilité lorsque la technologie joue un rôle direct dans une collision.
« Le langage utilisé par Tesla est important », a déclaré un cadre supérieur chargé de la souscription chez un assureur national, qui s'est exprimé sous couvert d'anonymat car son entreprise examine actuellement son exposition aux réclamations liées à l'aide à la conduite. « Si les conducteurs comprennent mal ce que ces systèmes peuvent faire, la frontière entre l'erreur humaine et la responsabilité du fait des produits commence à s'estomper. »
Plusieurs assureurs ont déjà signalé une augmentation de la fréquence des réclamations liées aux véhicules équipés de technologies avancées d'aide à la conduite, invoquant le coût des réparations des capteurs et les litiges concernant le comportement des systèmes avant l'impact. L'introduction d'un mode qui encourage explicitement les vitesses plus élevées risque d'accentuer ces préoccupations.
La NHTSA a renforcé la surveillance des systèmes semi-automatisés au cours de l'année écoulée, mais l'application de la réglementation s'est largement faite a posteriori, à la suite d'accidents ou de rapports publics. En Europe et dans certaines régions d'Asie, les régulateurs ont imposé des limites plus strictes aux changements de voie automatisés et aux réglages de vitesse. Si les enquêteurs américains déterminent que le mode « Mad Max » encourage la conduite illégale, cela pourrait contraindre Tesla à procéder à un nouveau rappel de logiciels et susciter de nouvelles discussions sur la manière de réglementer la dénomination et la commercialisation des fonctions d'automatisation.
Pour les assureurs, cette affaire représente plus qu'une simple expérience d'un constructeur automobile en matière d'aide à la conduite. Elle souligne à quel point la technologie évolue plus rapidement que les cadres utilisés pour mesurer et évaluer les risques. « L'assurance a toujours consisté à prédire les comportements », a déclaré le responsable des sinistres d'un grand groupe de réassurance. « Mais lorsque le comportement dépend de mises à jour logicielles déployées du jour au lendemain, il ne s'agit plus d'une variable fixe. Elle évolue sous nos pieds. »
Alors que les régulateurs examinent la dernière mise à jour de Tesla, le résultat pourrait influencer la manière dont les assureurs américains abordent le risque lié à l'automatisation, non seulement pour Tesla, mais aussi pour tous les constructeurs qui s'efforcent de redéfinir ce que signifie conduire.
Ces enquêtes interviennent alors que les ventes de Tesla ont chuté de 60 % en France, d’après des données du premier trimestre de l'Association des constructeurs européens d'automobiles (ACEA). La raison a à voir avec le logiciel Full Self Driving (FSD) à propos duquel plus de la moitié des 8000 consommateurs interrogés dans le cadre d’une récente enquête de l’Electric Vehicle Intelligence Report (EVIR) déclarent qu’il devrait être illégal. C’est le résultat des pratiques commerciales trompeuses de l’entreprise qui finissent par attirer les regards sur la valeur réelle de la filière du véhicule automobile dans son ensemble.
Et vous ?
Pensez-vous que cette enquête est crédible ou pertinente ?
Quel est votre avis sur le sujet ?Voir aussi :
Tesla a dissimulé des données, menti et induit la police en erreur afin d'échapper à toute responsabilité dans un accident mortel impliquant son logiciel Autopilot. Il a été reconnu partiellement responsable
Tesla modifie la signification du terme « Full Self-Driving » et renonce à sa promesse d'offrir une conduite autonome sans surveillance. Les problèmes techniques persistent et le logiciel rebute les clients
« Le véhicule a soudainement accéléré avec notre bébé à l'intérieur » : la terrifiante vérité sur les raisons pour lesquelles les voitures Tesla continuent de s'écraser
Vous avez lu gratuitement 2 222 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.