Une utopie ? Non, étant donné que chez Tesla les noms des systèmes mis à contribution indiquent que l’on y est déjà
Le fait est que les noms Autopilot et Full Self-Driving dont Tesla fait usage donnent aux utilisateurs un faux sentiment de sécurité. C’est ce que confirme une récente sortie d’un ex employé du constructeur automobile qui, en dépit de l’utilisation de ces termes, qualifie les voitures équipées d’Autopilot « d’expériences sur la voie publique qui menacent la vie des usagers. »
Lukasz Krupski, ancien technicien de Tesla, s’est d’ailleurs vu décerner le prix Blueprint Europe Whistleblowing pour le courage dont il a fait preuve en divulguant une masse de données qui jettent le doute sur la viabilité et la sécurité de la technologie de conduite autonome du constructeur automobile.
La sortie de l’ex employé de Tesla est une redite d’autres selon lesquelles cette technologie n'aurait jamais dû être autorisée sur la route. Ryan Cooper, éditeur en chef d'un magazine, note par exemple que : « les régulateurs devraient examiner de plus près les fonctions d'assistance à la conduite en général, obligeant les fabricants à prouver qu'ils améliorent réellement la sécurité, plutôt que de faire confiance à la parole d'un oligarque fourbe ».
Il continue en disant que :
« La principale défense de FSD est l'hypothèse technologique utopique selon laquelle, quels que soient ses problèmes, elle ne peut pas être pire que les conducteurs humains. Tesla a affirmé que le taux d'accident FSD est un cinquième de celui des conducteurs humains, et Musk a fait valoir qu'il est donc moralement obligatoire de l'utiliser : "Au point où vous pensez que l'ajout d'autonomie réduit les blessures et la mort, je pense que vous avez une obligation morale de le déployer même si vous allez être poursuivi et blâmé par beaucoup de gens.
« Pourtant, si les propres données de Musk sur l'utilisation du FSD sont exactes, cela ne peut pas être vrai. En avril, il a affirmé qu'il y avait eu 150 millions de miles parcourus avec FSD lors d'un appel à un investisseur, un chiffre raisonnable étant donné que ce ne serait que 375 miles pour chacune des 400 000 voitures dotées de la technologie. En supposant que tous ces accidents impliquaient des FSD - une hypothèse plausible étant donné que les FSD ont été considérablement étendus au cours de la dernière année et que les deux tiers des accidents dans les données se sont produits pendant cette période - cela implique un taux d'accidents mortels de 11,3 décès pour 100 millions de kilomètres parcourus. Le taux global d'accidents mortels pour les voyages en voiture, selon la NHTSA, était de 1,35 décès pour 100 millions de kilomètres parcourus en 2022.
« En d'autres termes, le système FSD de Tesla est probablement de l'ordre de dix fois plus dangereux en matière de conduite que les humains ».
Pour nuancer ses propos, il faut rappeler que la NHTSA n'en est encore qu'aux études préliminaires, donc les chiffres exacts d'accidents impliquant les logiciels de Tesla seront quelque peu différents.
Toutefois, le même internaute estime que « même si seulement la moitié des décès découverts par la NHTSA étaient dus au FSD, cela le rendrait encore beaucoup plus meurtrier que les humains. En effet, le chiffre réel pourrait être plus élevé, car il n'y a aucun moyen de savoir si Tesla rapporte chaque crash avec précision ».
Tesla pour sa part n’en démord pas et continue de se vanter de disposer de la meilleure intelligence artificielle pour la résolution d’un des problèmes du monde réel, à savoir, la conduite automobile.
Sur le terrain par contre, les plaintes se multiplient à l’encontre des véhicules dits autonomes de Tesla et autres WaymoTesla has by far the best real-world AI https://t.co/At0EPNmKId
— Elon Musk (@elonmusk) December 2, 2023
« Ces engins s’arrêtent souvent devant nos bases et empêchent nos équipes de se rendre sur le terrain pour des interventions. Ils ont constitué des obstacles de diverses manières pour nos équipes et même pour des ambulances », rapporte le chef des pompiers de San Francisco qui rejoint des observateurs selon lesquels « les robotaxis ne sont pas encore prêts à partager les routes avec les humains. »
Le tableau relance la question de savoir quand les équipes de recherche atteindront le stade de véhicules entièrement autonomes
Les start-up de véhicules autonomes ont levé des dizaines de milliards de dollars sur la base des promesses de développer des voitures véritablement autonomes. Néanmoins, les dirigeants et les experts de l'industrie affirment que des superviseurs humains à distance pourraient être nécessaires en permanence pour aider les conducteurs en difficulté sur de nombreuses années encore. Dans une interview sur YouTube, Musk a déclaré que le développement de voitures autonomes était « de loin plus difficile que je ne le pensais au départ ». C’est une sortie qui rejoint celle du PDG de Cruise selon laquelle l’on n’obtiendra pas de véhicules entièrement autonomes même dans des décennies. »
Tesla, Waymo, Cruise, Honda, etc. ont tous promis que 2020 ne passerait pas sans l’atteinte du stade de véhicule autonome de niveau 5. Le fait est que c’est plus difficile que non l’ont initialement pensé les constructeurs automobiles. Elon Musk résume l’étendue du problème en une phrase : « Pour résoudre le problème de la conduite autonome, il faut en premier résoudre celui de la mise à contribution de l'intelligence artificielle dans le monde réel. »
Source : Lukasz Krupski
Et vous ?
Qu'en pensez-vous ?
Avez-vous déjà utilisé l’Autopilot ou le FSD dans une Tesla ? Si oui, quelle a été votre expérience ?
Full Self-Driving étant encore en bêta, devrait-il néanmoins être autorisé sur les routes ? Pourquoi ?
Que pensez-vous du nom “Full Self-Driving” ? Trouvez-vous qu’il est approprié ou trompeur ?
Que pensez-vous du calcul de Ryan Cooper ayant conduit à 10 fois plus de morts pour les systèmes de conduite autonome de Tesla que pour une voiture ordinaire ? Êtes-vous d'accord avec sa façon de calculer ? Pourquoi ?
Voir aussi :
L'Autopilot d'une Tesla Model 3, impliquée dans un accident, était activé lorsque le véhicule s'est écrasé contre un camion, indique le NTSB
Une Tesla Model 3 heurte un camion renversé en raison d'une défaillance apparente de l'« Autopilot », le système n'ayant pas pu détecter l'obstacle qui couvrait deux voies d'autoroute
Elon Musk annonce une augmentation du prix de l'option « conduite entièrement autonome » des voitures de Tesla, la fonctionnalité coûtera 1000 dollars supplémentaires dans quelques mois
Le nom de système "Autopilot" peut conduire les conducteurs à surestimer les capacités réelles des Tesla, selon une enquête