IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Un dénonciateur de Tesla qualifie les voitures équipées d'Autopilot d'expériences sur la voie publique qui menacent la vie des usagers :
Le véhicule entièrement autonome va-t-il rester une utopie ?

Le , par Patrick Ruiz

6PARTAGES

4  0 
Le Département chargé des véhicules motorisés de Californie a autorisé les entreprises Cruise et Waymo à tester des véhicules sans conducteurs derrière le volant dès 2021. Le moins qu’on puisse dire à date est que ces derniers sont sujets à controverse. Les rapports d’accidents impliquant lesdits engins se succèdent. La situation est désormais telle que les populations font usage de cônes pour les saboter et ainsi marquer leur désapprobation à un feu vert des autorités pour un déploiement à plus grande échelle. Le tableau reprend un coup de neuf avec une sortie d’un ex employé de Tesla qui qualifie les voitures équipées d’Autopilot comme des expériences sur la voie publique qui menacent la vie des usagers. De quoi donner raison à certains experts selon lesquels le véhicule entièrement autonome restera une utopie ?

Une utopie ? Non, étant donné que chez Tesla les noms des systèmes mis à contribution indiquent que l’on y est déjà

Le fait est que les noms Autopilot et Full Self-Driving dont Tesla fait usage donnent aux utilisateurs un faux sentiment de sécurité. C’est ce que confirme une récente sortie d’un ex employé du constructeur automobile qui, en dépit de l’utilisation de ces termes, qualifie les voitures équipées d’Autopilot « d’expériences sur la voie publique qui menacent la vie des usagers. »

Lukasz Krupski, ancien technicien de Tesla, s’est d’ailleurs vu décerner le prix Blueprint Europe Whistleblowing pour le courage dont il a fait preuve en divulguant une masse de données qui jettent le doute sur la viabilité et la sécurité de la technologie de conduite autonome du constructeur automobile.


La sortie de l’ex employé de Tesla est une redite d’autres selon lesquelles cette technologie n'aurait jamais dû être autorisée sur la route. Ryan Cooper, éditeur en chef d'un magazine, note par exemple que : « les régulateurs devraient examiner de plus près les fonctions d'assistance à la conduite en général, obligeant les fabricants à prouver qu'ils améliorent réellement la sécurité, plutôt que de faire confiance à la parole d'un oligarque fourbe ».

Il continue en disant que :

« La principale défense de FSD est l'hypothèse technologique utopique selon laquelle, quels que soient ses problèmes, elle ne peut pas être pire que les conducteurs humains. Tesla a affirmé que le taux d'accident FSD est un cinquième de celui des conducteurs humains, et Musk a fait valoir qu'il est donc moralement obligatoire de l'utiliser : "Au point où vous pensez que l'ajout d'autonomie réduit les blessures et la mort, je pense que vous avez une obligation morale de le déployer même si vous allez être poursuivi et blâmé par beaucoup de gens.

« Pourtant, si les propres données de Musk sur l'utilisation du FSD sont exactes, cela ne peut pas être vrai. En avril, il a affirmé qu'il y avait eu 150 millions de miles parcourus avec FSD lors d'un appel à un investisseur, un chiffre raisonnable étant donné que ce ne serait que 375 miles pour chacune des 400 000 voitures dotées de la technologie. En supposant que tous ces accidents impliquaient des FSD - une hypothèse plausible étant donné que les FSD ont été considérablement étendus au cours de la dernière année et que les deux tiers des accidents dans les données se sont produits pendant cette période - cela implique un taux d'accidents mortels de 11,3 décès pour 100 millions de kilomètres parcourus. Le taux global d'accidents mortels pour les voyages en voiture, selon la NHTSA, était de 1,35 décès pour 100 millions de kilomètres parcourus en 2022.

« En d'autres termes, le système FSD de Tesla est probablement de l'ordre de dix fois plus dangereux en matière de conduite que les humains ».

Pour nuancer ses propos, il faut rappeler que la NHTSA n'en est encore qu'aux études préliminaires, donc les chiffres exacts d'accidents impliquant les logiciels de Tesla seront quelque peu différents.

Toutefois, le même internaute estime que « même si seulement la moitié des décès découverts par la NHTSA étaient dus au FSD, cela le rendrait encore beaucoup plus meurtrier que les humains. En effet, le chiffre réel pourrait être plus élevé, car il n'y a aucun moyen de savoir si Tesla rapporte chaque crash avec précision ».

Tesla pour sa part n’en démord pas et continue de se vanter de disposer de la meilleure intelligence artificielle pour la résolution d’un des problèmes du monde réel, à savoir, la conduite automobile.

Sur le terrain par contre, les plaintes se multiplient à l’encontre des véhicules dits autonomes de Tesla et autres Waymo

« Ces engins s’arrêtent souvent devant nos bases et empêchent nos équipes de se rendre sur le terrain pour des interventions. Ils ont constitué des obstacles de diverses manières pour nos équipes et même pour des ambulances », rapporte le chef des pompiers de San Francisco qui rejoint des observateurs selon lesquels « les robotaxis ne sont pas encore prêts à partager les routes avec les humains. »


Le tableau relance la question de savoir quand les équipes de recherche atteindront le stade de véhicules entièrement autonomes

Les start-up de véhicules autonomes ont levé des dizaines de milliards de dollars sur la base des promesses de développer des voitures véritablement autonomes. Néanmoins, les dirigeants et les experts de l'industrie affirment que des superviseurs humains à distance pourraient être nécessaires en permanence pour aider les conducteurs en difficulté sur de nombreuses années encore. Dans une interview sur YouTube, Musk a déclaré que le développement de voitures autonomes était « de loin plus difficile que je ne le pensais au départ ». C’est une sortie qui rejoint celle du PDG de Cruise selon laquelle l’on n’obtiendra pas de véhicules entièrement autonomes même dans des décennies. »

Tesla, Waymo, Cruise, Honda, etc. ont tous promis que 2020 ne passerait pas sans l’atteinte du stade de véhicule autonome de niveau 5. Le fait est que c’est plus difficile que non l’ont initialement pensé les constructeurs automobiles. Elon Musk résume l’étendue du problème en une phrase : « Pour résoudre le problème de la conduite autonome, il faut en premier résoudre celui de la mise à contribution de l'intelligence artificielle dans le monde réel. »

Source : Lukasz Krupski

Et vous ?

Qu'en pensez-vous ?
Avez-vous déjà utilisé l’Autopilot ou le FSD dans une Tesla ? Si oui, quelle a été votre expérience ?
Full Self-Driving étant encore en bêta, devrait-il néanmoins être autorisé sur les routes ? Pourquoi ?
Que pensez-vous du nom “Full Self-Driving” ? Trouvez-vous qu’il est approprié ou trompeur ?
Que pensez-vous du calcul de Ryan Cooper ayant conduit à 10 fois plus de morts pour les systèmes de conduite autonome de Tesla que pour une voiture ordinaire ? Êtes-vous d'accord avec sa façon de calculer ? Pourquoi ?

Voir aussi :

L'Autopilot d'une Tesla Model 3, impliquée dans un accident, était activé lorsque le véhicule s'est écrasé contre un camion, indique le NTSB
Une Tesla Model 3 heurte un camion renversé en raison d'une défaillance apparente de l'« Autopilot », le système n'ayant pas pu détecter l'obstacle qui couvrait deux voies d'autoroute
Elon Musk annonce une augmentation du prix de l'option « conduite entièrement autonome » des voitures de Tesla, la fonctionnalité coûtera 1000 dollars supplémentaires dans quelques mois
Le nom de système "Autopilot" peut conduire les conducteurs à surestimer les capacités réelles des Tesla, selon une enquête

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de petitours
Membre chevronné https://www.developpez.com
Le 12/12/2023 à 21:37
Que Tesla utilise l'argument de la liberté d'expression pour se défendre sur un dossier d'escroquerie dangereuse comme cela est sidérant mais ce n'est pas la première fois qu'ils nous montrent que les gens les intéressent bien peu.
5  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 12/12/2023 à 10:22
ça alors, les gens ne lisent pas la documentation? Quelle surprise! Et parmi ceux qui la lisent, peu en tiennent compte ?

Mais ça doit être une spécificité du monde automobile, je ne constate absolument pas ça au quotidien.
2  0 
Avatar de Axel Mattauch
Membre averti https://www.developpez.com
Le 14/02/2024 à 11:46
Citation Envoyé par grunk Voir le message
Rappel c'est un bien grand mot , il vont juste pousser une màj sur les véhicule comme il le font en permanence.
...et remplacer un ancien bug par un nouveau.
C'est ce que font la plupart des mises à jour.
2  0 
Avatar de grunk
Modérateur https://www.developpez.com
Le 14/12/2023 à 9:26
Rappel c'est un bien grand mot , il vont juste pousser une màj sur les véhicule comme il le font en permanence.
1  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 14/02/2024 à 12:02
On nous a vendu un faux sentiment de sécurité
aux français aussi, bienvenue au club
1  0 
Avatar de domi65
Membre éclairé https://www.developpez.com
Le 04/02/2024 à 12:52
La NHTSA a dû se conformer à la loi sur la sécurité des véhicules, qui protège la confidentialité des entreprises.
Sommes-nous dans un mode orwellien ?

Une loi censée améliorer la sécurité des véhicules s'occupe en fait de protéger les intérêts des entreprises ?
1  1 
Avatar de unanonyme
Membre éclairé https://www.developpez.com
Le 04/02/2024 à 13:32
Non c'est le fonctionnement normal des USA, et de la privatisation en général.

Les entreprises financent les autorités qui les régulent,
ce sont les entreprises qui évaluent et rapportent sur la qualité
et la nocivité de leurs produits.

La NHTSA publie les données que les fabricants de voitures lui fournissent sur les accidents liés à des systèmes comme l’Autopilot de Tesla.
Selon le New Yorker, Tesla aurait demandé aux autorités de sécurité routière de ne pas divulguer les informations relatives à l’usage de ses logiciels d’assistance à la conduite lors d’accidents.
Ce qui fait dire,
Cette pratique pose problème quant à la transparence et la responsabilité de l’entreprise,
Alors qu'il faudrait s'interroger à la qualité de l'outil réglementaire
à atteindre l'objectif que celui ci doit bien avoir inscrit quelque part
dans ces articles constituant.

En résumé, tout fonctionne comme il se doit
puisque c'est ainsi que les choses ont été faites pour fonctionner,
même si par ailleurs,
ça semble aberrant.
0  1 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 04/02/2024 à 18:51
La vidéos sur les crashes est juste incroyable tellement les comportements de la voiture sont inadaptés. Il y a des trucs ou ça semble avoir mal ou pas vu mais il y a pire dans les cas où elle a manifestement bien vu mais réagit n'importe comment en continuant là ou il ne faut pas, en faisant une embardée super brutale au point de perdre le contrôle du véhicule...
Rien que ces quelques exemples devraient suffire à n'importe quelle autorité pour interdire tous les "essais" confiés aux clients plutôt qu'à des pilotes d'essai formés et équipés.
Je me doutais que le pilotage "autonome" et en particulier celui des Tesla basé sur des cameras ne valait pas un clou mais je ne pensais pas que c’était à ce point.
0  1