IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Tesla rappelle plus de 2 millions de véhicules pour réparer un système de surveillance défectueux d'Autopilot
Soit quasiment tous les véhicules vendus au USA, encore un désastre pour Elon Musk

Le , par Anthony

7PARTAGES

5  0 
Tesla rappelle plus de 2 millions de véhicules sur l'ensemble de sa gamme pour corriger un système défectueux censé s'assurer que les conducteurs sont attentifs lorsqu'ils utilisent le système Autopilot.

Des documents publiés le mercredi 13 décembre par les régulateurs américains de la sécurité indiquent que l'entreprise enverra une mise à jour logicielle pour résoudre les problèmes.

Ce rappel intervient après une enquête de deux ans menée par la National Highway Traffic Safety Administration sur une série d'accidents survenus alors que le système de conduite partiellement automatisée Autopilot était utilisé. Certains se sont révélés mortels.

L'agence indique que son enquête a révélé que la méthode d'Autopilot pour s'assurer que les conducteurs sont attentifs peut être inadéquate et "peut conduire à une mauvaise utilisation prévisible du système."


Le rappel couvre la quasi-totalité des véhicules vendus par Tesla aux États-Unis et inclut ceux produits entre le 5 octobre 2012 et le 7 décembre de cette année.

La mise à jour du logiciel comprend des contrôles et des alertes supplémentaires "pour encourager davantage le conducteur à adhérer à sa responsabilité de conduite continue", selon les documents.

La mise à jour du logiciel a été envoyée à certains véhicules concernés mardi, les autres la recevant à une date ultérieure, selon les documents.

Autopilot comprend des fonctions appelées Autosteer et Traffic Aware Cruise Control, Autosteer étant destiné à être utilisé sur les autoroutes à accès limité lorsqu'il ne fonctionne pas avec une fonction plus sophistiquée appelée Autosteer on City Streets.

La mise à jour du logiciel limitera apparemment l'utilisation d'Autosteer.

"Si le conducteur tente d'activer l'Autosteer alors que les conditions ne sont pas réunies pour le faire, la fonction lui signalera qu'elle n'est pas disponible par des alertes visuelles et sonores, et l'Autosteer ne s'activera pas", indiquent les documents de rappel.

Les documents de rappel indiquent que les enquêteurs de l'agence ont rencontré Tesla à partir d'octobre pour expliquer les "conclusions provisoires" concernant la réparation du système de surveillance. Tesla n'était pas d'accord avec l'analyse de l'agence, mais a accepté le rappel le 5 décembre dans le but de résoudre l'enquête.

Depuis des années, les défenseurs de la sécurité automobile réclament une réglementation plus stricte du système de surveillance du conducteur, qui détecte principalement si les mains du conducteur sont sur le volant.

Autopilot peut diriger, accélérer et freiner automatiquement dans sa voie, mais il s'agit d'un système d'aide à la conduite et ne peut pas se conduire lui-même, malgré son nom. Des tests indépendants ont révélé que le système de surveillance est facile à tromper, à tel point que des conducteurs ont été pris en flagrant délit de conduite en état d'ébriété ou même assis sur le siège arrière.

Dans son rapport de défaut déposé auprès de l'agence de sécurité, Tesla a déclaré que les contrôles d'Autopilot "pourraient ne pas être suffisants pour empêcher une mauvaise utilisation par le conducteur".

Un message a été laissé tôt mercredi pour obtenir d'autres commentaires de la part de l'entreprise d'Austin, au Texas.

Tesla précise sur son site internet que le système Autopilot et le système Full Self Driving, plus sophistiqué, ne peuvent pas conduire de manière autonome et sont destinés à aider les conducteurs qui doivent être prêts à intervenir à tout moment. Le système Full Self Driving est actuellement testé par des propriétaires de Tesla sur des routes publiques.

Dans un communiqué publié le lundi 11 décembre sur X, anciennement Twitter, Tesla a déclaré que la sécurité est plus forte lorsque le système Autopilot est activé.

La NHTSA a dépêché des enquêteurs sur 35 accidents de Tesla depuis 2016 dans lesquels l'agence soupçonne que les véhicules fonctionnaient avec un système automatisé. Au moins 17 personnes ont été tuées.

Les enquêtes font partie d'une enquête plus large menée par la NHTSA sur de multiples cas où des Teslas utilisant l'Autopilot ont percuté des véhicules d'urgence stationnés qui s'occupaient d'autres accidents. La NHTSA est devenue plus agressive dans la poursuite des problèmes de sécurité des Teslas au cours de l'année écoulée, annonçant de multiples rappels et enquêtes, y compris un rappel du logiciel Full Self Driving.

En mai, le secrétaire aux transports Pete Buttigieg, dont le département comprend la NHTSA, a déclaré que Tesla ne devrait pas appeler le système Autopilot parce qu'il ne peut pas se conduire lui-même.

Dans sa déclaration de mercredi, la NHTSA a indiqué que l'enquête sur Tesla restait ouverte "alors que nous surveillons l'efficacité des remèdes apportés par Tesla et que nous continuons à travailler avec le constructeur automobile pour garantir le plus haut niveau de sécurité".

Et vous ?

Quelle lecture faites-vous de cette situation ?

Voir aussi

Tesla affirme que l'action en justice de la Californie contre l'Autopilot viole ses droits à la liberté d'expression, l'entreprise est accusée d'exagérer les capacités du système dans ses publicités

Les conducteurs de Tesla s'abandonnent à l'Autopilot sans tenir compte des instructions au sein des manuels d'utilisation de leurs véhicules, ce qui conduit aux multiples désastres sur les routes

Un dénonciateur de Tesla qualifie les voitures équipées d'Autopilot d'expériences sur la voie publique qui menacent la vie des usagers : Le véhicule entièrement autonome va-t-il rester une utopie ?

Tesla ferait l'objet d'une enquête du procureur général de Californie sur la sécurité de l'Autopilot et la publicité autour du logiciel, plusieurs clients accusent la société de publicité mensongère

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Axel Mattauch
Membre averti https://www.developpez.com
Le 14/02/2024 à 11:46
Citation Envoyé par grunk Voir le message
Rappel c'est un bien grand mot , il vont juste pousser une màj sur les véhicule comme il le font en permanence.
...et remplacer un ancien bug par un nouveau.
C'est ce que font la plupart des mises à jour.
2  0 
Avatar de grunk
Modérateur https://www.developpez.com
Le 14/12/2023 à 9:26
Rappel c'est un bien grand mot , il vont juste pousser une màj sur les véhicule comme il le font en permanence.
1  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 14/02/2024 à 12:02
On nous a vendu un faux sentiment de sécurité
aux français aussi, bienvenue au club
1  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 14/03/2024 à 10:54
Citation Envoyé par Stéphane le calme Voir le message
Quelle est votre opinion sur les résultats de l’étude de l’IIHS concernant les systèmes de conduite automatisée partielle ?
on savait déjà que ça coute une blinde, se montre non rentable et que presque personne n'en veut aussi parce que ça ne fonctionne pas et qu'en plus les constructeurs voudraient que l'utilisateur soit responsable des arbitrages techniques et comportementaux des constructeurs. Rien de neuf donc pas de surprise dans les résultats de l’étude.

Citation Envoyé par Stéphane le calme Voir le message
Pensez-vous que la technologie de conduite automatisée est prête pour une utilisation généralisée ou nécessite-t-elle encore des améliorations significatives ?
Drôle de question vu que c'est l'objet du fil que de parler du fait que ça ne fait pas le job, que pour faire le job il faudrait des trucs super couteux et que c'est un casse tête juridique a tel point que bon nombre d'acteurs s'interroge sur l'intéret à s'acharner sur le sujet. Non la techno n'est pas prête et elle est très loin de l'être.
Citation Envoyé par Stéphane le calme Voir le message
Comment les constructeurs automobiles peuvent-ils améliorer la surveillance du conducteur pour garantir une utilisation sûre des systèmes de conduite automatisée ?
Laisser le conducteur conduire pour que son attention soit normale. On ne peut pas faire 99% du job du conducteur et lui demander d'être 100% concentré pour gérer le 1% qui reste. La conduite assisté peut apporter beaucoup par l’apport d'informations et autres assistances au conducteur, sans pour autant conduire à sa place, ce qui n'a pas d’intérêt à part zapper son attention qui est toujours exigée.
Citation Envoyé par Stéphane le calme Voir le message
Quelles mesures devraient être prises pour renforcer la confiance du public dans les technologies de conduite automatisée ?
1) Comprendre que depuis des décennies les pubs sur les voitures parlent de "plaisir de conduire"
2) Comprendre qu'une IA a besoin de valider ses données et a donc besoin de plusieurs sources de données concurrentes ; de simples cameras bon marché seules ne permettront jamais la conduite autonome
3) Comprendre que personne n'a envie de payer une blinde pour un truc qui ne lui apporte rien.
4) Comprendre que seul le constructeur peut être responsable des accidents, sauf a laisser l'utilisateur choisir le comportement de la machine
5) Comprendre que tout le monde a déjà eu un appareil en panne et que au fond de nous on sait tous qu'une voiture qui part dans le décors ça fait mal, personne ne pourra jamais lutter contre ce biais psychologique, surtout après l'épisode Musk qui ment sur les accidents.
6) Faire des systèmes qui aident le conducteur mais ne conduisent pas à sa place.
7) éventuellement faire des systèmes en environnement contrôlé, une file de voiture dédiée aux véhicules compatibles ou chaque véhicule apporte l'information à l'ensemble du convoi et s'accorde à l'ensemble du convoi (c'est le modèle du train, la faculté à rester sur la route en plus, on sait faire)

Citation Envoyé par Stéphane le calme Voir le message
Le classement de Tesla en tant que pire système évalué vous surprend-il ? Pourquoi ou pourquoi pas ?
bien sur que non, faire le choix de ne conserver que des caméras, pour le coût et pour ne pas perturber le beau design du véhicule ne pouvait pas être efficace et ne pouvait tenir que le temps que le mensonge sur les chiffres ne reste secret.

Citation Envoyé par Stéphane le calme Voir le message
Quel rôle les régulateurs et les organismes de sécurité devraient-ils jouer dans l’évaluation et l’approbation des systèmes de conduite automatisée ?
en premier lieu, interdire totalement et sans restriction les essais confiés aux utilisateurs comme le fait Tesla. Sur le modèle de ce qui se fait en aéronautique la validation des équipements et logiciels est rigoureux avant mise en production et n'est pas modifié OTA au bon vouloir d'un doigt carré dans un bureau.
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 14/03/2024 à 14:00
Citation Envoyé par petitours Voir le message
Sur le modèle de ce qui se fait en aéronautique la validation des équipements et logiciels est rigoureux avant mise en production et n'est pas modifié OTA au bon vouloir d'un doigt carré dans un bureau.
Musk aurait-il racheter Boeing ?
1  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 16/04/2024 à 7:53
Citation Envoyé par Mathis Lucas Voir le message
Les critiques ont rapporté notamment que leurs voitures heurtent les bordures de trottoir lorsqu'elles tentent de tourner en mode Full Self-Driving.
Faites confiance au FSD il est plus performants que le chauffeur d'auto école à sa première de conduite moyen.
Selon de nombreux internautes, la solution consiste à suivre les recommandations de Tesla et à superviser le FSD pendant qu'il roule. (Ils doivent garder en permanence les mains sur le volant.)
Le FSD fonctionne très bien si vous conduisez en parallèle de lui.
Musk et Tesla n'ont pas répondu aux commentaires des internautes sur les performances médiocres du FSD.
Fake it, till you make it, bro.
C'est marrant comme Musk, très bavard est muet dans certaines situations...
L'ancienne conseillère principale en matière de sécurité de la NHTSA, Missy Cummings, a noté que l'augmentation des accidents de Tesla était troublante. « Tesla connaît plus d'accidents graves - et mortels - que les personnes dans un ensemble de données normal », a-t-elle déclaré. Selon Cummings, l'une des causes probables est le déploiement à grande échelle du FSD [dont le nom signifie littéralement "conduite entièrement autonome"]. « Le fait est que n'importe qui et tout le monde peut l'avoir. Est-il raisonnable de s'attendre à ce que cela entraîne une augmentation des taux d'accidents ? Bien sûr, absolument ».
Ah bon, en plus statistiquement le FSD est plus mauvais que le conducteur moyen?
Et la NHTSA constate ça mais n'agit pas? Je ne comprend décidément pas les USA et leur règlementation

Je ne comprends pas comment le FSD peut heurter des trottoirs, c'est quand même l'un des éléments de l'environnement automobile le plus courant et en plus il est particulièrement fixe.
1  0 
Avatar de domi65
Membre éclairé https://www.developpez.com
Le 04/02/2024 à 12:52
La NHTSA a dû se conformer à la loi sur la sécurité des véhicules, qui protège la confidentialité des entreprises.
Sommes-nous dans un mode orwellien ?

Une loi censée améliorer la sécurité des véhicules s'occupe en fait de protéger les intérêts des entreprises ?
1  1 
Avatar de unanonyme
Membre éclairé https://www.developpez.com
Le 04/02/2024 à 13:32
Non c'est le fonctionnement normal des USA, et de la privatisation en général.

Les entreprises financent les autorités qui les régulent,
ce sont les entreprises qui évaluent et rapportent sur la qualité
et la nocivité de leurs produits.

La NHTSA publie les données que les fabricants de voitures lui fournissent sur les accidents liés à des systèmes comme l’Autopilot de Tesla.
Selon le New Yorker, Tesla aurait demandé aux autorités de sécurité routière de ne pas divulguer les informations relatives à l’usage de ses logiciels d’assistance à la conduite lors d’accidents.
Ce qui fait dire,
Cette pratique pose problème quant à la transparence et la responsabilité de l’entreprise,
Alors qu'il faudrait s'interroger à la qualité de l'outil réglementaire
à atteindre l'objectif que celui ci doit bien avoir inscrit quelque part
dans ces articles constituant.

En résumé, tout fonctionne comme il se doit
puisque c'est ainsi que les choses ont été faites pour fonctionner,
même si par ailleurs,
ça semble aberrant.
1  1 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 04/02/2024 à 18:51
La vidéos sur les crashes est juste incroyable tellement les comportements de la voiture sont inadaptés. Il y a des trucs ou ça semble avoir mal ou pas vu mais il y a pire dans les cas où elle a manifestement bien vu mais réagit n'importe comment en continuant là ou il ne faut pas, en faisant une embardée super brutale au point de perdre le contrôle du véhicule...
Rien que ces quelques exemples devraient suffire à n'importe quelle autorité pour interdire tous les "essais" confiés aux clients plutôt qu'à des pilotes d'essai formés et équipés.
Je me doutais que le pilotage "autonome" et en particulier celui des Tesla basé sur des cameras ne valait pas un clou mais je ne pensais pas que c’était à ce point.
0  1