IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

La solution proposée par Tesla pour s'assurer que les conducteurs restent attentifs lorsque l'Autopilot est enclenché est "insuffisante",
Selon Consumer Report

Le , par Mathis Lucas

0PARTAGES

6  0 
Tesla n'en finit pas avec les problèmes de l'Autopilot. Le constructeur automobile avait été contraint au début du moins de rappeler plus de 2 millions de véhicules, car le système censé surveiller l'attention des conducteurs au volant lorsque l'Autopilot est enclenché était défectueux. Cependant, Consumer Reports indique que ses tests préliminaires révèlent que "la solution de Tesla est insuffisante" et que les conducteurs peuvent neutraliser le système et utiliser l'Autopilot de manière abusive, ce qui constitue un risque de sécurité. Les tests de Consumer Reports ne sont pas exhaustifs, mais montrent que des questions restent sans réponses après la mise à jour de Tesla.

Plus tôt ce mois-ci, Tesla a publié une mise à jour logicielle de son système d'aide à la conduite active (ADAS) Autopilot pour plus de deux millions de véhicules concernés après qu'une enquête fédérale sur la sécurité a déterminé qu'il était trop facile pour les conducteurs d'utiliser la fonction de façon abusive. Le rappel intervient plus de deux ans après que la NHTSA (National Highway Traffic Safety Administration) des États-Unis a ouvert une enquête sur l'Autopilot de Tesla, à la suite de onze accidents dans lesquels il a été déterminé que les conducteurs de Tesla avaient activé Autopilot avant d'entrer en collision avec des véhicules de premiers secours à l'arrêt.

L'enquête a révélé que Tesla ne fait pas assez pour empêcher les conducteurs d'utiliser l'Autopilot dans des situations où ils ne contrôlent pas le véhicule, ou lorsque le système n'est pas conçu pour être utilisé. L'agence indique que son enquête a révélé que la méthode d'Autopilot pour s'assurer que les conducteurs sont attentifs peut être inadéquate et peut conduire à une mauvaise utilisation prévisible du système. Selon la NHTSA, le constructeur n'a pas souscrit à l'analyse de l'agence, mais a accepté d'administrer volontairement un rappel et de fournir une mise à jour logicielle dans l'intérêt de la résolution de l'enquête. Ce qui explique le rappel de Tesla.


Le rappel concerne spécifiquement l'Autosteer d'Autopilot, qui est une fonction d'assistance au centrage dans la voie (LCA) qui maintient un véhicule entre les lignes de voie peintes. La version 2023.44.30 du logiciel est déjà en cours de déploiement sur les véhicules concernés. Dans les documents fournis à la NHTSA, le constructeur indique que le nouveau logiciel augmentera la proéminence des alertes visuelles, simplifiera l'activation et la désactivation d'Autosteer et mettra en œuvre de nouvelles vérifications concernant l'utilisation du logiciel en dehors des autoroutes à accès contrôlé et à l'approche des feux de circulation et des panneaux d'arrêt.

Le rappel couvre la quasi-totalité des véhicules vendus par Tesla aux États-Unis et inclut ceux produits entre le 5 octobre 2012 et le 7 décembre de cette année. Cette mise à jour logicielle augmente la taille du texte sur les alertes visuelles (pour les Model Y et 3 uniquement), ajoute un paramètre permettant d'activer Autopilot en tapant une seule fois sur la manette au lieu de deux sur les véhicules équipés d'une manette au volant, et crée une pénalité de cinq coups qui désactive Autopilot pour les conducteurs qui ignorent à plusieurs reprises les avertissements d'actionner la direction ou de regarder la route. Mais Consumer Reports juge cela insuffisant.

Kelly Funkhouser, directrice associée de la technologie des véhicules au Centre d'essais automobiles de Consumer Reports, a déclaré : « bien que nous saluions certains des changements apportés par Tesla dans le cadre de la dernière mise à jour logicielle, notamment un texte d'avertissement plus facile à lire, le nouveau logiciel ne va pas assez loin pour empêcher une mauvaise utilisation ou s'attaquer aux causes profondes de l'inattention du conducteur ». Les experts de Consumer Reports estiment que la correction est insuffisante, expliquant qu'il est encore trop facile pour les conducteurs de contourner la surveillance de Tesla afin d'utiliser l'Autopilot.

Tesla indique aux conducteurs qu'ils doivent être attentifs à la route et garder les mains sur le volant lorsqu'ils utilisent la fonction Autosteer, et surveille cette situation grâce à un capteur de couple situé dans le volant et sur les voitures les plus récentes, grâce à la caméra installée dans l'habitacle. Toutefois, la NHTSA a déclaré dans des documents publiés la semaine dernière qu'elle considérait ces contrôles comme "insuffisants" pour empêcher toute utilisation abusive. De nombreux rapports ont révélé que les conducteurs de Tesla ont tendance à s'abandonner à l'Autopilot et surveillent peu la route. Une situation qui est à l'origine de nombreux accidents.

Consumer Reports a découvert que les conducteurs peuvent échapper aux contrôles de Tesla en couvrant la caméra de l'habitacle lors de l'utilisation d'Autopilot. Selon Consumer Reports, cela leur permet de continuer à faire une mauvaise utilisation de l'Autopilot. De plus, Funkhouser rapporte n'avoir remarqué aucune différence lors de l'activation ou de l'utilisation de la fonction Autosteer, en dehors des autoroutes à accès contrôlé où, selon Tesla, le logiciel est conçu pour être utilisé. Ainsi, les conclusions de Consumer Reports suggèrent que Tesla a encore du progrès à faire en matière de surveillance des conducteurs : la technologie au cœur du rappel.

L'association, qui évalue depuis longtemps de manière critique à la fois la technologie et les véhicules de Tesla, prévoit d'effectuer des tests plus approfondis dans les semaines à venir. Funkhouser explique que Consumer Reports n'a pas encore évalué les autres changements. Tesla a également ajouté une fonction de suspension qui désactivera l'Autopilot pendant une semaine si une "utilisation inappropriée" est détectée, ce que Funkhouser a déclaré ne pas avoir rencontré au cours de deux trajets d'une durée de 24 à 32 km chacun. Par le passé, Consumer Reports avait déjà affirmé que l'Autopilot était moins sûr par rapport aux systèmes concurrents.

Tesla ne limite pas l'utilisation d'Autosteer aux autoroutes à accès contrôlé. Les conducteurs peuvent activer l'Autosteer sur d'autres routes, à condition que certaines conditions de base soient remplies (comme la visibilité des lignes de démarcation). Certains propriétaires craignaient que Tesla limite Autosteer aux autoroutes à accès contrôlé, à l'instar de ce que font Ford et General Motors avec leurs systèmes Blue Cruise et Super Cruise. Lorsque la mise à jour a commencé à être diffusée au cours du week-end, certains ont même partagé des idées sur des forums en ligne sur la façon de l'éviter en déconnectant les radios cellulaires ou Wi-Fi de Tesla.

Source : Consumer Reports

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des problèmes rencontrés par l'Autopilot de Tesla ?

Voir aussi

Tesla rappelle plus de 2 millions de véhicules pour réparer un système de surveillance défectueux d'Autopilot, soit quasiment tous les véhicules vendus au USA, encore un désastre pour Elon Musk

Tesla a blâmé les conducteurs pour les pannes de pièces dont elle savait depuis longtemps qu'elles étaient défectueuses, l'Autopilot n'est pas la seule source de problèmes avec ses véhicules

Tesla rappelle plus de 360 000 véhicules et affirme que la version bêta du Full Self-Driving peut provoquer des accidents, le logiciel de Tesla agit parfois de manière dangereuse aux intersections

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Axel Mattauch
Membre averti https://www.developpez.com
Le 14/02/2024 à 11:46
Citation Envoyé par grunk Voir le message
Rappel c'est un bien grand mot , il vont juste pousser une màj sur les véhicule comme il le font en permanence.
...et remplacer un ancien bug par un nouveau.
C'est ce que font la plupart des mises à jour.
2  0 
Avatar de calvaire
Expert confirmé https://www.developpez.com
Le 14/02/2024 à 12:02
On nous a vendu un faux sentiment de sécurité
aux français aussi, bienvenue au club
1  0 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 14/03/2024 à 10:54
Citation Envoyé par Stéphane le calme Voir le message
Quelle est votre opinion sur les résultats de l’étude de l’IIHS concernant les systèmes de conduite automatisée partielle ?
on savait déjà que ça coute une blinde, se montre non rentable et que presque personne n'en veut aussi parce que ça ne fonctionne pas et qu'en plus les constructeurs voudraient que l'utilisateur soit responsable des arbitrages techniques et comportementaux des constructeurs. Rien de neuf donc pas de surprise dans les résultats de l’étude.

Citation Envoyé par Stéphane le calme Voir le message
Pensez-vous que la technologie de conduite automatisée est prête pour une utilisation généralisée ou nécessite-t-elle encore des améliorations significatives ?
Drôle de question vu que c'est l'objet du fil que de parler du fait que ça ne fait pas le job, que pour faire le job il faudrait des trucs super couteux et que c'est un casse tête juridique a tel point que bon nombre d'acteurs s'interroge sur l'intéret à s'acharner sur le sujet. Non la techno n'est pas prête et elle est très loin de l'être.
Citation Envoyé par Stéphane le calme Voir le message
Comment les constructeurs automobiles peuvent-ils améliorer la surveillance du conducteur pour garantir une utilisation sûre des systèmes de conduite automatisée ?
Laisser le conducteur conduire pour que son attention soit normale. On ne peut pas faire 99% du job du conducteur et lui demander d'être 100% concentré pour gérer le 1% qui reste. La conduite assisté peut apporter beaucoup par l’apport d'informations et autres assistances au conducteur, sans pour autant conduire à sa place, ce qui n'a pas d’intérêt à part zapper son attention qui est toujours exigée.
Citation Envoyé par Stéphane le calme Voir le message
Quelles mesures devraient être prises pour renforcer la confiance du public dans les technologies de conduite automatisée ?
1) Comprendre que depuis des décennies les pubs sur les voitures parlent de "plaisir de conduire"
2) Comprendre qu'une IA a besoin de valider ses données et a donc besoin de plusieurs sources de données concurrentes ; de simples cameras bon marché seules ne permettront jamais la conduite autonome
3) Comprendre que personne n'a envie de payer une blinde pour un truc qui ne lui apporte rien.
4) Comprendre que seul le constructeur peut être responsable des accidents, sauf a laisser l'utilisateur choisir le comportement de la machine
5) Comprendre que tout le monde a déjà eu un appareil en panne et que au fond de nous on sait tous qu'une voiture qui part dans le décors ça fait mal, personne ne pourra jamais lutter contre ce biais psychologique, surtout après l'épisode Musk qui ment sur les accidents.
6) Faire des systèmes qui aident le conducteur mais ne conduisent pas à sa place.
7) éventuellement faire des systèmes en environnement contrôlé, une file de voiture dédiée aux véhicules compatibles ou chaque véhicule apporte l'information à l'ensemble du convoi et s'accorde à l'ensemble du convoi (c'est le modèle du train, la faculté à rester sur la route en plus, on sait faire)

Citation Envoyé par Stéphane le calme Voir le message
Le classement de Tesla en tant que pire système évalué vous surprend-il ? Pourquoi ou pourquoi pas ?
bien sur que non, faire le choix de ne conserver que des caméras, pour le coût et pour ne pas perturber le beau design du véhicule ne pouvait pas être efficace et ne pouvait tenir que le temps que le mensonge sur les chiffres ne reste secret.

Citation Envoyé par Stéphane le calme Voir le message
Quel rôle les régulateurs et les organismes de sécurité devraient-ils jouer dans l’évaluation et l’approbation des systèmes de conduite automatisée ?
en premier lieu, interdire totalement et sans restriction les essais confiés aux utilisateurs comme le fait Tesla. Sur le modèle de ce qui se fait en aéronautique la validation des équipements et logiciels est rigoureux avant mise en production et n'est pas modifié OTA au bon vouloir d'un doigt carré dans un bureau.
1  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 14/03/2024 à 14:00
Citation Envoyé par petitours Voir le message
Sur le modèle de ce qui se fait en aéronautique la validation des équipements et logiciels est rigoureux avant mise en production et n'est pas modifié OTA au bon vouloir d'un doigt carré dans un bureau.
Musk aurait-il racheter Boeing ?
1  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 16/04/2024 à 7:53
Citation Envoyé par Mathis Lucas Voir le message
Les critiques ont rapporté notamment que leurs voitures heurtent les bordures de trottoir lorsqu'elles tentent de tourner en mode Full Self-Driving.
Faites confiance au FSD il est plus performants que le chauffeur d'auto école à sa première de conduite moyen.
Selon de nombreux internautes, la solution consiste à suivre les recommandations de Tesla et à superviser le FSD pendant qu'il roule. (Ils doivent garder en permanence les mains sur le volant.)
Le FSD fonctionne très bien si vous conduisez en parallèle de lui.
Musk et Tesla n'ont pas répondu aux commentaires des internautes sur les performances médiocres du FSD.
Fake it, till you make it, bro.
C'est marrant comme Musk, très bavard est muet dans certaines situations...
L'ancienne conseillère principale en matière de sécurité de la NHTSA, Missy Cummings, a noté que l'augmentation des accidents de Tesla était troublante. « Tesla connaît plus d'accidents graves - et mortels - que les personnes dans un ensemble de données normal », a-t-elle déclaré. Selon Cummings, l'une des causes probables est le déploiement à grande échelle du FSD [dont le nom signifie littéralement "conduite entièrement autonome"]. « Le fait est que n'importe qui et tout le monde peut l'avoir. Est-il raisonnable de s'attendre à ce que cela entraîne une augmentation des taux d'accidents ? Bien sûr, absolument ».
Ah bon, en plus statistiquement le FSD est plus mauvais que le conducteur moyen?
Et la NHTSA constate ça mais n'agit pas? Je ne comprend décidément pas les USA et leur règlementation

Je ne comprends pas comment le FSD peut heurter des trottoirs, c'est quand même l'un des éléments de l'environnement automobile le plus courant et en plus il est particulièrement fixe.
1  0 
Avatar de domi65
Membre éclairé https://www.developpez.com
Le 04/02/2024 à 12:52
La NHTSA a dû se conformer à la loi sur la sécurité des véhicules, qui protège la confidentialité des entreprises.
Sommes-nous dans un mode orwellien ?

Une loi censée améliorer la sécurité des véhicules s'occupe en fait de protéger les intérêts des entreprises ?
1  1 
Avatar de unanonyme
Membre éclairé https://www.developpez.com
Le 04/02/2024 à 13:32
Non c'est le fonctionnement normal des USA, et de la privatisation en général.

Les entreprises financent les autorités qui les régulent,
ce sont les entreprises qui évaluent et rapportent sur la qualité
et la nocivité de leurs produits.

La NHTSA publie les données que les fabricants de voitures lui fournissent sur les accidents liés à des systèmes comme l’Autopilot de Tesla.
Selon le New Yorker, Tesla aurait demandé aux autorités de sécurité routière de ne pas divulguer les informations relatives à l’usage de ses logiciels d’assistance à la conduite lors d’accidents.
Ce qui fait dire,
Cette pratique pose problème quant à la transparence et la responsabilité de l’entreprise,
Alors qu'il faudrait s'interroger à la qualité de l'outil réglementaire
à atteindre l'objectif que celui ci doit bien avoir inscrit quelque part
dans ces articles constituant.

En résumé, tout fonctionne comme il se doit
puisque c'est ainsi que les choses ont été faites pour fonctionner,
même si par ailleurs,
ça semble aberrant.
1  1 
Avatar de petitours
Membre chevronné https://www.developpez.com
Le 04/02/2024 à 18:51
La vidéos sur les crashes est juste incroyable tellement les comportements de la voiture sont inadaptés. Il y a des trucs ou ça semble avoir mal ou pas vu mais il y a pire dans les cas où elle a manifestement bien vu mais réagit n'importe comment en continuant là ou il ne faut pas, en faisant une embardée super brutale au point de perdre le contrôle du véhicule...
Rien que ces quelques exemples devraient suffire à n'importe quelle autorité pour interdire tous les "essais" confiés aux clients plutôt qu'à des pilotes d'essai formés et équipés.
Je me doutais que le pilotage "autonome" et en particulier celui des Tesla basé sur des cameras ne valait pas un clou mais je ne pensais pas que c’était à ce point.
0  1