IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Tesla admet que le "Full Self-Driving Beta" actuel sera toujours le niveau 2,
« Il y a des circonstances et des événements que le système n'est pas capable de reconnaître »

Le , par Stan Adkens

145PARTAGES

3  0 
De nos jours, pratiquement tous les constructeurs automobiles prétendent avoir des voitures autonomes, mais les différences en matière d'autonomie peuvent être énormes. L’un de ces constructeurs est le fabricant de véhicules électriques Tesla qui a baptisé sa suite de fonctions avancées d'aide à la conduite Autopilot. Les promesses de la conduite mains libres et des robotaxis de Tesla ne datent pas d’aujourd’hui, mais il parait que la définition de "Full Self-Driving" que Tesla vend aux fans dans les médias est quelque peu différente de celle qu’il donne aux autorités de régulation.

Alors que les clients investissent dans des véhicules tesla pour la conduite mains libres qui devrait arriver bientôt, des communications entre Tesla et les autorités californiennes montrent que la conduite entièrement autonome n'est pas pour maintenant sur les véhicules Tesla. En effet, il s'avère qu'une série de courriels récemment découverts entre Tesla et le département californien des véhicules à moteur indique que si les systèmes ADAS du constructeur automobile s'améliorent considérablement, la conduite en mode mains libres n'est pas près d'arriver sur une Tesla dans un avenir immédiat.


Les promesses de la conduite entièrement autonome ont tourbillonné dans les rêves des conducteurs et des investisseurs depuis que Tesla a évoqué pour la première fois la possibilité d'un véhicule autonome de qualité grand public. Malgré cette promesse, Tesla n'a toujours pas mis sur le marché une voiture entièrement autonome que le public pourrait acheter. Elle permet toutefois aux clients d'acheter la promesse de l'ensemble des caractéristiques de "l'autonomie complète" (FSD) pour leurs véhicules qui correspondent actuellement à la définition SAE de l'autonomie partielle de niveau 2.

En octobre dernier, Tesla a publié une mise à jour en direct de son logiciel de conduite autonome à l'intention d'un nombre limité de participants, appelée "Full Self-Driving Beta" ou "FSD Beta", ce que beaucoup ont compris comme une première version de la suite mains libres de Tesla, promise depuis longtemps. En décembre, environ 200 personnes avaient obtenu l'accès au programme, dont 54 n'étaient pas des employés de Tesla, bien que cela ait probablement changé, puisque le PDG Elon Musk a indiqué que Tesla avait fait participer près de 1000 personnes à la version bêta en janvier.

Les personnes incluses dans la FSD Beta ont commencé à conduire leur véhicule et à enregistrer les performances du véhicule pour les publier en ligne. Plusieurs vidéos de comportements sur les routes des voitures Tesla avec "FSD Beta" et des commentaires ont circulé en octobre, y compris ceux d’Oliver Cameron, qui est le PDG de la société de technologie de conduite autonome Voyage :

« La FSD ne semble pas détecter cette médiane et tente donc de rouler du mauvais côté de la route. S'agit-il d'un "cas limite" à régler, ou d'un défi technique monstrueux pour déduire les règles de la route en temps réel ? » a tweeté Cameron. Dans un autre tweet il a écrit : « La FSD semble ne pas comprendre qu'il s'agit d'une rue à sens unique, empêchant le changement de voie à gauche. Les humains le reconnaissent intuitivement en se basant sur les directions des voitures garées (et des panneaux). L'intelligence des machines n'est pas tout à fait à ce niveau ».

La "FSD Beta", qui s'appelle officiellement "Autosteer on City Streets", fait partie de la suite complète des fonctions ADAS de conduite autonome et n'est pas un composant autonome qui permet la conduite en mains libres comme certains pourraient le penser. Cette connotation a exacerbé la confusion suscitée par la marque Full Self-Driving et a provoqué un courriel du département des véhicules à moteur de la Californie. Ce courriel demandait à Tesla de fournir immédiatement des éclaircissements sur la fonctionnalité de la FSD Beta afin de s'assurer que le constructeur automobile ne testait pas sur les routes californiennes sans le permis approprié pour déployer une telle fonctionnalité, d’après les courriels découverts.

"FSD Beta" « ne rend pas autonomes » les véhicules Tesla

« City Streets continue d'ancrer fermement le véhicule dans la capacité SAE de niveau 2 et ne le rend pas autonome selon la définition du DMV », a écrit Eric Williams, avocat général associé de Tesla, dans une déclaration jointe à un courriel adressé au DMV de la Californie. « Les capacités de City Streets en ce qui concerne la sous-tâche de détection et de réponse aux objets et aux événements (OEDR) sont limitées, car il y a des circonstances et des événements que le système n'est pas capable de reconnaître ou auxquels il ne peut pas répondre ».

Williams a ensuite défini des circonstances telles que le mauvais temps, les véhicules compliqués ou dangereux sur le trajet, les zones de construction, les véhicules d'urgence, les grands carrefours non contrôlés avec de multiples voies d'accès, les occlusions, les débris routiers, les objets statiques et les routes non cartographiées – autant de choses qu'un véhicule doté d'une autonomie partielle de niveau 3 ou plus devrait être capable d'identifier et de remédier, ou du moins de demander au conducteur de prendre le relais.

D'autres lectures indiquent que la version bêta actuelle de la FSD de Tesla se limite à l'inclusion de visualisations actualisées et au guidage automatique dans les rues de la ville, et non à une forme quelconque de conduite sans surveillance comme le prévoyaient les membres du public étant donné le nom. Ce seul fait est de nature à provoquer une grande confusion chez les propriétaires actuels et potentiels, qui se sont demandé si la FSD serait "complète" (ce qui, selon le PDG Elon Musk, devrait être fait depuis la fin de 2019), et si cela signifiait que Tesla atteindrait le niveau 5 d'autonomie au moment où la FSD Beta serait mise à la disposition de tous les conducteurs.

En janvier 2020, un sénateur US a estimé que le nom "Autopilot" de Tesla peut emmener les conducteurs à surestimer les capacités réelles du véhicule, et a demandé à l'entreprise de le modifier.

L’année dernière, Tesla a annoncé qu'il allait proposer son ensemble complet FSD sous forme de service par abonnement, qui pourrait être considéré comme un logiciel-service (SaaS). Le PDG Elon Musk a confirmé que Tesla prévoyait de lancer une telle option « vers la fin de l'année » dernière. L’offre coûte 10 000 dollars, d’après Electrek.

Musk a également dit que l'achat du forfait FSD resterait la meilleure option financièrement : « Je dois dire qu'il sera toujours judicieux d'acheter la FSD en option, car, à notre avis, l'achat de la FSD est un investissement pour l'avenir. Et nous sommes convaincus que c'est un investissement qui sera rentable pour le consommateur – au bénéfice du consommateur. À mon avis, l'achat d'une option FSD est une chose que les gens ne regretteront pas ».

Une confusion supplémentaire a été créée lorsque Musk a tweeté sur "la conduite autonome en jouant" aux jeux vidéo. Cela s'est produit à peu près au moment où les courriels ont été envoyés au DMV californien, et cela a presque certainement ajouté à l'incertitude, car d'autres utilisateurs de Twitter ont même répondu au tweet en demandant l'accès à la FSD Beta pour pouvoir l'essayer.


« [La] version finale de City Streets continuera d'être un SAE de niveau 2, une fonction avancée d'assistance à la conduite, » a poursuivi Williams. « Veuillez noter que le développement par Tesla de véritables fonctionnalités autonomes (SAE niveaux 3+) suivra notre processus itératif (développement, validation, sortie anticipée, etc.) et ces fonctionnalités ne seront pas mises à la disposition du grand public tant que nous ne les aurons pas entièrement validées et que nous n'aurons pas reçu les autorisations ou les approbations réglementaires requises ».

Tout ce qui précède, y compris la mention par Tesla de "Autosteer on City Streets" comme une caractéristique de la FSD actuelle, prouve à tout le moins que le monde de la conduite autonome est construit sur une colline de sémantique confuse. La définition d’une "autonomie partielle" semble être la conduite "mains libres" pour les autres, et une désignation aussi petite suffit à créer un risque sérieux – ce type de commercialisation peut être dangereux.

« C'est là qu'il y a un décalage entre le langage marketing de Tesla et le langage technique. Ils font de la publicité et collectent des fonds pour les préventes de "Full Self-Driving », a écrit un commentateur. « Est-il acceptable de précommander au consommateur moyen un article qui pourrait ne pas être disponible avant 10 ans ? », a-t-il questionné. Et vous, qu’en pensez-vous ?

Source : Emails de Tesla

Et vous ?

Qu’en pensez-vous ?
Tesla mentionne que son FSD Beta est un SAE de niveau 2. Selon vous, qu’est-ce qui motive donc l’appellation Full Self-Driving ?
Pensez-vous que les gens continueront à acheter des véhicules Tesla s’ils comprennent que Tesla n’a même pas encore abordé le SAE niveau 3 ?

Voir aussi :

Tesla lance en version bêta le mode Full self-driving, la réaction des conducteurs montre que Tesla semble avoir fait un grand pas vers la conduite "entièrement" autonome
Elon Musk affirme que l'abonnement au mode "Full Self-Driving" de Tesla arrivera début 2021, à condition qu'il n'y ait pas de retard cette fois
Un sénateur US estime que le nom "Autopilot" de Tesla peut emmener les conducteurs à surestimer les capacités réelles du véhicule, et demande à l'entreprise de le modifier
Elon Musk indique qu'une « version entièrement autonome » d'Autopilot sera disponible pour Tesla en bêta privée « probablement dans un mois »

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Bill Fassinou
Chroniqueur Actualités https://www.developpez.com
Le 10/08/2022 à 15:49
Tesla fait face à de nouvelles enquêtes sur les décès de motocyclistes et la publicité mensongère
les véhicules Tesla semblent avoir du mal à reconnaître les motocyclistes et les piétons

L'année 2022 continue d'être très mouvementée pour Tesla. La National Highway Traffic Safety Administration (NHTSA) des États-Unis a lancé au début du mois deux nouvelles enquêtes sur le constructeur de véhicules électriques. L'une porte sur la mort de deux motocyclistes percutés par l'arrière par des véhicules Tesla en juillet et l'autre sur des allégations de publicités mensongères portées contre l'entreprise en Californie. La NHTSA cherche à savoir si l'Autopilot, le système avancé d'aide à la conduite (ADAS) de Tesla, est capable de reconnaître correctement les motocyclistes le jour comme la nuit.

Les accidents mortels impliquant l'Autopilot de Tesla sont de plus en plus fréquents et les autorités routières semblent plus inquiètes que jamais au sujet de la fiabilité du logiciel. Deux accidents mortels ont particulièrement attiré l'attention des régulateurs fédéraux américains au cours du dernier mois. Le premier accident mortel s'est produit aux premières heures du 7 juillet à Riverside, en Californie, lorsqu'une Tesla Model Y circulant sur la State Route 91 a percuté une moto par l'arrière, tuant son conducteur. Le deuxième accident mortel de moto s'est produit le 24 juillet, de nuit également, cette fois sur la I-15 à la sortie de Draper, dans l'Utah.

Dans ce cas, une Tesla Model 3 roulait derrière une moto et l'a percutée, tuant son conducteur. Selon les rapports sur ces deux accidents, la patrouille routière de la Californie cherche toujours à savoir si l'Autopilot était actif lors du premier accident, mais le conducteur de l'Utah a admis qu'il utilisait l'assistance à la conduite au moment de son accident. Cette semaine, les médias américains ont rapporté que des enquêteurs de la NHTSA se sont rendus sur les lieux des accidents dans le cadre d'une nouvelle enquête. La NHTSA soupçonne que le système d'aide à la conduite partiellement automatisé de Tesla était utilisé dans chaque cas.



L'agence indique qu'une fois qu'elle aura recueilli davantage d'informations, elle pourra inclure ces accidents dans une enquête plus large portant sur les véhicules Tesla heurtant des véhicules d'urgence stationnés le long des autoroutes. La NHTSA enquête également sur plus de 750 plaintes selon lesquelles les véhicules Tesla peuvent freiner sans raison. Michael Brooks, directeur par intérim de l'organisation à but non lucratif Center for Auto Safety, a appelé la NHTSA à rappeler l'Autopilot de Tesla, car il ne reconnaît pas les motocyclistes, les véhicules d'urgence ou les piétons. Il s'agit d'une accusation soutenue par plusieurs critiques.

« Il est assez clair pour moi, et cela devrait l'être pour beaucoup de propriétaires de Tesla maintenant, que ce système ne fonctionne pas correctement et qu'il ne répondra pas aux attentes, et qu'il met des personnes innocentes en danger sur les routes », a déclaré Brooks. Selon des rapports de la NHTSA, depuis 2016, l'agence a envoyé des équipes sur 39 accidents dans lesquels des systèmes de conduite automatisée sont soupçonnés d'être utilisés. Parmi ceux-ci, 30 impliquaient des Teslas, y compris des accidents qui ont causé 19 décès. Brooks a critiqué l'agence pour avoir continué à enquêter, mais sans prendre des mesures.

« Qu'est-ce qu'ils font pendant que ces accidents continuent de se produire ? Les conducteurs sont leurrés en pensant que cela les protège, eux et les autres sur les routes, mais cela ne fonctionne tout simplement pas », a-t-il déclaré. Tesla a abandonné l'utilisation du radar de ses systèmes et s'appuie uniquement sur des caméras et la mémoire des ordinateurs. Mais Brooks et d'autres défenseurs de la sécurité affirment que l'absence de radar nuit à la vision dans l'obscurité. Tesla a déclaré que l'Autopilot et le FSD (Full Self-Driving) ne peuvent pas se conduire eux-mêmes, et que les conducteurs doivent être prêts à intervenir à tout moment.

La NHTSA enquête également pour déterminer si la suppression du capteur radar est à l'origine d'un problème de "freinage fantôme" qui a donné lieu à des centaines de plaintes auprès du régulateur. L'absence de radar prospectif et le recours exclusif aux caméras pourraient bien être un facteur déterminant dans ces deux accidents mortels, même si des systèmes de régulation adaptative de la vitesse moins controversés ont montré qu'ils avaient des problèmes avec les motos si elles roulaient près du bord d'une voie. La seconde enquête ouverte au début du mois par l'agence porte sur des allégations de publicités mensongères visant Tesla.

En effet, l'Autopilot est un système avancé d'aide à la conduite qui est censé améliorer la sécurité et la commodité au volant. Cependant, le nom "Autopilot" a toujours induit les conducteurs de Tesla en erreur, les amenant à être distraits au volant, voire à s'endormir parfois. Même lorsque l'Autopilot est complété par le FSD, c'est loin d'être un système parfait, car il ne parvient pas à réussir plusieurs manœuvres simples qu'un conducteur humain peut réaliser facilement. Par exemple, au début du mois, un youtubeur a montré comment l'Autopilot de Tesla fait foncer son Model 3 sur un tramway venant en sens inverse.

Le département californien des véhicules à moteur a accusé Tesla de publicité mensongère dans sa promotion de l'Autopilot et de sa version améliorée, le FSD. Selon les médias locaux, les accusations ont été formulées dans des plaintes déposées auprès du bureau des audiences administratives de l'État le 28 juillet. Dans une interview en juin, l'administrateur de la NHTSA, Steven Cliff, a déclaré que l'agence intensifiait ses efforts pour comprendre les risques posés par les véhicules automatisés afin de pouvoir décider des réglementations nécessaires pour protéger les conducteurs, les passagers et les piétons.

Il n'existe pas de réglementation fédérale couvrant directement les véhicules autonomes ou ceux dotés de systèmes d'aide à la conduite partiellement automatisés tels que le système Autopilot. Cependant, l'agence affirme que cette technologie est très prometteuse pour réduire les accidents de la route. Elle a également ordonné à tous les constructeurs automobiles et aux entreprises technologiques dotés de systèmes de conduite automatisée de signaler tous les accidents. L'agence a publié un premier lot de données en juin, montrant que près de 400 accidents ont été signalés sur une période de 10 mois, dont 273 avec des Teslas.

Sur 367 accidents signalés entre juillet 2021 et le 15 mai 2022, les véhicules Tesla représentaient les trois quarts de tous les accidents impliquant un système d'aide à la conduite. La nouvelle fournit encore plus de données sapant les affirmations selon lesquelles l'Autopilot est un système sécurisé. Malgré le nom du système, Tesla a été forcé par les autorités de rappeler aux conducteurs d'être vigilants sur la route et de maintenir leurs mains sur le volant. Le PDG de Tesla, Elon Musk, affirme que l'Autopilot rend la conduite plus sûre et permet d'éviter les accidents. Cependant, les rapports accablants sur l'Autopilot tendent à démontrer le contraire.

La NHTSA a toutefois mis en garde contre les comparaisons, affirmant que la télématique de Tesla lui permet de recueillir des données en temps réel, et beaucoup plus rapidement que les autres entreprises. Le mois dernier, le tribunal de district de Munich I a condamné Tesla à rembourser à un client la majeure partie du prix d'achat de 112 000 euros pour un SUV Model X. Dans le cadre du jugement, le tribunal s'est basé sur un rapport, qui n'a pas encore été rendu public, selon lequel le système d'assistance ne reconnaît pas de manière fiable les obstacles - comme le balisage d'un chantier de construction.

L'argument des avocats de Tesla, selon lequel Autopilot n'était pas destiné au trafic urbain, n'a pas été retenu par le tribunal. « Une fois de plus, cela montre que Tesla ne tient pas ses promesses en matière d'Autopilot », a déclaré l'avocat du plaignant Christoph Lindner. Dans un jugement rendu en juillet 2020, un tribunal de Munich a interdit à Tesla Allemagne de répéter des « déclarations trompeuses » concernant les capacités de sa technologie Autopilot. Selon le jugement, Tesla ne pourra plus inclure les expressions « plein potentiel de conduite autonome » ou « pilote automatique inclus » dans ses supports publicitaires allemands.

Chaque année, la NHTSA ouvre en moyenne plus de 100 enquêtes spéciales sur des accidents pour étudier les nouvelles technologies et d'autres problèmes de sécurité potentiels dans l'industrie automobile. En février dernier, Tesla a dû rappeler 53 822 véhicules équipés de l'Autopilot, qui peut permettre à certains modèles d'effectuer un "rolling stop" (arrêt roulant) et de ne pas s'arrêter complètement à certaines intersections, ce qui pose un risque pour la sécurité. La NHTSA a déclaré que le rappel concerne certains véhicules Model S et Model X 2016-2022, Model 3 2017-2022 et Model Y 2020-2022. Elle a invité Tesla à désactiver cette fonction.

À terme, Musk affirme que les véhicules Tesla se conduiront tout seuls, permettant ainsi la création d'une flotte de robotaxis autonomes qui augmenteront les bénéfices de Tesla. En 2019, Musk s'était engagé à faire fonctionner les robotaxis en 2020. Cependant, l'entreprise ne parvient toujours pas à convaincre avec l'Autopilot.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des accidents impliquant l'Autopilot de Tesla ?
Que pensez-vous du système d'aide à la conduite de l'entreprise ? Est-il fiable ?
Pensez-vous que les autorités devraient interdire à Tesla de commercialiser l'Autopilot ?

Voir aussi

L'Autopilot de Tesla fait pratiquement foncer un Model 3 sur un tramway venant en sens inverse, l'option « Full Self-Driving » était activée

Un véhicule Tesla avec l'Autopilot activé percute une moto sur l'autoroute et tue le conducteur, l'accident remet à nouveau en cause la fiabilité du système d'aide à la conduite de Tesla

Des véhicules Teslas exécutant Autopilot étaient impliqués dans 273 accidents signalés depuis l'année dernière, selon les données de la National Highway Traffic Safety

Tesla rappelle près de 54 000 véhicules susceptibles de ne pas respecter les panneaux d'arrêt, les Model S et Model X 2016-2022, Model 3 2017-2022 et Model Y 2020-2022 sont concernés

Le tribunal de Munich ordonne à Tesla de rembourser un client suite à ses problèmes avec Autopilot, après avoir constaté des lacunes en matière de sécurité dans la technologie du constructeur auto
17  1 
Avatar de Stéphane le calme
Chroniqueur Actualités https://www.developpez.com
Le 21/03/2021 à 9:17
La MàJ du logiciel du pilote automatique « Full Self Driving » de Tesla est potentiellement dangereuse
et dirige le véhicule par moment de façon extrêmement risquée

Une version bêta de la mise à jour du pilote automatique « Full Self Driving » de Tesla a commencé à être déployée auprès de certains utilisateurs. Des vidéos du système en action montrent qu'il y a encore du chemin à parcourir et fait valoir que, pour le moment, il est potentiellement dangereux de se reposer sur le programme bêta « Full Self Driving » d'Autopilot.

En septembre, lors de l'assemblée annuelle des actionnaires de Tesla Motors et de l'événement Battery Day 2020, le PDG Elon Musk a annoncé que le constructeur d'automobiles électriques s'apprêtait à publier une version bêta privée de la « version entièrement autonome » de son logiciel d'aide à la conduite Autopilot dans les mois à venir.

« C'est un peu difficile pour les gens de juger des progrès d'Autopilot », a déclaré Musk à une foule d'actionnaires présents à l'événement, chacun respectant les mesures barrières en restant dans sa propre Tesla. « Je conduis une version alpha de pointe d'Autopilot, donc j'ai en quelque sorte un aperçu de ce qui se passe ».

Musk a poursuivi en expliquant comment les ingénieurs de Tesla ont récemment dû réviser des parties majeures du pilote automatique, y compris en repensant la façon dont le système voit le monde.

« Nous avons dû effectuer une réécriture fondamentale de l'ensemble de la pile logicielle Autopilot… Nous étiquetons maintenant la vidéo 3D, ce qui est très différent de notre procédé précédent qui consistait à étiqueter des images 2D uniques », a expliqué Musk, faisant référence à la façon dont le logiciel Autopilot comprend des objets qu'il voit avec ses huit caméras et comment il doit réagir. « Nous étiquetons maintenant des segments vidéo entiers issus simultanément de toutes les caméras. La sophistication du réseau neuronal de la voiture et la logique globale de la voiture sont considérablement améliorées ».

C'est depuis octobre que certains conducteurs ont pu bénéficier de la version bêta fermée du « Full Self Driving » d'Autopilot. En décembre, environ 200 personnes avaient obtenu l'accès au programme, dont 54 n'étaient pas des employés de Tesla, bien que cela ait probablement changé, puisque le PDG Elon Musk a indiqué que Tesla avait fait participer près de 1000 personnes à la version bêta en janvier. Cependant, Tesla a précisé que ce Full Self Driving ne correspond en réalité qu'à la définition SAE de l'autonomie partielle de niveau 2.

Des vidéos d'une nouvelle mise à jour de la version Bêta ont commencé à circuler sur la toile. Dans une vidéo de 13 minutes publiée sur YouTube par l'utilisateur «AI Addict», nous voyons un Model 3 avec FSD Beta 8.2 tâtonner autour d'Oakland. Il semble totalement confus à tout moment, n'imitant jamais passablement un conducteur humain. Au début de la vidéo, le passager avant remarque la décision correcte de la voiture de dépasser un tas de voitures en double stationnement plutôt que d'attendre derrière elles – mais le moment de louange est écourté lorsque la voiture se gare juste sur la ligne médiane alors qu'elle essaye de prendre le virage à gauche.


En effet, comme tous les systèmes semi-autonomes en vente aujourd'hui, les systèmes « Full Self Driving » et « Autopilot » de Tesla ne sont pas, en fait, entièrement autonomes. Ils nécessitent une surveillance humaine constante et une intervention en une fraction de seconde. Et maintenant que la dernière version bêta du logiciel est disponible, elle semble exiger plus d'attention que jamais.

L'industrie automobile a adopté six niveaux de conduite automatisée, qui dictent le niveau d'assistance qu'un véhicule peut fournir. Ces niveaux d'autonomie des véhicules, de 0 à 5, vont des voitures manuelles ou dotées de fonctions simples telles que le régulateur de vitesse aux véhicules entièrement autonomes qui n'auraient pas besoin de volant ni de pédales de frein et d'accélération. Actuellement, il n'existe pas de voitures produites en série au niveau 3, bien que certains constructeurs automobiles aient testé des véhicules dotés d'une technologie plus sophistiquée de niveau 4, qui implique un véhicule capable de se conduire lui-même, bien qu'il puisse être limité à une certaine zone. L'automatisation de niveau 5, qui permet de garantir un contrôle autonome du véhicule dans pratiquement toutes les situations et de supprimer la nécessité d'un volant, est considérée comme l'objectif ultime des voitures à conduite autonome.


Assez rapidement, la vidéo passe des « erreurs embarrassantes » à « une conduite extrêmement risquée et potentiellement nuisible ». En mode autonome, la Tesla enfreint une variété de règles de la circulation à l'instar d'un changement de voie illégal. Elle tente ensuite de tourner à gauche à côté d'une autre voiture, pour abandonner à mi-chemin de l'intersection et se désengager. Elle prend un autre virage beaucoup trop large, se plaçant dans une voie en sens interdit et nécessitant l'intervention du conducteur.

La vidéo n'est même pas à moitié terminée, mais la litanie d'erreurs se poursuit avec un autre désengagement aléatoire. La Tesla tente de faire un virage à droite à un feu rouge où c'est interdit, obligeant le conducteur à l'en empêcher activement. Elle s'arrête au hasard au milieu de la route, continue tout droit dans une voie réservée aux virages. Le logiciel de la Tesla est perdu par des voitures arrêtées sur la chaussée et à une intersection où il a clairement la priorité.

Personne n'est parvenu à proposer une conduite réellement autonome. C'est un problème difficile qui, selon certains experts, ne sera résolu qu'avec une intelligence artificielle très avancée. Le logiciel de Tesla fait clairement un travail décent en identifiant les voitures, les panneaux d'arrêt, les piétons, les vélos, les feux de signalisation et d'autres obstacles de base.

En général, lorsqu'une technologie est encore en plein développement, la réaction naturelle est de continuer à travailler dessus jusqu'à ce que le chemin soit aplani. Tesla a opté contre cette stratégie ici, choisissant à la place de vendre un logiciel qu'il sait incomplet, facturant une prime substantielle et espérant que ceux qui l'achètent auront une compréhension nuancée et avancée de ses limites. En somme, chaque propriétaire de Tesla qui achète un modèle "Full Self-Driving" sert de superviseur de la sécurité non rémunéré, menant des recherches au nom de Tesla. Peut-être plus accablant, la société n'assume aucune responsabilité pour ses actions et laisse au conducteur le soin de décider quand et où le tester.

Cela conduit à des vidéos comme celle-ci, où les premiers utilisateurs effectuent des tests incontrôlés dans les rues de la ville, les piétons, les cyclistes et les autres conducteurs ignorant qu'ils font partie de l'expérience. Si même l'un de ces pilotes Tesla dérape, les conséquences peuvent être mortelles. Tous ces tests sont effectués sur la voie publique, au profit du constructeur automobile le plus précieux du monde, à un coût pratiquement nul.


Notons qu'au début du mois, Honda Motor a lancé une nouvelle voiture équipée de la première technologie de conduite autonome certifiée de niveau 3 au monde, ouvrant la voie à l'industrie automobile pour redoubler d'efforts pour commercialiser une telle automatisation pour les véhicules de tourisme. Le niveau SAE 3 diffère fondamentalement du niveau 2 en ce qu'il s'agit d'une graduation de l'automatisation partielle (comme dans Autopilot de Tesla) à l'automatisation conditionnelle, ce qui signifie qu'une voiture peut lire son environnement et prendre des décisions en fonction de ce qu'elle voit. Cela permet à une voiture équipée d'un système de niveau 3 comme Honda Sensing Elite d'agir de son propre chef (sans jeu de mots) en fonction de la situation actuelle (parfois avec les mains du conducteur sur le volant, et dans certains cas, si le conducteur ne regarde pas la route). Une telle liberté est accordée dans le cadre de la fonction Traffic Jam Pilot de Honda Sensing Elite, qui donne à la voiture le contrôle de ses propres freins, direction et accélérateur dans ce scénario éponyme. Cela permet à la voiture de maintenir la distance, la vitesse et la position sur la voie. Il fait tout cela sans aucune intervention du conducteur, qui, selon Honda, peut « regarder la télévision / DVD sur l'écran de navigation ou utiliser le système de navigation pour rechercher une adresse de destination ».

Les vidéos de tests nous feront probablement savoir si tout ce qui est annoncé est déjà atteint techniquement et comment se comportent les véhicules en conditions réelles pour des conducteurs lambda.

Et vous ?

Qu'en pensez-vous ? Les conducteurs clients devraient-ils figurer parmi ceux qui testent les mises à jour qui ne sont pas encore bien mises au point ? Dans quelle mesure ?
12  0 
Avatar de Stéphane le calme
Chroniqueur Actualités https://www.developpez.com
Le 01/06/2022 à 7:41
Le mode Full Self-Driving de Tesla a tellement énervé cet homme qu'il se présente au Sénat,
Dan O'Dowd est mécontent du fait que le logiciel bêta de Tesla soit testé sur la voie publique

Dan O'Dowd, ingénieur et PDG d'une société de logiciels, se présente pour l'un des sièges du Sénat de Californie. L'une des missions qu'il se donne est d'interdire la fonction Full Self-Driving de Tesla.

La voiture électrique, généralement munie d'un système d'aide à la conduite, se popularise davantage et un grand nombre de nouveaux acteurs sont arrivés sur le marché pendant la dernière décennie, certains étant des filiales de grands groupes existant déjà sur le marché des véhicules à combustion. Cela a engendré une concurrence accrue et les entreprises semblent user désormais de tous les moyens pour mettre en avant leurs produits. C'est peut-être ce qui s'est passé début janvier avec Dan O'Dowd, qui a publié une « critique sévère » sur le logiciel Full Self-Driving (FSD) de Tesla sous la forme d'une publicité dans le New York Times.


Dan est le cofondateur et PDG de Green Hills Software. Green Hills est une société privée qui construit des systèmes d'exploitation et des outils de programmation pour les systèmes embarqués, mais avec l'avènement de la voiture électrique, elle s'est également lancée dans le développement de systèmes d'aide à la conduite (ADAS - Advanced Driver Assistance Systems). Intitulée Don't be a Tesla crash test dummy (« ne soyez pas un mannequin de test de collision pour Tesla »), la publicité de Dan affirme que dans sa version actuelle, le FSD tuerait des millions de personnes chaque jour s'il alimentait un plus grand nombre de voitures.

Dan a fondé sa critique sur une étude des vidéos mises en ligne qui montrent des propriétaires de Tesla utilisant la fonction Full Self-Driving complète, qui, selon Tesla, est en phase bêta et ne permet qu'une autonomie limitée sous la supervision du conducteur. Selon son étude, les vidéos montrent que FSD commet une « erreur de conduite critique » toutes les huit minutes et une « erreur involontaire » toutes les 36 minutes qui « causerait probablement une collision ». Sur la bannière publicitaire, Dan estime que le FSD est le « pire logiciel commercial » qu'il ait jamais vu et pense qu'il est toujours dans une phase alpha.

De ce fait, il pense qu'il devrait être testé par des employés de Tesla en interne plutôt que par des propriétaires de Tesla. « Le logiciel qui pilote les voitures à conduite autonome dont des millions de vies vont dépendre doit être le meilleur logiciel », a-t-il déclaré. Bien qu'une version restreinte du FSD soit accessible à toute personne possédant une Tesla, les propriétaires peuvent également demander à devenir des bêta-testeurs d'une version plus avancée s'ils ont un score de sécurité de conduite suffisamment élevé, tel que déterminé par le logiciel de leur voiture. Dan fait en effet campagne pour interdire le FSD de Tesla.

Il a déclaré avoir placé l'annonce sous les auspices du Dawn Project, un groupe de pression qui milite dans ce sens. Il s'agit d'une organisation qui se décrit elle-même comme « dédiée à rendre les ordinateurs vraiment sûrs pour l'humanité ». Selon certains critiques, l'annonce publiée par Dan apparaît en partie comme un coup de publicité destiné à attirer l'attention sur sa propre entreprise. Green Hills Software a déclaré au début dudit mois que sa technologie était utilisée pour développer un logiciel d'aide à la conduite pour la BMW iX entièrement électrique, un SUV sportif présenté par BMW au CES 2022.

En réaction, Elon Musk, PDG de Tesla, s'est attaqué au logiciel de Green Hills Software. Musk a tweeté : « le logiciel de Green Hills est un tas d'ordures », et a approuvé un commentaire selon lequel « les critiques du FSD ont toujours un énorme intérêt financier dans une solution concurrente ». Mais de son côté, Dan a déclaré que les meilleures sources d'information sur un produit sont ses concurrents. « Ils les mettent en pièces, ils découvrent ce qu'ils font bien, ils découvrent ce qu'ils font mal. Ils savent mieux que quiconque, et ils vous le diront. Le vendeur ne vous dira jamais ces choses-là », a-t-il déclaré.

De plus, il a également allégué que la version originale de l'Autopilot de Tesla, qui était un précurseur du FSD, a été construite en utilisant Green Hills Software. « Je me suis retiré du projet et j'ai dit : "je ne sais pas si c'est bien, si c'est ce que nous devrions faire ici, ça ne va pas marcher », a déclaré Dan. Musk n'a pas eu d'autres réactions en dehors de celle-ci et Tesla, qui ne dispose pas d'un bureau des affaires médiatiques opérationnel, n'a pas apporté de commentaires sur les allégations de Dan selon lesquelles il y aurait un lien entre la technologie d'aide à la conduite de Green Hills Software et le FSD.

Quoi qu'il en soit, sur la toile, certains commentaires ont noté qu'il est « tout à fait ridicule » d'utiliser des vidéos YouTube de tiers - au lieu de tester directement la technologie - pour extraire des « preuves » que le FSD tuerait des millions de personnes chaque jour si elle était installée sur toutes les voitures du monde. Un autre signal d'alarme serait le fait que la publicité n'utilise pas une seule fois le nom complet du logiciel Full Self-Driving Beta. Elle ne mentionne pas la partie « Beta », ce qui peut amener certains lecteurs à croire que le FSD Beta est un produit fini alors qu'il est encore en phase de test de développement.

La course au Sénat

L'évaluation stratosphérique des actions de Tesla est due en partie à la fonction FSD et aux déclarations futuristes de l'entreprise, qui promet une voiture véritablement autonome qui pourrait même fonctionner dans les rues pendant que son propriétaire dort. Mais les progrès de l'entreprise ont été difficiles, changeant de plateformes de calcul et abandonnant les capteurs tout en essayant de faire correspondre les fonctionnalités des anciennes Tesla construites avec des systèmes avancés d'aide à la conduite plus simples, mais plus robustes.

FSD est cependant une importante source de revenus pour Tesla. En janvier, le PDG de Tesla, Elon Musk, a déclaré aux investisseurs que « la conduite entièrement autonome deviendra la source de rentabilité la plus importante pour Tesla ». Et la société a augmenté à plusieurs reprises le prix de la fonctionnalité - ce qui a commencé comme une option de 6 000 $ en 2019 est maintenant une option de 12 000 $.

Mais ce qui a apparemment incité O'Dowd à agir, c'est le fait que les propriétaires de Tesla testent des versions bêta du logiciel FSD sur la voie publique.

La page de campagne d'O'Dowd fait même la distinction entre Tesla Autopilot et FSD, déclarant que « ce logiciel bêta expérimental s'appuie sur des caméras et des capteurs externes pour tenter de détecter des obstacles, des véhicules, des marquages ​​routiers et, surtout, des piétons, plutôt que le jugement de son conducteur. La plupart des décisions, telles que le contrôle de la vitesse, sont prises par l'ordinateur du véhicule, sans l'intervention du conducteur ».

Selon ses documents de campagne, l'expérience d'O'Dowd est dans le développement de logiciels sécurisés pour des systèmes d'armes comme le B-1B, et il prétend avoir récemment construit un ordinateur portable impossible à pirater pour le FBI. Il a également fondé le projet Dawn, qui préconise le remplacement de toutes les infrastructures critiques par des logiciels qui ne peuvent pas tomber en panne et ne peuvent jamais être piratés - un objectif louable, quoique peut-être sisyphéen.

O'Dowd et le projet Dawn affirment que toutes les huit minutes, une Tesla exécutant le FSD commet une erreur de conduite critique*: entrer en contact avec un objet, désobéir aux panneaux de signalisation ou aux signaux de signalisation, désobéir au personnel de sécurité ou aux véhicules, ou effectuer des manœuvres dangereuses qui contraignent d'autres à prendre des mesures d'évitement. La campagne d'O'Dowd affirme également que les défauts de sécurité du FSD provoquent des dysfonctionnements environ une fois toutes les 36 minutes en conduite urbaine.

Plutôt que de laisser aux journalistes le soin de faire des parallèles avec la campagne de sécurité de Ralph Nader de 1965 pour résoudre les problèmes de maniement de la Chevrolet Corvair, la campagne d'O'Dowd le fait explicitement avec une publicité intitulée Unsafe at Any Speed. Et la publicité, qui comprend une compilation des moments les plus embarrassants de FSD sur YouTube, sera même diffusée à l'échelle nationale. O'Dowd achète du temps d'antenne dans 36 États, même si seuls les électeurs californiens ont la possibilité de cocher sa case.


Sources : Campagne de Dan O'Dowd, Dawn Project

Et vous ?

Qu'en pensez-vous ? Comprenez-vous sa démarche ? Dans quelle mesure ?
Projet louable ou attaque lancée contre un concurrent pour se faire de la publicité ?

Voir aussi :

Tesla augmente le prix du logiciel Full Self Driving (FSD) à 12 000 $ aux États-Unis le 17 janvier, a annoncé le président-directeur général, Elon Musk, sur Twitter
Tesla a réalisé plus de 3 Mds $ de bénéfices au premier trimestre pour un chiffre d'affaires de 18,8 Mds $. L'entreprise bat les estimations des analystes et enregistre encore un trimestre record
Tesla doit désormais signaler les accidents liés à son Autopilot au gouvernement ou s'exposer à des amendes, d'après une décision de l'agence fédérale chargée de la sécurité routière
Autopilot de Tesla : les États-Unis enquêtent sur la fonctionnalité après que 11 Tesla se sont écrasées contre des véhicules d'urgence
13  2 
Avatar de Stéphane le calme
Chroniqueur Actualités https://www.developpez.com
Le 04/05/2022 à 12:55
Tesla accusé d'avoir retiré un module électronique de ses voitures pour faire face à la pénurie de puces,
une omission qui rend impossible la conduite autonome de niveau 3 pour ces véhicules et qui contredit les propos d'Elon Musk

Un rapport a révélé que Tesla a pris des raccourcis pour faire face aux problèmes endémiques de la chaîne d'approvisionnement causés par la pandémie – mettant encore un autre obstacle sur la voie de la mise à niveau de voitures autonomes de niveau 3. Le constructeur de voitures électriques dirigé par Elon Musk a retiré l'une des deux unités de commande électroniques de ses voitures Model 3 et Model Y construites à Shanghai, ont déclaré deux employés anonymes de Tesla aux médias. Cette décision est intervenue alors que la société était sous pression pour atteindre ses objectifs de vente au quatrième trimestre dans un contexte de pénurie mondiale de semi-conducteurs.

Le composant n'est pas nécessaire pour les systèmes d'assistance à la conduite actuels de « niveau deux » tels que Full Self-Driving et Autopilot, qui exigent toujours que le conducteur reste alerte avec les mains sur le volant, et a été décrit comme redondant, car il y avait une sauvegarde système de puce qui a effectué ces tâches. Il n'y a donc aucun danger réel à ne pas l'inclure dans les voitures de l'entreprise avec leurs capacités logicielles actuelles.

Cependant, il est nécessaire si l'entreprise veut atteindre son objectif d'autonomie de « niveau trois », qui offrirait une aide à la conduite mains libres. Étant donné que le composant fournit aux voitures un système de direction à double commande, les conducteurs devront amener leur véhicule pour le faire moderniser avec une nouvelle puce s'ils veulent un système de conduite autonome de niveau trois.

Tout cela contredit directement Elon Musk lui-même, qui a déclaré lors d'un récent appel aux résultats que les voitures pourraient atteindre une autonomie sans intervention physique, se contentant d'une simple mise à jour logicielle.


Sous la pression d'atteindre les objectifs de vente du quatrième trimestre tout en faisant face à des pénuries généralisées de semi-conducteurs, Tesla a décidé de retirer l'une des deux unités de commande électroniques qui sont normalement incluses dans les crémaillères de direction de certaines voitures Model 3 et Model Y fabriquées en Chine, selon deux employés et une correspondance en interne. Pour mémoire, la crémaillère de direction est une pièce mécanique qui assure le lien entre la colonne de direction et les roues de la voiture. Son rôle consiste à diriger les roues avant selon les commandes effectuées au volant.

Tesla n'a pas divulgué l'exclusion, qui a déjà touché des dizaines de milliers de véhicules livrés à des clients en Chine, en Australie, au Royaume-Uni, en Allemagne et dans d'autres parties de l'Europe. Il n'était pas immédiatement clair de savoir si Tesla apporterait des modifications similaires aux voitures fabriquées ou expédiées aux États-Unis.

L'omission indique que Tesla a dû apporter des changements au-delà de ce que la société a révélé publiquement pour maintenir ses usines et ses ventes à partir des dernières semaines de 2021, alors que le monde faisait face à une pénurie continue de puces qui a affecté toutes les industries, des voitures aux ordinateurs portables. Cela signifie également que Tesla ne peut pas transformer toutes ses voitures existantes en véhicules sans conducteur avec une simple mise à jour logicielle, ce qui va à l'encontre de ce que le PDG Elon Musk a récemment déclaré lors d'un appel aux résultats :

« Je suppose personnellement que nous atteindrons l'autoconduite complète cette année à un niveau de sécurité nettement supérieur à celui d'un individu. Ainsi, les voitures de la flotte devenant essentiellement autonomes grâce à une mise à jour logicielle, je pense qu'elles pourraient finir par être la plus forte augmentation de la valeur des actifs de toutes les classes d'actifs de l'histoire. Nous verrons ».

En interne, les employés de Tesla ont déclaré que l'ajout d'une fonctionnalité de « niveau 3 », qui permettrait à un conducteur d'utiliser leur Tesla en mode mains libres (sans les mains sur le volant) dans des scénarios de conduite normaux, nécessiterait le système de double unité de commande électronique et nécessiterait donc une mise à niveau lors d'une visite de service. Ils ont également déclaré que l'exclusion ne poserait pas de problèmes de sécurité, puisque la pièce retirée était considérée comme une unité de contrôle électronique secondaire, utilisée principalement comme sauvegarde.

Au moment où ce changement de fabrication était en cours à Shanghai, le PDG Elon Musk a écrit dans un tweet : « Cette année a été un véritable cauchemar pour la chaîne d'approvisionnement et ce n'est pas fini ! »


Tesla a été aux prises avec des défis de fabrication tout au long de son histoire, mais l'achèvement de son usine de Shanghai en 2019 l'a aidée à augmenter sa production, à augmenter ses marges et à gagner des parts de marché au-delà de l'Amérique du Nord. Cette dernière décision révèle de nouvelles pressions alors que l'entreprise s'enfonce davantage dans le courant dominant et vise à tenir les promesses d'Elon Musk d'un avenir autonome.

Ce que fait la partie omise

L'élément spécifique omis est une unité de commande électronique dans les systèmes de direction assistée électrique, qui traduit les mouvements du volant en virages dans la rue. Avant que les voitures n'utilisent autant de composants électroniques, les véhicules reposaient sur une pompe, une crémaillère de direction et un pignon pour traduire les mouvements du volant en virages.

Richard Wallace, conseiller principal pour HWA Analytics à Ann Arbor et chercheur chevronné en sécurité des transports, explique comment cela a changé : « Il y a toujours une composante mécanique bien sûr. Mais dans les véhicules d'aujourd'hui, lorsque vous "tournez le volant", vous fournissez un signal électronique indiquant à votre voiture d'aller à gauche ou à droite ».

Aujourd'hui, les systèmes de direction assistée électrique permettent également des fonctions d'assistance au conducteur, note Wallace, comme la possibilité de maintenir automatiquement une voiture au centre d'une voie.

Tesla a supprimé le composant, car les ingénieurs l'ont jugé redondant, étant donné qu'il était principalement installé en tant que sauvegarde. L'omission de l'unité de contrôle permettra également à Tesla d'économiser de l'argent à court terme, à condition qu'aucun problème ne survienne à la suite du système modifié.

Ce n'est pas la première fois que la société supprime des options ou des composants pour des raisons commerciales. Par exemple, au printemps dernier, Tesla a supprimé le support lombaire des sièges passagers des modèles 3 et Y pour réduire les coûts.

Le 26 janvier 2021, Musk a déclaré lors d'un appel aux résultats que Tesla avait affronté un « enfer concernant les puces » en 2021. L'entreprise a eu du mal à obtenir « la petite puce qui vous permet de déplacer votre siège d'avant en arrière », a-t-il noté, ainsi que d'autres « puces de base ».

Il n'a pas mentionné les systèmes de direction assistée modifiés.

D'autres constructeurs automobiles ont pris des mesures similaires, mais effectuent généralement des réductions temporaires d'options qui ne font pas partie des fonctionnalités de base d'un véhicule.

Par exemple, en mars 2021, General Motors a déclaré qu'il construisait certaines de ses camionnettes légères 2021 sans module de gestion du carburant, une décision qui a nui à l'économie de carburant de ces camions. Il a pointé du doigt la pénurie de puces pour justifier sa décision.


L'avenir autonome de Tesla

Tesla propose actuellement plusieurs niveaux de fonctionnalité d'assistance à la conduite dans ses voitures. Une version de base, baptisée Autopilot, est livrée avec chaque voiture. Les conducteurs peuvent également acheter une version plus avancée, appelée Full Self-Driving, ou FSD, pour 12 000 $ ou 199 $ par mois (aux États-Unis).

Lorsque Tesla a pris la décision d'exclure une unité de commande électronique de ses crémaillères de direction, il y a eu une discussion interne sur l'opportunité d'informer les clients, ont déclaré deux employés de Tesla. Ces personnes ont demandé à rester anonymes, car elles n'étaient pas autorisées à parler au nom de l'entreprise.

Les employés ont également discuté de la question de savoir si l'omission de la pièce dégraderait toute fonctionnalité ou fiabilité des voitures des clients. Ils craignaient que le « depop » ou l'exclusion de ce composant n'interfère avec la capacité des clients à utiliser les fonctionnalités FSD.

En fin de compte, ils ont décidé que le réglage n'atteignait pas le niveau de notification aux clients – du moins jusqu'à ce que Tesla soit prêt à lancer le « niveau 3 », ou les fonctionnalités d'assistance au conducteur mains libres.

Les véhicules Tesla peuvent toujours utiliser les versions actuelles de « niveau 2 » de ses systèmes d'assistance à la conduite, Autopilot et Full Self-Driving (ou FSD), sans le système de direction à double commande.

Mais les employés ont déclaré que si Tesla lance une mise à jour FSD plus sophistiquée, les propriétaires des voitures concernées qui utilisent ce système premium devront obtenir une mise à niveau de la crémaillère de direction auprès d'un centre de service Tesla.

Généralement, Tesla s'appuie sur des techniciens de service pour installer les pièces manquantes ou pour réparer ou remplacer les pièces cassées, avant qu'une voiture ne soit livrée à un client, faisant du service une sorte de bras étendu de la fabrication de Tesla.

La plupart des voitures équipées de l'unité de commande électronique unique étaient initialement destinées à des clients en Chine, où FSD ne connaît pas d'adoption significative. Selon les communications internes, un peu plus de 1 % de tous les clients de Tesla en Chine ont opté pour le forfait d'assistance à la conduite premium au moment où ils ont passé une commande pour une nouvelle voiture.

Plus récemment, des dizaines de milliers de véhicules concernés ont été exportés vers des clients au-delà de la Chine, notamment en Australie, au Royaume-Uni, en Allemagne et dans toute l'Europe, ont déclaré des employés.

La question de la sécurité

Il a été demandé à Richard Wallace de HWA Analytics si le retrait d'une unité de commande électronique d'un système de direction assistée dans un véhicule moderne pouvait présenter un risque pour la sécurité.

« Si quelque chose comme une puce ou un ECU ne fournit pas de fonctionnalités supplémentaires, s'il est vraiment redondant, vous pourrez peut-être le désactiver ou le laisser de côté. Avec les puces et les logiciels, il y a un peu de marge de manœuvre. Je peux réaffecter des choses ici et là », a-t-il déclaré.

Tout dépend de l'architecture informatique d'un véhicule, a déclaré Phil Amsrud, analyste principal principal d'IHS Markit.

Il a déclaré: « Je ne peux pas penser à un cas où un constructeur automobile dirait "Vous savez quoi? Nous retirerons un composant de ce module, même s'il était là pour une bonne raison et nous espérons que rien ne se passera." Passer d'une variante à double puce à une variante à puce unique dans un véhicule peut simplifier un système et le rendre mieux dans certains cas. Mais ils auraient vraiment besoin de faire beaucoup de validation ».

Source : rapport sur l'omission de Tesla

Et vous ?

Pensez-vous que Tesla devait informer les utilisateurs concernés du fait qu'un module électronique n'avait pas été installé sur leurs véhicules ? Dans quelle mesure ?
L'entreprise aurait-elle dû vendre ces modèles moins chers que les modèles vendus avec ce module électronique ? Pourquoi ?
En cas d'incident avec ces véhicules, y aurait-il un cas de figure où la responsabilité de Tesla pourrait être engagée ? Lequel ?

Voir aussi :

Tesla a réalisé plus de 3 Mds $ de bénéfices au premier trimestre pour un chiffre d'affaires de 18,8 Mds $. L'entreprise bat les estimations des analystes et enregistre encore un trimestre record
Tesla doit désormais signaler les accidents liés à son Autopilot au gouvernement ou s'exposer à des amendes, d'après une décision de l'agence fédérale chargée de la sécurité routière
Autopilot de Tesla : les États-Unis enquêtent sur la fonctionnalité après que 11 Tesla se soient écrasées contre des véhicules d'urgence
10  0 
Avatar de Bill Fassinou
Chroniqueur Actualités https://www.developpez.com
Le 25/07/2022 à 16:37
Un véhicule Tesla avec l'Autopilot activé percute une moto sur l'autoroute et tue le conducteur
l'accident remet à nouveau en cause la fiabilité du système d'aide à la conduite de Tesla

L'Autopilot, le système avancé d'aide à la conduite, de Tesla est de nouveau impliqué dans un accident mortel. Une voiture Tesla avec l'Autopilot activé a mortellement percuté un motocycliste par l'arrière à Draper, dans l'Utah, aux États-Unis. Le conducteur de la Tesla a déclaré aux enquêteurs qu'il n'avait pas vu le motocycliste, ce qui suggère qu'il était distrait et avait placé toute sa confiance dans l'Autopilot. Les incidents mortels impliquant des véhicules Tesla s'accumulent et les autorités américaines enquêtent sur ces événements afin de déterminer le niveau d'implication de l'Autopilot, mais également si le logiciel est aussi sécurisé que Tesla le prétend.

Les accidents mortels impliquant l'Autopilot de Tesla se sont multipliés au cours de ces dernières années. Le dernier en date a eu lieu à Draper où un conducteur de Tesla a percuté par l'arrière un motocycliste dimanche matin, tuant le motocycliste sur le coup. La patrouille routière de l'Utah a indiqué que la fonction Autopilot de la voiture était activée au moment de la collision. Cet accident intervient quelques jours après que La National Highway Traffic Safety Administration (NHTSA) a ouvert une enquête spéciale sur un accident mortel, dans lequel une Tesla Model Y de 2021 a tué un motocycliste en Californie au début du mois.

En effet, l'Autopilot est un système avancé d'aide à la conduite qui est censé améliorer la sécurité et la commodité au volant. Cependant, le nom "Autopilot" a toujours induit les conducteurs de Tesla en erreur, les amenant à être distraits au volant, voire à s'endormir parfois. Même lorsque l'Autopilot est complété par l'option "Full Self-Driving" (FSD), c'est loin d'être un système parfait, car il ne parvient pas à réussir plusieurs manœuvres simples qu'un conducteur humain peut réaliser facilement. Par exemple, au début du mois, un youtubeur a montré comment l'Autopilot de Tesla fait foncer son Model 3 sur un tramway venant en sens inverse.



Se diriger vers le train qui arrive n'est qu'un des nombreux cas graves signalés par le youtubeur. Dans une vidéo montrant des tests qu'il a réalisés, on peut voir les erreurs graves commises par l'Autopilot. Voici une liste non exhaustive :

  • la Tesla a pratiquement foncé sur une barrière (qui indiquait que la route est bloquée, 07:06) ;
  • la Tesla a choisi la mauvaise voie et s'embrouille visiblement (confère l'affichage sur le tableau de bord, 11:06) ;
  • la Tesla a essayé de griller un feu rouge, pendant que les voitures circulaient (12:12) ;
  • la Tesla s'est arrêtée au milieu d'une intersection sans raison (13:09) ;
  • la Tesla a choisi la mauvaise voie pour un virage à gauche (13:25) ;
  • la Tesla a activé et désactivé constamment le clignotant gauche sans raison (dans un endroit où il n'était même pas permis de tourner à gauche, 15:02) ;
  • la Tesla n'a pas réussi à tourner correctement à gauche et a presque heurté des piétons (17:13).


Le mois dernier, la NHTSA a publié un rapport selon lequel des voitures Tesla exécutant l'Autopilot étaient impliquées dans 273 accidents signalés l'année dernière. Sur 367 accidents signalés entre juillet 2021 et le 15 mai 2022, les véhicules Tesla représentaient les trois quarts de tous les accidents impliquant un système d'aide à la conduite (ADAS). La nouvelle fournit encore plus de données sapant les affirmations selon lesquelles l'Autopilot est un système sécurisé. Malgré le nom de son système d'aide à la conduite, Tesla a été forcé par les autorités de rappeler aux conducteurs d'être vigilants sur la route et de maintenir leurs mains sur le volant.

« Même si votre véhicule est équipé de fonctions d'aide à la conduite ou de pilotage automatique, tous les véhicules exigent que le conducteur soit toujours attentif et regarde la route », a déclaré Michael Gordon de la patrouille routière de l'Utah, dimanche. L'enquête ouverte par la NHTSA au début du mois est la 38e enquête spéciale sur un accident impliquant un véhicule Tesla depuis 2016. Parmi ces accidents, 18 ont été mortels. Selon les autorités de la NHTSA, la dernière enquête, comme la plupart des autres, cherche à déterminer si Autopilot, le système avancé d'aide à la conduite de Tesla était utilisé ou non au moment de l'accident.

L'agence a refusé de commenter cette affaire, car elle est toujours en cours. Mais les médias locaux ont rapporté que le 7 juillet, un motocycliste de 48 ans a été tué après une collision sur la Riverside Freeway à Riverside, en Californie. Il roulait sur la voie réservée aux véhicules multioccupants et a été approché par l'arrière par la Tesla. La NHTSA a également ouvert une enquête spéciale sur un autre accident mortel de Tesla en Floride, qui a tué un conducteur de la Tesla de 66 ans et un passager de 67 ans. En mai, l'agence a commencé à enquêter sur un accident impliquant une Tesla Model S de 2022 qui a tué trois personnes.

Le mois dernier, la NHTSA a élargi son enquête sur le système Autopilot de Tesla après une série de collisions par l'arrière à travers les États-Unis. Plusieurs véhicules Tesla ont foncé dans des véhicules d'urgence stationnés. Depuis le début de l'enquête en août dernier, la NHTSA a identifié six autres accidents de ce type. L'incident le plus récent s'est produit en janvier. Le constructeur automobile américain avait installé une mise à jour logicielle sur ses véhicules en septembre, qui devrait permettre à l'Autopilot de reconnaître les véhicules d'urgence même dans des conditions d'éclairage difficiles.

L'enquête spéciale porte désormais sur environ 830 000 véhicules des quatre séries de modèles actuels des années 2014 à 2022. Dans le cadre de l'enquête, il s'agit aussi de savoir comment l'Autopilot exacerbe les erreurs humaines. Selon Tesla, l'Autopilot n'est qu'un système d'assistance, le conducteur doit donc garder les mains sur le volant à tout moment. Il faut également être prêt à reprendre le contrôle du véhicule à tout moment. Le PDG de Tesla, Elon Musk, affirme que l'Autopilot rend la conduite plus sûre et permet d'éviter les accidents. Cependant, les rapports accablants sur l'Autopilot tendent à démontrer le contraire.

Chaque année, la NHTSA ouvre en moyenne plus de 100 enquêtes spéciales sur des accidents pour étudier les nouvelles technologies et d'autres problèmes de sécurité potentiels dans l'industrie automobile. En février dernier, Tesla a dû rappeler 53 822 véhicules équipés de l'Autopilot, qui peut permettre à certains modèles d'effectuer un "rolling stop" (arrêt roulant) et de ne pas s'arrêter complètement à certaines intersections, ce qui pose un risque pour la sécurité. La NHTSA a déclaré que le rappel concerne certains véhicules Model S et Model X 2016-2022, Model 3 2017-2022 et Model Y 2020-2022. Elle a invité Tesla à désactiver cette fonction.

Il y a quelques jours, le tribunal de district de Munich I a condamné Tesla à rembourser à un client la majeure partie du prix d'achat de 112 000 euros pour un SUV Model X. Dans le cadre du jugement, le tribunal s'est basé sur un rapport, qui n'a pas encore été rendu public, selon lequel le système d'assistance ne reconnaît pas de manière fiable les obstacles - comme le rétrécissement d'un chantier de construction. De plus, la voiture freine encore et encore inutilement. Cela pourrait signifier un « risque massif » dans les centres-villes en particulier et entraîner des collisions par l'arrière.

L'argument des avocats de Tesla, selon lequel Autopilot n'était pas destiné au trafic urbain, n'a pas été retenu par le tribunal. « Une fois de plus, cela montre que Tesla ne tient pas ses promesses en matière d'Autopilot », a déclaré l'avocat du plaignant Christoph Lindner. Dans un jugement rendu en juillet 2020, un tribunal de Munich a interdit à Tesla Allemagne de répéter des « déclarations trompeuses » concernant les capacités de sa technologie Autopilot. Selon le jugement, Tesla ne pourra plus inclure les expressions « plein potentiel de conduite autonome » ou « pilote automatique inclus » dans ses supports publicitaires allemands.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de l'Autopilot de Tesla ?
Selon vous, le logiciel est-il fiable ? Améliore-t-il réellement la sécurité sur la route ?
Selon vous, qu'est-ce qui explique la grande confiance des conducteurs de Tesla dans l'Autopilot ?

Voir aussi

L'Autopilot de Tesla fait pratiquement foncer un Model 3 sur un tramway venant en sens inverse, l'option « Full Self-Driving » était activée

Des véhicules Teslas exécutant Autopilot étaient impliqués dans 273 accidents signalés depuis l'année dernière, selon les données de la National Highway Traffic Safety

Tesla rappelle près de 54 000 véhicules susceptibles de ne pas respecter les panneaux d'arrêt, les Model S et Model X 2016-2022, Model 3 2017-2022 et Model Y 2020-2022 sont concernés

Le tribunal de Munich ordonne à Tesla de rembourser un client suite à ses problèmes avec Autopilot, après avoir constaté des lacunes en matière de sécurité dans la technologie du constructeur auto
11  1 
Avatar de Bill Fassinou
Chroniqueur Actualités https://www.developpez.com
Le 12/07/2021 à 10:02
Tesla commence enfin à déployer la version bêta 9 du Full Self-Driving après un long retard
elle apporte la surveillance du conducteur et améliore la visualisation de la route

Attendue depuis plusieurs mois par les propriétaires Tesla, la mise à jour logicielle (2021.4.18.12) du Full Self-Driving (FSD) a commencé à être déployée samedi. Cela permet aux propriétaires Tesla qui ont acheté l'option FSD d'accéder à cette fonction, qui permet aux conducteurs d'utiliser de nombreuses fonctions avancées d'aide à la conduite d'Autopilot sur des routes locales, en dehors des autoroutes. Elon Musk, PDG de Tesla, a toutefois rappelé aux utilisateurs qu'il ne s'agit pour l'instant que d'une version bêta, après que l'entreprise a admis en mai que l'Autopilot actuel est un système d'aide à la conduite de niveau 2.

Les propriétaires de Tesla attendent depuis des mois que la mise à jour majeure du FSD arrive sur les voitures par le biais de mises à jour logicielles automatiques. Et, fait intéressant, bien qu'ils aient constamment demandé à Elon Musk quand les fonctionnalités pourraient être lancées, ils ont été apparemment patients. En effet, leur attente dure depuis près de 3 ans. En 2018, Musk avait déclaré que la version "tant attendue" du FSD commencerait à être déployée au mois d'août. Il l'a refait en 2019, proclamant que « dans un an, il y aurait plus d'un million de voitures avec une conduite autonome complète, le logiciel, tout », ce qui n'est pas arrivé.



Plus tôt ce mois, il a affirmé que « la version bêta de la FSD 9 sera bientôt expédiée ». Donc, dire que les fans de Tesla ont anticipé cette mise à jour depuis un certain temps serait un euphémisme. Ce retard est probablement dû en partie au fait que Tesla a retiré le radar de ses Model 3 et Model Y en faveur d'une approche basée sur la vision par caméra uniquement. La vraie question est de savoir si cette mise à jour est prête pour le grand public. À cela, Musk a donné une réponse peu claire comme à son habitude. « La bêta 9 traite la plupart des problèmes connus, mais il y aura des problèmes inconnus, alors s'il vous plaît soyez paranoïaque », a-t-il écrit sur Twitter.

Cette mise à jour n'apporte pas une autonomie complète, malgré le maintien de l'ancienne appellation, mais elle permet de nombreuses aides à la conduite en dehors des routes (comme les changements de voie et les virages) tout en apportant de nombreuses corrections. Cette mise à jour apporte également des visualisations remaniées qui offrent des "informations supplémentaires sur les environs" et donnent une meilleure idée de ce que la voiture voit. En outre, les notes de mise à jour mentionnent aussi les améliorations apportées à la surveillance du conducteur par la caméra de l'habitacle pour vérifier l'attention.



Il s'agit d'une fonctionnalité récemment activée qui utilise la caméra de l'habitacle pour s'assurer que vous êtes attentif lorsque l'Autopilot est activé. Il est important de noter que Tesla s'est longtemps opposé à l'idée d'inclure un système de surveillance du conducteur plus solide (comme le suivi oculaire infrarouge, par exemple) pour s'assurer que ses clients respectent les protocoles de sécurité. Le constructeur se contentait d'avertir les conducteurs de rester vigilants, garder les yeux sur la route et les mains sur le volant à tout moment. Mais les choses ont commencé par changer dernièrement.

L'Autopilot est considéré comme un système "partiellement automatisé" de niveau 2 par les normes de la Society of Automotive Engineers (ainsi que par les avocats de Tesla), qui exige que les conducteurs gardent les mains sur le volant et les yeux sur la route. Par ailleurs, les défenseurs des consommateurs ont prouvé que l'Autopilot peut facilement être trompé en faisant croire qu'il y a quelqu'un sur le siège conducteur. Cela a d'ailleurs suscité un regain d'attention à la suite d'un accident mortel au Texas impliquant une Tesla, dans lequel les autorités ont déclaré qu'il n'y avait personne derrière le volant.




Mais cela n'a pas empêché certains propriétaires de Tesla d'abuser de l'Autopilot – allant parfois jusqu'à filmer et rendre publics les résultats. Des conducteurs ont été surpris en train de dormir sur le siège passager ou la banquette arrière de leur Tesla alors que le véhicule roule à toute vitesse sur une autoroute bondée. Un Canadien a été accusé de conduite imprudente l'année dernière après avoir été arrêté pour avoir dormi alors qu'il roulait à une vitesse de 93 m/h (149 km/h). Les rapports montrent que Tesla a introduit l'Autopilot en 2015, il est impliqué dans au moins 11 décès dans neuf accidents aux États-Unis.

À l'échelle internationale, il y aurait eu au moins neuf autres décès dans sept autres accidents. Pendant ce temps, le gouvernement américain exige que les constructeurs automobiles signalent les accidents impliquant des véhicules autonomes ou des systèmes avancés d'aide à la conduite, souvent dans la journée suivant l'incident. Il s'agit d'un changement majeur qui signale une position plus stricte des régulateurs sur ces systèmes partiellement automatisés. Tesla se montre également plus prudent sur ce point. Vendredi, Musk a exhorté les bêta-testeurs à être prêts à prendre le volant à tout moment.



Il ne fait aucun doute que Tesla est plus disposé que ses concurrents à tester des versions bêta de sa fonction d'aide à la conduite Autopilot sur ses clients, afin de recueillir des données et de corriger les éventuels défauts du système. Et les clients de Tesla sont pour la plupart d'accord avec cela, inondant régulièrement les mentions de Musk en suppliant d'être admis dans le programme d'accès anticipé de la société pour les bêta-testeurs. Cela a contribué à la réputation publique de Tesla en tant que leader de la conduite autonome, bien que ses véhicules ne soient pas toujours à la hauteur de ce que la plupart des experts considèrent comme une voiture autonome.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous du FSD v9 Beta ?

Voir aussi

Tesla admet que le "Full Self-Driving Beta" actuel sera toujours le niveau 2 : « Il y a des circonstances et des événements que le système n'est pas capable de reconnaître »

Tesla annonce aux régulateurs que les voitures entièrement autonomes ne seront peut-être pas disponibles d'ici la fin de l'année, en contradiction avec les indications d'Elon Musk

Tesla lance en version bêta le mode Full self-driving, la réaction des conducteurs montre que Tesla semble avoir fait un grand pas vers la conduite "entièrement" autonome

Tesla abandonne le radar et s'en remet aux caméras pour le système Autopilot de certaines voitures,
Les capteurs radar restent pour l'instant sur ses modèles les plus chers


Le PDG de Waymo rejette le plan "self-driving" de Tesla : « Ce n'est pas comme ça que ça marche », la stratégie actuelle de Tesla ne produirait probablement jamais un système entièrement autonome
8  0 
Avatar de Bill Fassinou
Chroniqueur Actualités https://www.developpez.com
Le 13/07/2021 à 9:10
Quels sont les scénarios dans lesquels la nouvelle mise à jour FSD Beta 9 de Tesla échoue ?
certains comportements du système seraient "carrément" dangereux

Tesla a commencé à déployer la dernière mise à jour de son logiciel d'aide à la conduite ce week-end. Appelée FSD Beta 9 (la version 2021.4.18.12), cette mise à jour est censée corriger de nombreux problèmes des versions précédentes de la version bêta du système FSD. Lundi, les premiers propriétaires de Tesla l'ayant essayé ont partagé leurs observations sur Twitter et dans de petites vidéos sur YouTube. Ils notent que, bien que le système soit impressionnant à bien des égards, il est clair qu'il reste encore beaucoup de chemin à parcourir et que certains comportements du FSD Beta 9 sont "carrément" dangereux.

Même si Tesla s'efforce d'améliorer le FSD (Full Self-Driving), qu'il a finalement qualifié de système d'aide à la conduite de niveau 2, une grande majorité de l'industrie dénonce une appellation trompeuse du produit. La mise à jour FSD Beta 9 qui a commencé à être déployée ce week-end est particulièrement importante parce qu'elle marque la première mise à jour du FSD conçue pour s'appuyer uniquement sur les données de la caméra de la voiture. En effet, Tesla a cessé d'installer des émetteurs-récepteurs radar sur les modèles 3 et Y et passe à Tesla Vision, le système semi-automatique entièrement basé sur la caméra.



Parmi les autres changements importants, il y a un nouveau système de visualisation beaucoup plus détaillé. Grâce à ce visualiseur, vous pouvez voir que le système est souvent capable de détecter des types de véhicules spécifiques, par exemple en distinguant les voitures, les SUV, les camionnettes, les personnes sur scooter, à vélo, etc. Dans ces visualisations, vous pouvez également voir que les feux de freinage sont maintenant reconnus, ce qui représente une amélioration importante par rapport aux versions précédentes du système. Toutefois, il semble qu'il n'est pas encore capable d'identifier les clignotants.

Il existe un certain nombre de vidéos montrant le système en train d'effectuer la tâche de conduite (il s'agit toujours d'un système de niveau 2, l'humain assis dans le siège du conducteur doit donc être prêt à prendre le relais à tout moment, ce qui arrive même dans les vidéos où il se comporte très bien) avec beaucoup d'habileté et de précision. Quant aux aspects moins positifs, ils sont sans doute plus importants que les démonstrations de bon fonctionnement, car, lorsqu'une chose ne va pas dans une voiture contrôlée par l'IA, il y a un réel danger, pouvant causer la mort de personnes à l'extérieur et à l'intérieur de la voiture.

Une des vidéos publiées sur la toile lundi montre, par exemple, une Tesla avec le FSD Beta 9 activé qui passe à travers un buisson envahissant sur un terre-plein central, au grand dam du propriétaire. Il s'agit d'une de ces situations que les humains n'auraient aucun mal à détecter et à éviter, mais la Tesla, suivant ses règles strictes de maintien de la voie, n'est absolument pas consciente des branches et les traverse. Cela pourrait être un bon exemple des différences entre le raisonnement ascendant de l'IA (suivre les capteurs et les règles) et le raisonnement descendant de l'homme (je sais ce que sont les branches et je veux les éviter).


Plus inquiétant, dans la même vidéo, le FSD a étrangement échoué à virer à gauche, avant de foncer vers des voitures garées aux abords de la route, car le système n'a pas réussi à redresser le volant. Ces erreurs sont particulièrement troublantes, car l'on ne sait pas vraiment pourquoi le véhicule n'a pas pu exécuter le virage correctement, alors qu'il n'y avait vraiment rien de très différent des autres virages à gauche qu'il a exécutés sans problème. Cala rappelle désagréablement à quel point ce genre de système peut être une boîte noire. Les retours devraient permettre à Tesla d'améliorer les choses.

Un autre fan très sérieux de Tesla a effectué un trajet de nuit en ville à Seattle et si la voiture s'est généralement bien comportée, l'on note toutefois quelques égarements du FSD. D'une manière ou d'une autre, Tesla Vision semble être aveugle aux énormes colonnes de béton qui soutiennent le Monorail de Seattle, une chose qui peut s'avérer très dangereuse dans certaines conditions. Un conducteur qui aurait fait suffisamment confiance à ce système pour ne pas faire attention à la route aurait pu se retrouver en plein dans ces colonnes. La nouvelle visualisation ne montrait pas du tout les colonnes.

Le conducteur s'est demandé si c'est à cause de l'absence du système radar que la voiture ne peut pas percevoir les pylônes du monorail ou une jardinière en bordure de route, mais ce n'est vraiment pas clair du tout. En outre, le FSD ne semble pas non plus comprendre les différences entre les feux de circulation rouges et jaunes clignotants. La voiture traite en effet un signal jaune clignotant comme un panneau d'arrêt. Ce dernier point pourrait certainement poser problème s'il y avait des véhicules derrière la Tesla. Un autre problème relevé par les bêta-testeurs concerne les virages à gauche non protégés.



Une autre vidéo montre une voiture Tesla en train de tenter de tourner à gauche sans protection sur une autoroute à six voies. Il s'agit en fait d'une manœuvre difficile pour un conducteur humain, et c'est donc un véritable défi pour le FSD Beta 9. Et il échoue "lamentablement". Ce n'est que la première fois que la Tesla tente le virage à gauche qu'elle atteint le terre-plein central, et le conducteur humain doit alors terminer le travail. Toutes les autres fois étaient un échec. Ces problèmes ont peut-être échappé à Tesla, car le PDG Elon Musk a déclaré la semaine dernière qu'il pouvait y avoir des problèmes inconnus.

« Soyez paranoïaques », a ajouté Musk, avant d'affirmer que la sécurité est la priorité absolue du constructeur automobile avec ces versions. Tesla ne dispose pas d'un service de relations publiques pour répondre aux demandes de commentaires. Les testeurs ont recensé au moins 11 problèmes en conduisant avec le FSD Beta 9 activé, notamment :

  • la voiture traverse la ville et ne reconnaît pas les jardinières dans la rue et manque de les heurter ;
  • la voiture ne reconnaît pas le monorail au milieu de la rue et se dirige vers lui ;
  • la voiture traverse une voie de bus au lieu de rester sur la voie de droite ;
  • la voiture ne reconnaît pas une rue à sens unique et le panneau de sens unique dans la rue, et elle roule en sens interdit ;
  • la voiture ne peut pas décider de la voie à utiliser pour tourner à droite dans la rue suivante. Il continue à changer de voie ;
  • la voiture décide trop tard de prendre la bonne voie ;
  • la voiture décide d'emprunter une voie, puis se rend compte qu'elle doit emprunter l'autre voie, mais c'est trop tard ;
  • la voiture doit tourner à gauche et décide de changer de voie avant ;
  • la voiture tourne à gauche, mais s'engage sur une voie sur laquelle elle n'est pas censée être ;
  • la voiture doit traverser plusieurs voies pour tourner à gauche et il semble qu'avant de pouvoir traverser toutes les voies, elle doive se rapprocher du carrefour ;
  • la voiture voit un double stop alors qu'il n'y en a qu'un seul.


En regardant ces vidéos, le consensus semble être que les gens aiment beaucoup les nouvelles visualisations, la détection des feux de freinage, et sont impressionnés par le fait qu'il s'agit uniquement d'une caméra, mais dans l'ensemble les améliorations du comportement de conduite ne semblent pas vraiment notables. « Encore une fois, ce qui a été réalisé est impressionnant, sans aucun doute ; c'est une merveille technologique », a écrit un critique. Il est également loin d'être un système complet de niveau 5, capable d'aller partout sans surveillance, ou même un système d'aide à la conduite de niveau 4.



La voiture a en effet absolument besoin d'un humain pour la surveiller, en permanence. Il n'y a aucun moyen sûr de se mettre à l'abri si le FSD se retrouve dans une situation qu'il ne peut pas gérer, et en tant que tel, il aura toujours besoin d'un humain vigilant prêt à prendre le contrôle à tout moment. « Je continue à penser qu'il s'agit d'un modèle intrinsèquement défectueux et potentiellement dangereux. Ensuite, il y a toujours le choix très discutable de tester un logiciel bêta contrôlant une voiture de 4 000 livres dans des rues publiques remplies de personnes qui n'ont jamais accepté de participer à un test bêta d'une voiture robot », a écrit un critique.

« Personne ne verra un robotaxis Tesla de niveau 5 d'ici la fin de l'année et, bien qu'il y ait certainement des progrès, les défaillances significatives que le système a déjà démontrées dans les mains de testeurs enthousiastes dans le peu de temps où il a été disponible devraient s'avérer être un appel à la réalité de l'état du FSD », a-t-il ajouté.

Source : Fil de discussion Twitter

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des problèmes du FSD Beta 9 détectés par les testeurs ?
Pensez-vous que ces problèmes sont dangereux ou qu'ils sont peu alarmants ?

Voir aussi

Tesla commence enfin à déployer la version bêta 9 du Full Self-Driving après un long retard, elle apporte la surveillance du conducteur et améliore la visualisation de la route

Tesla admet que le "Full Self-Driving Beta" actuel sera toujours le niveau 2, « Il y a des circonstances et des événements que le système n'est pas capable de reconnaître »

Tesla annonce aux régulateurs que les voitures entièrement autonomes ne seront peut-être pas disponibles d'ici la fin de l'année, en contradiction avec les indications d'Elon Musk

Tesla abandonne le radar et s'en remet aux caméras pour le système Autopilot de certaines voitures, les capteurs radar restent pour l'instant sur ses modèles les plus chers
8  0 
Avatar de Stéphane le calme
Chroniqueur Actualités https://www.developpez.com
Le 24/11/2021 à 23:40
Tesla : un testeur note que son mode Full Self-Driving est dangereux,
mais Elon Musk l'accuse d'avoir rédigé son billet avant même d'avoir vécu l'expérience

Le journaliste de CNN, Matt McFarland, a essayé le logiciel Full Self-Driving (FSD) de Tesla à New York et l'expérience était loin d'être agréable. « Le logiciel a failli pousser la voiture à s'écraser sur un chantier de construction, à essayer de foncer sur un camion à l'arrêt et tenter de conduire du mauvais côté de la route. », a écrit McFarland. « Les conducteurs en colère ont klaxonné alors que le système hésitait, parfois en plein milieu d'une intersection ». Le PDG de Tesla, Elon Musk, a longtemps affirmé que le logiciel de conduite autonome du constructeur de voitures électriques deviendrait bientôt la norme de l'industrie. Mais, deux ans après son lancement initial, le logiciel nécessite toujours un conducteur avec son permis au volant et est loin d'être totalement autonome.

Tesla a proposé son FSD en tant qu'option sur ses véhicules, les clients payant jusqu'à 10 000 dollars pour avoir la possibilité d'accéder au logiciel dès sa sortie. Mais des années se sont écoulées depuis l'introduction de cette option, et ce n'est que récemment qu'un groupe restreint de propriétaires a pu accéder à une version bêta de la fonction.

Si l'expression Full Self-Driving, littéralement « conduite autonome intégrale », laisse peu d'ambiguïté quant à ses aspirations, la technologie accomplit bien moins que ce que les mots impliquent. La FSD serait en fait une version sophistiquée de l'assistance au conducteur de niveau 2, telle que définie par SAE International, arbitre de nombreuses normes automobiles mondiales.

En octobre, le PDG de Tesla, a annoncé le report de la mise à jour 10.3 après que le service assurance qualité Tesla a découvert que la nouvelle version était moins performante que les versions précédentes pour les virages à gauche aux feux de signalisation. Le lendemain, Musk a déclaré que Tesla allait « revenir temporairement à la version 10.2 » après avoir reçu des rapports faisant état de freinages soudains, de faux avertissements et d'autres problèmes.

Et pour ne rien arranger, un journaliste de CNN a décrit son expérience désagréable avec le logiciel.

Dans son article, McFarland a déclaré que le logiciel ressemble davantage à un « tour » pour épater ses amis plutôt qu'à une fonctionnalité qu'il faudrait impérativement avoir.

McFarland a posté une vidéo de la conduite qu'il a prise depuis la banquette arrière de la voiture, tandis qu'un autre conducteur était assis sur le siège avant, prêt à prendre le contrôle total en cas de besoin. Le journaliste a décidé d'emmener le véhicule faire un tour sur Flatbush Avenue à Brooklyn, une route urbaine encombrée qui peut être difficile même pour les conducteurs les plus expérimentés.

La vidéo montrait des extraits du trajet, se concentrant principalement sur les moments où le Model 3 hésitait ou tentait de s'engouffrer dans le trafic. Le conducteur a déclaré qu'il devait prendre le contrôle du logiciel autonome environ tous les trois blocs. Cependant, il a noté qu'il aurait peut-être pris le contrôle plus que quelqu'un qui était habitué au logiciel.

McFarland a déclaré que le véhicule effectuait souvent des virages saccadés et freinait ou accélérait à des moments inattendus du trajet. Trois choses qui peuvent être risquées en milieu urbain, mais des problèmes qui ont été fortement signalés par les utilisateurs bêta sur YouTube.


L'expérience de McFarland

Voici une partie de son expérience :

« Lorsqu'une douzaine de petits enfants sont passés devant notre Tesla en mode "Full Self-Driving", j'avais de bonnes raisons d'être nerveux.

J'avais passé ma matinée sur la banquette arrière du Model 3 à utiliser le mode "Full Self-Driving", le système qui, selon Tesla, changera le monde en permettant de disposer de véhicules autonomes sûrs et fiables. Le logiciel a failli pousser la voiture à s'écraser sur un chantier de construction, a essayé de foncer sur un camion à l'arrêt et tenter de conduire du mauvais côté de la route. Les conducteurs en colère klaxonnaient alors que le système hésitait, parfois en plein milieu d'une intersection. (Nous avions un conducteur humain attentif au volant pendant tous nos tests, pour prendre le contrôle total en cas de besoin.)

Le "Full Self-Driving" du Model 3 a nécessité de nombreuses interventions humaines pour nous protéger ainsi que tous les autres sur la route. Parfois, cela signifiait appuyer sur le frein pour désactiver le logiciel, afin qu'il n'essaie pas de contourner une voiture devant nous. D'autres fois, nous avons rapidement secoué le volant pour éviter un accident. (Tesla dit aux conducteurs de porter une attention constante à la route et d'être prêts à agir immédiatement.)

J'espérais que la voiture ne ferait plus d'erreurs stupides. Après ce qui a semblé être une éternité, les enfants ont fini de traverser. J'ai expiré.
Nous pouvions enfin progresser sans encombre. La voiture a semblé trop hésitante au début, mais j'ai ensuite remarqué un cycliste venant de notre gauche. Nous avons attendu.

Une fois que le cycliste a traversé l'intersection, la voiture s'est arrêtée et a fait un virage en douceur.

Au cours de l'année écoulée, j'ai regardé plus d'une centaine de vidéos de propriétaires de Tesla utilisant la technologie "Full Self-Driving", et j'ai parlé à beaucoup d'entre eux de leurs expériences.

Le mode "Full Self-Driving" est une fonction d'aide à la conduite de 10 000 $ proposée par Tesla. Alors que toutes les nouvelles Tesla sont capables d'utiliser le logiciel de "Full Self-Driving", les acheteurs doivent opter pour l'ajout coûteux s'ils souhaitent accéder à la fonctionnalité. Le logiciel est toujours en version bêta et n'est actuellement disponible que pour un groupe restreint de propriétaires de Tesla, bien que le PDG Elon Musk ait affirmé qu'un déploiement plus large est imminent. Musk promet que ce mode sera totalement capable d'amener une voiture à sa destination dans un proche avenir.

Mais ce n'est pas le cas, loin de là.

Les propriétaires de Tesla ont décrit la technologie comme impressionnante, mais aussi imparfaite. Un instant, il roule parfaitement, l'instant suivant, il manque de percuter quelqu'un ou quelque chose.

Jason Tallman, un propriétaire de Tesla qui documente ses voyages en FSD sur YouTube, m'a proposé de me le faire vivre.
Nous avons demandé à Jason de nous rencontrer sur Flatbush Avenue à Brooklyn. C'est une artère urbaine qui achemine des milliers de voitures, camions, cyclistes et piétons vers Manhattan. Même pour les conducteurs humains expérimentés, cela peut être un défi(...)

FSD fait parfois des virages saccadés. La roue commence à tourner, puis revient en arrière, avant de tourner à nouveau dans la direction prévue. Il y a aussi le freinage, qui peut sembler aléatoire. À un moment donné, une voiture s'est rapprochée de l'arrière et nous a stoppés suite à un freinage qui m'a surpris. Se faire klaxonner était courant. Je n'ai jamais vraiment eu l'impression de savoir ce que FSD ferait ensuite. Demander à un mode FSD de naviguer à Brooklyn, c'était comme demander à un élève conducteur de passer un examen routier pour lequel il n'était pas encore prêt.

Ce que FSD pouvait bien faire était impressionnant, mais l'expérience a finalement été déroutante. Je ne peux pas imaginer utiliser régulièrement ce mode dans une ville. J'ai remarqué que j'étais réticent à regarder le tableau de bord de la Model 3, par exemple pour vérifier notre vitesse, car je ne voulais pas quitter la route des yeux ».

La réaction d'Elon Musk

Musk a commenté l'article sur Twitter.

« Je soupçonne que cet article a été écrit avant même que l'expérience n'ait eu lieu », a-t-il déclaré.


Source : CNN, Elon Musk
8  0 
Avatar de Bill Fassinou
Chroniqueur Actualités https://www.developpez.com
Le 19/01/2022 à 14:57
Le PDG de Green Hills accuse Tesla de traiter les utilisateurs du Full Self-Driving comme des "mannequins de test de collision"
et qualifie le FSD du pire logiciel commercial qu'il ait jamais vu

Dan O'Dowd, cofondateur et PDG de Green Hills Software, s'est attiré les foudres d'Elon Musk ce week-end après avoir posté une annonce provocatrice et "dénigrante" sur le système d'aide à la conduite FSD (Full Self-Driving) de Tesla. Il a allégué dans une publicité d'une page entière parue dans le New York Times que des millions de gens mourraient chaque jour si la version actuelle du FSD contrôlait pleinement chaque véhicule sur la route. Il a ajouté que Tesla prenait les utilisateurs du FSD comme des "mannequins de test de collision". En réponse, Elon Musk, PDG de Tesla, a déclaré : "le logiciel de Green Hills est un tas d'ordures".

La voiture électrique, généralement munie d'un système d'aide à la conduite, se popularise davantage et un grand nombre de nouveaux acteurs sont arrivés sur le marché pendant la dernière décennie, certains étant des filiales de grands groupes existant déjà sur le marché des véhicules à combustion. Cela a engendré une concurrence accrue et les entreprises semblent user désormais de tous les moyens pour mettre en avant leurs produits. C'est peut-être ce qui s'est passé dimanche avec Dan O'Dowd, qui a publié dimanche une "critique sévère" sur le logiciel FSD de Tesla sous la forme d'une publicité dans le New York Times.



Dan est le cofondateur et PDG de Green Hills Software. Green Hills est une société privée qui construit des systèmes d'exploitation et des outils de programmation pour les systèmes embarqués, mais avec l'avènement de la voiture électrique, elle s'est également lancée dans le développement de systèmes d'aide à la conduite (ADAS - Advanced Driver Assistance Systems). Intitulée "Don't be a Tesla crash test dummy" ("ne soyez pas un mannequin de test de collision pour Tesla"), la publicité de Dan affirme que dans sa version actuelle, le FSD tuerait des millions de personnes chaque jour s'il alimentait un plus grand nombre de voitures.

Dan a fondé sa critique sur une étude des vidéos mises en ligne qui montrent des propriétaires de Tesla utilisant la fonction de conduite autonome complète, qui, selon Tesla, est en phase bêta et ne permet qu'une autonomie limitée sous la supervision du conducteur. Selon son étude, les vidéos montrent que FSD commet une "erreur de conduite critique" toutes les huit minutes et une "erreur involontaire" toutes les 36 minutes qui "causerait probablement une collision". Sur la bannière publicitaire, Dan estime que le FSD est le "pire logiciel commercial" qu'il ait jamais vu et pense qu'il est toujours dans une phase alpha.

De ce fait, il pense qu'il devrait être testé par des employés de Tesla en interne plutôt que par des propriétaires de Tesla. « Le logiciel qui pilote les voitures à conduite autonome dont des millions de vies vont dépendre doit être le meilleur logiciel », a-t-il déclaré. Bien qu'une version restreinte du FSD soit accessible à toute personne possédant une Tesla, les propriétaires peuvent également demander à devenir des bêta-testeurs d'une version plus avancée s'ils ont un score de sécurité de conduite suffisamment élevé, tel que déterminé par le logiciel de leur voiture. Dan fait en effet campagne pour interdire le FSD de Tesla.



Il a déclaré avoir placé l'annonce sous les auspices du Dawn Project, un groupe de pression qui milite dans ce sens. Il s'agit d'une organisation qui se décrit elle-même comme "dédiée à rendre les ordinateurs vraiment sûrs pour l'humanité". Selon certains critiques, l'annonce publiée par Dan dimanche apparaît en partie comme un coup de publicité destiné à attirer l'attention sur sa propre entreprise. Green Hills Software a déclaré au début du mois que sa technologie était utilisée pour développer un logiciel d'aide à la conduite pour la BMW iX entièrement électrique, un SUV sportif présenté par BMW au CES 2022.

En réaction, Elon Musk, PDG de Tesla, s'est attaqué au logiciel de Green Hills Software. Musk a tweeté dimanche : « le logiciel de Green Hills est un tas d'ordures », et a approuvé un commentaire selon lequel "les critiques du FSD ont toujours un énorme intérêt financier dans une solution concurrente". Mais de son côté, Dan a déclaré que les meilleures sources d'information sur un produit sont ses concurrents. « Ils les mettent en pièces, ils découvrent ce qu'ils font bien, ils découvrent ce qu'ils font mal. Ils savent mieux que quiconque, et ils vous le diront. Le vendeur ne vous dira jamais ces choses-là », a-t-il déclaré à Fox Business.

De plus, il a également allégué que la version originale de l'Autopilot de Tesla, qui était un précurseur du FSD, a été construite en utilisant Green Hills Software. « Je me suis retiré du projet et j'ai dit : "je ne sais pas si c'est bien, si c'est ce que nous devrions faire ici, ça ne va pas marcher », a déclaré Dan. Musk n'a pas eu d'autres réactions en dehors de celle-ci et Tesla, qui ne dispose pas d'un bureau des affaires médiatiques opérationnel, n'a pas apporté de commentaires sur les allégations de Dan selon lesquelles il y aurait un lien entre la technologie d'aide à la conduite de Green Hills Software et le FSD.



Sur la toile, certains commentaires notent qu'il est "tout à fait ridicule" d'utiliser des vidéos YouTube de tiers - au lieu de tester directement la technologie - pour extraire des "preuves" que le FSD tuerait des millions de personnes chaque jour si elle était installée sur toutes les voitures du monde. Un autre signal d'alarme serait le fait que la publicité n'utilise pas une seule fois le nom complet du logiciel Full Self-Driving Beta. Elle ne mentionne pas la partie "Beta", ce qui peut amener certains lecteurs à croire que le FSD Beta est un produit fini alors qu'il est encore en phase de test de développement.

Par ailleurs, Tesla traverse une période trouble en ce moment en raison du FSD, car le logiciel serait impliqué dans plusieurs accidents mortels ces dernières années, et fait actuellement l'objet d'une surveillance accrue de la part des régulateurs. Par exemple, la National Highway Traffic Safety Administration (NHTSA) des États-Unis est en train d'enquêter pour savoir si le système FSD a été impliqué dans un accident qui s'est produit à Brea, en Californie, le 3 novembre.

Cependant, Musk a déclaré que le commentaire fait par Ross Gerber, un fan incontesté de Tesla, sur Twitter selon lequel "il n'y a pas eu un seul accident ou une seule blessure depuis le lancement de la version bêta du système FSD" était correct. Afin d'insister sur le manque de sécurité de FSD, Dan offre maintenant une récompense de 10 000 dollars à quiconque trouvera un autre produit commercial vendu par une entreprise du Fortune 500 qui présente un dysfonctionnement critique toutes les huit minutes.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des allégations de Dan O'Dowd sur le FSD ?
Pensez-vous qu'il cherche simplement à attirer les regards sur son propre système d'aide à la conduite ?
Que pensez-vous du FSD ? Les utilisateurs devraient-ils être autorisés à tester les versions bêta du FSD sur les routes ? Le logiciel devrait-il être interdit ?

Voir aussi

Les accusations de crime impliquent pour une première une technologie automatisée largement utilisée, l'accusé utilisait Autopilot de Tesla dans l'incident qui a tué deux personnes

Tesla : un testeur note que son mode Full Self-Driving est loin d'être au point et dangereux, mais Elon Musk l'accuse d'avoir rédigé son billet avant même d'avoir vécu l'expérience

Tesla retire la MAJ de son logiciel Full Self-Driving, après un freinage soudain qui a effrayé les conducteurs

Autopilot de Tesla : les États-Unis enquêtent sur la fonctionnalité après que 11 Tesla se sont écrasées contre des véhicules d'urgence

Les États-Unis ouvrent une enquête sur 580 000 véhicules Tesla, en raison de la fonction 'Passenger Play', qui peut distraire le conducteur et augmenter le risque d'accident
9  1 
Avatar de Stéphane le calme
Chroniqueur Actualités https://www.developpez.com
Le 05/07/2022 à 12:55
L'Autopilot de Tesla fait pratiquement foncer un Model 3 sur un tramway venant en sens inverse,
l'option « Full Self-Driving » était activée

Le système Autopilot de Tesla, avec son option « Full Self-Driving », n'est rien de ce que son nom l'indique : ce n'est ni un véritable pilote automatique, ni un véhicule capable de se conduire entièrement. Au lieu de cela, il s'agit d'un système avancé d'aide à la conduite qui peut aider à alléger la charge de travail du conducteur lorsqu'il se trouve sur une autoroute ou dans des rues urbaines clairement marquées. Cependant, c'est loin d'être un système parfait, comme le montre cette nouvelle vidéo de la chaîne YouTube Beta Tech OG, lorsque son Model 3 a failli foncer sur un train venant en sens inverse.

Dans cette vidéo, le conducteur teste le système Autopilot, avec l'option Full Self-Driving, dans les rues de Denver, Colorado. Au cours de la vidéo de près de 18 minutes, le Model 3 touche presque plusieurs obstacles, ce qui amène le conducteur à donner une mauvaise note au logiciel de Tesla. Deux des erreurs commises par le logiciel étaient plus flagrantes que les autres et l'une d'elles a failli voir la Tesla se faire heurter par l'un des trains légers sur rail de Denver, alors qu'elle tentait de tourner à gauche sur la trajectoire du train.


Avant de presque percuter le train, la Model 3 a été arrêtée à un feu rouge, avec son clignotant gauche allumé. Cet évènement a indiqué à la voiture que le conducteur voulait tourner à gauche et, après que le feu est passé au vert, la voiture était censée attendre que le passage soit dégagé pour tourner. Cependant, au lieu d'attendre, soit la Tesla a calculé qu'elle avait suffisamment d'espace et de temps pour faire le virage avant que le train n'arrive, soit elle n'a pas reconnu correctement le train. Toutefois, ce qui est étrange c'est que l'affichage d'Autopilot sur l'écran d'infodivertissement, qui montre l'environnement reconnu de la voiture, a matérialisé le train. Vous pouvez réellement le voir sur l'écran avant que la voiture ne commence à tourner. La raison pour laquelle la Tesla a décidé de tourner à gauche devant le train, bien qu'elle l'ait remarqué, n'est pas claire ; le conducteur a été obligé de prendre le relais et de modifier la trajectoire de la voiture. Si la voiture pensait pouvoir faire le tour à temps, sa programmation est trop agressive. Même l'opérateur du train a klaxonné, estimant aussi qu'un virage était la mauvaise décision dans cette situation.


Plus tard dans la vidéo, vers la fin, le Model 3 a tenté de faire un virage à gauche de routine, mais a pris le virage trop large et a presque percuté deux piétons debout au coin. À la fin, le conducteur a indiqué qu'il était « super déçu de Tesla », ce qui est compréhensible au vu des attentes qu'il avait et des résultats sur le terrain. Toutefois, pour la défense de Tesla, il y a un bouton pour signaler tout problème qui survient lors de l'utilisation d'Autopilot. Le hic c'est qu'il suffit d'appuyer sur un seul bouton et il n'est pas exigé au conducteur d'ajouter des détails sur la situation, il n'est donc pas clair à quel point la fonction de rapport à Tesla est vraiment utile.

Il y a une conversation beaucoup plus large à avoir sur l'éthique du test bêta de Tesla son option d'Autopilot Full Self-Driving sur les routes publiques, en utilisant des clients - et non des professionnels formés - pour le tester. Bien que Tesla ne soit absolument pas la seule entreprise à proposer son véhicule en ville, en ce qui concerne les systèmes avancés d'aide à la conduite, d'autres marques sont beaucoup plus prudentes dans leur approche et ne publient pas de logiciel tant qu'il n'a pas été entièrement testé par des professionnels dans des environnements contrôlés. Heureusement, personne n'a été blessé cette fois-ci et il a pu éloigner sa voiture du train et des piétons venant en sens inverse, mais cela ne signifie pas que tout le monde pourra réagir à temps à l'avenir.

En dehors de ces deux éléments, il faut signaler également quelques autres. En fait, se diriger vers le train qui arrive n'est qu'un des nombreux cas graves de cette vidéo :
  • la Tesla a pratiquement foncé sur une barrière (qui indiquait que la route est bloquée)*(07:06) ;
  • la Tesla a choisi la mauvaise voie et s'embrouille visiblement (confère l'affichage sur le tableau de bord, 11:06) ;
  • la Tesla a essayé de griller un feu rouge, pendant que les voitures circulaient (12:12) ;
  • la Tesla s'est arrêtée au milieu d'une intersection sans raison (13:09) ;
  • la Tesla a choisi la mauvaise voie pour un virage à gauche (13:25) ;
  • la Tesla a activé et désactivé constamment le clignotant gauche sans raison (dans un endroit où il n'était même pas permis de tourner à gauche, 15:02) ;
  • la Tesla n'a pas réussi à tourner correctement à gauche et a presque heurté des piétons (17:13).

Tout cela au cours d'une expérience de conduite qui a duré peut-être 30 minutes (à certains moments, la vidéo est accélérée). De plus, ce ne sont que les cas les plus graves, la Tesla roule très maladroitement. Elle change de voie trop souvent (également aux intersections) sans raison et elle avance bizarrement aux feux rouges, se rapprochant très près du trafic croisé, sans aucune raison.

Dans l'ensemble, le conducteur estime qu'il s'agit là d'une performance incroyablement médiocre.

Un internaute s'est tout de même demandé : « Je ne comprends tout simplement pas pourquoi vous donneriez le contrôle à un système qui est clairement encore en version bêta. Le coût de l'échec est bien trop élevé pour prendre le risque ».

« Ne soyez pas un mannequin de test de collision pour Tesla »

La voiture électrique, généralement munie d'un système d'aide à la conduite, se popularise davantage et un grand nombre de nouveaux acteurs sont arrivés sur le marché pendant la dernière décennie, certains étant des filiales de grands groupes existant déjà sur le marché des véhicules à combustion. Cela a engendré une concurrence accrue et les entreprises semblent user désormais de tous les moyens pour mettre en avant leurs produits. C'est peut-être ce qui s'est passé début janvier avec Dan O'Dowd, qui a publié une « critique sévère » sur le logiciel Full Self-Driving (FSD) de Tesla sous la forme d'une publicité dans le New York Times.

Dan est le cofondateur et PDG de Green Hills Software. Green Hills est une société privée qui construit des systèmes d'exploitation et des outils de programmation pour les systèmes embarqués, mais avec l'avènement de la voiture électrique, elle s'est également lancée dans le développement de systèmes d'aide à la conduite (ADAS - Advanced Driver Assistance Systems). Intitulée Don't be a Tesla crash test dummy (« ne soyez pas un mannequin de test de collision pour Tesla »), la publicité de Dan affirme que dans sa version actuelle, le FSD tuerait des millions de personnes chaque jour s'il alimentait un plus grand nombre de voitures.

Dan a fondé sa critique sur une étude des vidéos mises en ligne qui montrent des propriétaires de Tesla utilisant la fonction Full Self-Driving complète, qui, selon Tesla, est en phase bêta et ne permet qu'une autonomie limitée sous la supervision du conducteur. Selon son étude, les vidéos montrent que FSD commet une « erreur de conduite critique » toutes les huit minutes et une « erreur involontaire » toutes les 36 minutes qui « causerait probablement une collision ». Sur la bannière publicitaire, Dan estime que le FSD est le « pire logiciel commercial » qu'il ait jamais vu et pense qu'il est toujours dans une phase alpha.


De ce fait, il pense qu'il devrait être testé par des employés de Tesla en interne plutôt que par des propriétaires de Tesla. « Le logiciel qui pilote les voitures à conduite autonome dont des millions de vies vont dépendre doit être le meilleur logiciel », a-t-il déclaré. Bien qu'une version restreinte du FSD soit accessible à toute personne possédant une Tesla, les propriétaires peuvent également demander à devenir des bêta-testeurs d'une version plus avancée s'ils ont un score de sécurité de conduite suffisamment élevé, tel que déterminé par le logiciel de leur voiture. Dan fait en effet campagne pour interdire le FSD de Tesla.

Il a déclaré avoir placé l'annonce sous les auspices du Dawn Project, un groupe de pression qui milite dans ce sens. Il s'agit d'une organisation qui se décrit elle-même comme « dédiée à rendre les ordinateurs vraiment sûrs pour l'humanité ». Selon certains critiques, l'annonce publiée par Dan apparaît en partie comme un coup de publicité destiné à attirer l'attention sur sa propre entreprise. Green Hills Software a déclaré au début dudit mois que sa technologie était utilisée pour développer un logiciel d'aide à la conduite pour la BMW iX entièrement électrique, un SUV sportif présenté par BMW au CES 2022.

En réaction, Elon Musk, PDG de Tesla, s'est attaqué au logiciel de Green Hills Software. Musk a tweeté : « le logiciel de Green Hills est un tas d'ordures », et a approuvé un commentaire selon lequel « les critiques du FSD ont toujours un énorme intérêt financier dans une solution concurrente ». Mais de son côté, Dan a déclaré que les meilleures sources d'information sur un produit sont ses concurrents. « Ils les mettent en pièces, ils découvrent ce qu'ils font bien, ils découvrent ce qu'ils font mal. Ils savent mieux que quiconque, et ils vous le diront. Le vendeur ne vous dira jamais ces choses-là », a-t-il déclaré.

De plus, il a également allégué que la version originale de l'Autopilot de Tesla, qui était un précurseur du FSD, a été construite en utilisant Green Hills Software. « Je me suis retiré du projet et j'ai dit : "je ne sais pas si c'est bien, si c'est ce que nous devrions faire ici, ça ne va pas marcher », a déclaré Dan. Musk n'a pas eu d'autres réactions en dehors de celle-ci et Tesla, qui ne dispose pas d'un bureau des affaires médiatiques opérationnel, n'a pas apporté de commentaires sur les allégations de Dan selon lesquelles il y aurait un lien entre la technologie d'aide à la conduite de Green Hills Software et le FSD.

Quoi qu'il en soit, sur la toile, certains commentaires ont noté qu'il est « tout à fait ridicule » d'utiliser des vidéos YouTube de tiers - au lieu de tester directement la technologie - pour extraire des « preuves » que le FSD tuerait des millions de personnes chaque jour si elle était installée sur toutes les voitures du monde. Un autre signal d'alarme serait le fait que la publicité n'utilise pas une seule fois le nom complet du logiciel Full Self-Driving Beta. Elle ne mentionne pas la partie « Beta », ce qui peut amener certains lecteurs à croire que le FSD Beta est un produit fini alors qu'il est encore en phase de test de développement.

Source : vidéo dans le texte

Et vous ?

Qu'en pensez-vous ?
Que pensez-vous des propos de l'internaute qui pense que comme FSD est encore en phase bêta, les conducteurs ne devraient pas lui donner le contrôle ?
Que pensez-vous de l'approche de Tesla qui donne à ses utilisateurs la possibilité de tester une version bêta contrairement à la concurrence qui fait tester ses véhicules uniquement par des professionnels lorsque ses logiciels sont encore en phase bêta ?
8  1