IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Tesla augmente le prix du logiciel Full Self Driving (FSD) à 12 000 $ aux États-Unis le 17 janvier
A annoncé le président-directeur général, Elon Musk, sur Twitter

Le , par Sandra Coret

90PARTAGES

8  1 
Le président-directeur général de Tesla, Elon Musk, a annoncé sur Twitter que le constructeur de voitures électriques allait augmenter le prix de son logiciel d'aide à la conduite avancé, baptisé "Full Self Driving", à 12 000 dollars aux États-Unis le 17 janvier.

Cette hausse de prix de 20 % intervient moins de deux ans après que Tesla a porté le prix de la conduite autonome complète (FSD) à 10 000 dollars, contre 8 000 dollars en 2020.

"Le prix de la Tesla FSD passe à 12 000 $ le 17 janvier. Seulement aux États-Unis", a tweeté Musk.

Musk a également ajouté que le prix de l'abonnement mensuel augmentera lorsque la FSD passera en version large.

"Le prix de la FSD augmentera à mesure que nous nous rapprocherons de la sortie du code de production de la FSD", a-t-il ajouté.

Tesla a étendu la diffusion d'une version de test de son logiciel FSD amélioré, un système de fonctions d'assistance à la conduite - comme le changement automatique de voie et les virages, mais ces fonctions ne rendent pas les véhicules autonomes.


Source : Elon Musk

Et vous ?

Quel est votre avis sur la question ?

Voir aussi :

Tesla : un testeur note que son mode Full Self-Driving est loin d'être au point et dangereux, mais Elon Musk l'accuse d'avoir rédigé son billet avant même d'avoir vécu l'expérience

Le pack "Full Self-Driving" de Tesla, d'une valeur de 10 000 dollars, est enfin disponible par abonnement, pour 199 dollars par mois

Tesla retire la MAJ de son logiciel Full Self-Driving, après un freinage soudain qui a effrayé les conducteurs

La mise à jour du logiciel du pilote automatique « Full Self Driving » de Tesla est potentiellement dangereuse, et dirige le véhicule par moment de façon extrêmement risquée

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Stéphane le calme
Chroniqueur Actualités https://www.developpez.com
Le 01/06/2022 à 7:41
Le mode Full Self-Driving de Tesla a tellement énervé cet homme qu'il se présente au Sénat,
Dan O'Dowd est mécontent du fait que le logiciel bêta de Tesla soit testé sur la voie publique

Dan O'Dowd, ingénieur et PDG d'une société de logiciels, se présente pour l'un des sièges du Sénat de Californie. L'une des missions qu'il se donne est d'interdire la fonction Full Self-Driving de Tesla.

La voiture électrique, généralement munie d'un système d'aide à la conduite, se popularise davantage et un grand nombre de nouveaux acteurs sont arrivés sur le marché pendant la dernière décennie, certains étant des filiales de grands groupes existant déjà sur le marché des véhicules à combustion. Cela a engendré une concurrence accrue et les entreprises semblent user désormais de tous les moyens pour mettre en avant leurs produits. C'est peut-être ce qui s'est passé début janvier avec Dan O'Dowd, qui a publié une « critique sévère » sur le logiciel Full Self-Driving (FSD) de Tesla sous la forme d'une publicité dans le New York Times.


Dan est le cofondateur et PDG de Green Hills Software. Green Hills est une société privée qui construit des systèmes d'exploitation et des outils de programmation pour les systèmes embarqués, mais avec l'avènement de la voiture électrique, elle s'est également lancée dans le développement de systèmes d'aide à la conduite (ADAS - Advanced Driver Assistance Systems). Intitulée Don't be a Tesla crash test dummy (« ne soyez pas un mannequin de test de collision pour Tesla »), la publicité de Dan affirme que dans sa version actuelle, le FSD tuerait des millions de personnes chaque jour s'il alimentait un plus grand nombre de voitures.

Dan a fondé sa critique sur une étude des vidéos mises en ligne qui montrent des propriétaires de Tesla utilisant la fonction Full Self-Driving complète, qui, selon Tesla, est en phase bêta et ne permet qu'une autonomie limitée sous la supervision du conducteur. Selon son étude, les vidéos montrent que FSD commet une « erreur de conduite critique » toutes les huit minutes et une « erreur involontaire » toutes les 36 minutes qui « causerait probablement une collision ». Sur la bannière publicitaire, Dan estime que le FSD est le « pire logiciel commercial » qu'il ait jamais vu et pense qu'il est toujours dans une phase alpha.

De ce fait, il pense qu'il devrait être testé par des employés de Tesla en interne plutôt que par des propriétaires de Tesla. « Le logiciel qui pilote les voitures à conduite autonome dont des millions de vies vont dépendre doit être le meilleur logiciel », a-t-il déclaré. Bien qu'une version restreinte du FSD soit accessible à toute personne possédant une Tesla, les propriétaires peuvent également demander à devenir des bêta-testeurs d'une version plus avancée s'ils ont un score de sécurité de conduite suffisamment élevé, tel que déterminé par le logiciel de leur voiture. Dan fait en effet campagne pour interdire le FSD de Tesla.

Il a déclaré avoir placé l'annonce sous les auspices du Dawn Project, un groupe de pression qui milite dans ce sens. Il s'agit d'une organisation qui se décrit elle-même comme « dédiée à rendre les ordinateurs vraiment sûrs pour l'humanité ». Selon certains critiques, l'annonce publiée par Dan apparaît en partie comme un coup de publicité destiné à attirer l'attention sur sa propre entreprise. Green Hills Software a déclaré au début dudit mois que sa technologie était utilisée pour développer un logiciel d'aide à la conduite pour la BMW iX entièrement électrique, un SUV sportif présenté par BMW au CES 2022.

En réaction, Elon Musk, PDG de Tesla, s'est attaqué au logiciel de Green Hills Software. Musk a tweeté : « le logiciel de Green Hills est un tas d'ordures », et a approuvé un commentaire selon lequel « les critiques du FSD ont toujours un énorme intérêt financier dans une solution concurrente ». Mais de son côté, Dan a déclaré que les meilleures sources d'information sur un produit sont ses concurrents. « Ils les mettent en pièces, ils découvrent ce qu'ils font bien, ils découvrent ce qu'ils font mal. Ils savent mieux que quiconque, et ils vous le diront. Le vendeur ne vous dira jamais ces choses-là », a-t-il déclaré.

De plus, il a également allégué que la version originale de l'Autopilot de Tesla, qui était un précurseur du FSD, a été construite en utilisant Green Hills Software. « Je me suis retiré du projet et j'ai dit : "je ne sais pas si c'est bien, si c'est ce que nous devrions faire ici, ça ne va pas marcher », a déclaré Dan. Musk n'a pas eu d'autres réactions en dehors de celle-ci et Tesla, qui ne dispose pas d'un bureau des affaires médiatiques opérationnel, n'a pas apporté de commentaires sur les allégations de Dan selon lesquelles il y aurait un lien entre la technologie d'aide à la conduite de Green Hills Software et le FSD.

Quoi qu'il en soit, sur la toile, certains commentaires ont noté qu'il est « tout à fait ridicule » d'utiliser des vidéos YouTube de tiers - au lieu de tester directement la technologie - pour extraire des « preuves » que le FSD tuerait des millions de personnes chaque jour si elle était installée sur toutes les voitures du monde. Un autre signal d'alarme serait le fait que la publicité n'utilise pas une seule fois le nom complet du logiciel Full Self-Driving Beta. Elle ne mentionne pas la partie « Beta », ce qui peut amener certains lecteurs à croire que le FSD Beta est un produit fini alors qu'il est encore en phase de test de développement.

La course au Sénat

L'évaluation stratosphérique des actions de Tesla est due en partie à la fonction FSD et aux déclarations futuristes de l'entreprise, qui promet une voiture véritablement autonome qui pourrait même fonctionner dans les rues pendant que son propriétaire dort. Mais les progrès de l'entreprise ont été difficiles, changeant de plateformes de calcul et abandonnant les capteurs tout en essayant de faire correspondre les fonctionnalités des anciennes Tesla construites avec des systèmes avancés d'aide à la conduite plus simples, mais plus robustes.

FSD est cependant une importante source de revenus pour Tesla. En janvier, le PDG de Tesla, Elon Musk, a déclaré aux investisseurs que « la conduite entièrement autonome deviendra la source de rentabilité la plus importante pour Tesla ». Et la société a augmenté à plusieurs reprises le prix de la fonctionnalité - ce qui a commencé comme une option de 6 000 $ en 2019 est maintenant une option de 12 000 $.

Mais ce qui a apparemment incité O'Dowd à agir, c'est le fait que les propriétaires de Tesla testent des versions bêta du logiciel FSD sur la voie publique.

La page de campagne d'O'Dowd fait même la distinction entre Tesla Autopilot et FSD, déclarant que « ce logiciel bêta expérimental s'appuie sur des caméras et des capteurs externes pour tenter de détecter des obstacles, des véhicules, des marquages ​​routiers et, surtout, des piétons, plutôt que le jugement de son conducteur. La plupart des décisions, telles que le contrôle de la vitesse, sont prises par l'ordinateur du véhicule, sans l'intervention du conducteur ».

Selon ses documents de campagne, l'expérience d'O'Dowd est dans le développement de logiciels sécurisés pour des systèmes d'armes comme le B-1B, et il prétend avoir récemment construit un ordinateur portable impossible à pirater pour le FBI. Il a également fondé le projet Dawn, qui préconise le remplacement de toutes les infrastructures critiques par des logiciels qui ne peuvent pas tomber en panne et ne peuvent jamais être piratés - un objectif louable, quoique peut-être sisyphéen.

O'Dowd et le projet Dawn affirment que toutes les huit minutes, une Tesla exécutant le FSD commet une erreur de conduite critique*: entrer en contact avec un objet, désobéir aux panneaux de signalisation ou aux signaux de signalisation, désobéir au personnel de sécurité ou aux véhicules, ou effectuer des manœuvres dangereuses qui contraignent d'autres à prendre des mesures d'évitement. La campagne d'O'Dowd affirme également que les défauts de sécurité du FSD provoquent des dysfonctionnements environ une fois toutes les 36 minutes en conduite urbaine.

Plutôt que de laisser aux journalistes le soin de faire des parallèles avec la campagne de sécurité de Ralph Nader de 1965 pour résoudre les problèmes de maniement de la Chevrolet Corvair, la campagne d'O'Dowd le fait explicitement avec une publicité intitulée Unsafe at Any Speed. Et la publicité, qui comprend une compilation des moments les plus embarrassants de FSD sur YouTube, sera même diffusée à l'échelle nationale. O'Dowd achète du temps d'antenne dans 36 États, même si seuls les électeurs californiens ont la possibilité de cocher sa case.


Sources : Campagne de Dan O'Dowd, Dawn Project

Et vous ?

Qu'en pensez-vous ? Comprenez-vous sa démarche ? Dans quelle mesure ?
Projet louable ou attaque lancée contre un concurrent pour se faire de la publicité ?

Voir aussi :

Tesla augmente le prix du logiciel Full Self Driving (FSD) à 12 000 $ aux États-Unis le 17 janvier, a annoncé le président-directeur général, Elon Musk, sur Twitter
Tesla a réalisé plus de 3 Mds $ de bénéfices au premier trimestre pour un chiffre d'affaires de 18,8 Mds $. L'entreprise bat les estimations des analystes et enregistre encore un trimestre record
Tesla doit désormais signaler les accidents liés à son Autopilot au gouvernement ou s'exposer à des amendes, d'après une décision de l'agence fédérale chargée de la sécurité routière
Autopilot de Tesla : les États-Unis enquêtent sur la fonctionnalité après que 11 Tesla se sont écrasées contre des véhicules d'urgence
13  2 
Avatar de Stéphane le calme
Chroniqueur Actualités https://www.developpez.com
Le 04/05/2022 à 12:55
Tesla accusé d'avoir retiré un module électronique de ses voitures pour faire face à la pénurie de puces,
une omission qui rend impossible la conduite autonome de niveau 3 pour ces véhicules et qui contredit les propos d'Elon Musk

Un rapport a révélé que Tesla a pris des raccourcis pour faire face aux problèmes endémiques de la chaîne d'approvisionnement causés par la pandémie – mettant encore un autre obstacle sur la voie de la mise à niveau de voitures autonomes de niveau 3. Le constructeur de voitures électriques dirigé par Elon Musk a retiré l'une des deux unités de commande électroniques de ses voitures Model 3 et Model Y construites à Shanghai, ont déclaré deux employés anonymes de Tesla aux médias. Cette décision est intervenue alors que la société était sous pression pour atteindre ses objectifs de vente au quatrième trimestre dans un contexte de pénurie mondiale de semi-conducteurs.

Le composant n'est pas nécessaire pour les systèmes d'assistance à la conduite actuels de « niveau deux » tels que Full Self-Driving et Autopilot, qui exigent toujours que le conducteur reste alerte avec les mains sur le volant, et a été décrit comme redondant, car il y avait une sauvegarde système de puce qui a effectué ces tâches. Il n'y a donc aucun danger réel à ne pas l'inclure dans les voitures de l'entreprise avec leurs capacités logicielles actuelles.

Cependant, il est nécessaire si l'entreprise veut atteindre son objectif d'autonomie de « niveau trois », qui offrirait une aide à la conduite mains libres. Étant donné que le composant fournit aux voitures un système de direction à double commande, les conducteurs devront amener leur véhicule pour le faire moderniser avec une nouvelle puce s'ils veulent un système de conduite autonome de niveau trois.

Tout cela contredit directement Elon Musk lui-même, qui a déclaré lors d'un récent appel aux résultats que les voitures pourraient atteindre une autonomie sans intervention physique, se contentant d'une simple mise à jour logicielle.


Sous la pression d'atteindre les objectifs de vente du quatrième trimestre tout en faisant face à des pénuries généralisées de semi-conducteurs, Tesla a décidé de retirer l'une des deux unités de commande électroniques qui sont normalement incluses dans les crémaillères de direction de certaines voitures Model 3 et Model Y fabriquées en Chine, selon deux employés et une correspondance en interne. Pour mémoire, la crémaillère de direction est une pièce mécanique qui assure le lien entre la colonne de direction et les roues de la voiture. Son rôle consiste à diriger les roues avant selon les commandes effectuées au volant.

Tesla n'a pas divulgué l'exclusion, qui a déjà touché des dizaines de milliers de véhicules livrés à des clients en Chine, en Australie, au Royaume-Uni, en Allemagne et dans d'autres parties de l'Europe. Il n'était pas immédiatement clair de savoir si Tesla apporterait des modifications similaires aux voitures fabriquées ou expédiées aux États-Unis.

L'omission indique que Tesla a dû apporter des changements au-delà de ce que la société a révélé publiquement pour maintenir ses usines et ses ventes à partir des dernières semaines de 2021, alors que le monde faisait face à une pénurie continue de puces qui a affecté toutes les industries, des voitures aux ordinateurs portables. Cela signifie également que Tesla ne peut pas transformer toutes ses voitures existantes en véhicules sans conducteur avec une simple mise à jour logicielle, ce qui va à l'encontre de ce que le PDG Elon Musk a récemment déclaré lors d'un appel aux résultats :

« Je suppose personnellement que nous atteindrons l'autoconduite complète cette année à un niveau de sécurité nettement supérieur à celui d'un individu. Ainsi, les voitures de la flotte devenant essentiellement autonomes grâce à une mise à jour logicielle, je pense qu'elles pourraient finir par être la plus forte augmentation de la valeur des actifs de toutes les classes d'actifs de l'histoire. Nous verrons ».

En interne, les employés de Tesla ont déclaré que l'ajout d'une fonctionnalité de « niveau 3 », qui permettrait à un conducteur d'utiliser leur Tesla en mode mains libres (sans les mains sur le volant) dans des scénarios de conduite normaux, nécessiterait le système de double unité de commande électronique et nécessiterait donc une mise à niveau lors d'une visite de service. Ils ont également déclaré que l'exclusion ne poserait pas de problèmes de sécurité, puisque la pièce retirée était considérée comme une unité de contrôle électronique secondaire, utilisée principalement comme sauvegarde.

Au moment où ce changement de fabrication était en cours à Shanghai, le PDG Elon Musk a écrit dans un tweet : « Cette année a été un véritable cauchemar pour la chaîne d'approvisionnement et ce n'est pas fini ! »


Tesla a été aux prises avec des défis de fabrication tout au long de son histoire, mais l'achèvement de son usine de Shanghai en 2019 l'a aidée à augmenter sa production, à augmenter ses marges et à gagner des parts de marché au-delà de l'Amérique du Nord. Cette dernière décision révèle de nouvelles pressions alors que l'entreprise s'enfonce davantage dans le courant dominant et vise à tenir les promesses d'Elon Musk d'un avenir autonome.

Ce que fait la partie omise

L'élément spécifique omis est une unité de commande électronique dans les systèmes de direction assistée électrique, qui traduit les mouvements du volant en virages dans la rue. Avant que les voitures n'utilisent autant de composants électroniques, les véhicules reposaient sur une pompe, une crémaillère de direction et un pignon pour traduire les mouvements du volant en virages.

Richard Wallace, conseiller principal pour HWA Analytics à Ann Arbor et chercheur chevronné en sécurité des transports, explique comment cela a changé : « Il y a toujours une composante mécanique bien sûr. Mais dans les véhicules d'aujourd'hui, lorsque vous "tournez le volant", vous fournissez un signal électronique indiquant à votre voiture d'aller à gauche ou à droite ».

Aujourd'hui, les systèmes de direction assistée électrique permettent également des fonctions d'assistance au conducteur, note Wallace, comme la possibilité de maintenir automatiquement une voiture au centre d'une voie.

Tesla a supprimé le composant, car les ingénieurs l'ont jugé redondant, étant donné qu'il était principalement installé en tant que sauvegarde. L'omission de l'unité de contrôle permettra également à Tesla d'économiser de l'argent à court terme, à condition qu'aucun problème ne survienne à la suite du système modifié.

Ce n'est pas la première fois que la société supprime des options ou des composants pour des raisons commerciales. Par exemple, au printemps dernier, Tesla a supprimé le support lombaire des sièges passagers des modèles 3 et Y pour réduire les coûts.

Le 26 janvier 2021, Musk a déclaré lors d'un appel aux résultats que Tesla avait affronté un « enfer concernant les puces » en 2021. L'entreprise a eu du mal à obtenir « la petite puce qui vous permet de déplacer votre siège d'avant en arrière », a-t-il noté, ainsi que d'autres « puces de base ».

Il n'a pas mentionné les systèmes de direction assistée modifiés.

D'autres constructeurs automobiles ont pris des mesures similaires, mais effectuent généralement des réductions temporaires d'options qui ne font pas partie des fonctionnalités de base d'un véhicule.

Par exemple, en mars 2021, General Motors a déclaré qu'il construisait certaines de ses camionnettes légères 2021 sans module de gestion du carburant, une décision qui a nui à l'économie de carburant de ces camions. Il a pointé du doigt la pénurie de puces pour justifier sa décision.


L'avenir autonome de Tesla

Tesla propose actuellement plusieurs niveaux de fonctionnalité d'assistance à la conduite dans ses voitures. Une version de base, baptisée Autopilot, est livrée avec chaque voiture. Les conducteurs peuvent également acheter une version plus avancée, appelée Full Self-Driving, ou FSD, pour 12 000 $ ou 199 $ par mois (aux États-Unis).

Lorsque Tesla a pris la décision d'exclure une unité de commande électronique de ses crémaillères de direction, il y a eu une discussion interne sur l'opportunité d'informer les clients, ont déclaré deux employés de Tesla. Ces personnes ont demandé à rester anonymes, car elles n'étaient pas autorisées à parler au nom de l'entreprise.

Les employés ont également discuté de la question de savoir si l'omission de la pièce dégraderait toute fonctionnalité ou fiabilité des voitures des clients. Ils craignaient que le « depop » ou l'exclusion de ce composant n'interfère avec la capacité des clients à utiliser les fonctionnalités FSD.

En fin de compte, ils ont décidé que le réglage n'atteignait pas le niveau de notification aux clients – du moins jusqu'à ce que Tesla soit prêt à lancer le « niveau 3 », ou les fonctionnalités d'assistance au conducteur mains libres.

Les véhicules Tesla peuvent toujours utiliser les versions actuelles de « niveau 2 » de ses systèmes d'assistance à la conduite, Autopilot et Full Self-Driving (ou FSD), sans le système de direction à double commande.

Mais les employés ont déclaré que si Tesla lance une mise à jour FSD plus sophistiquée, les propriétaires des voitures concernées qui utilisent ce système premium devront obtenir une mise à niveau de la crémaillère de direction auprès d'un centre de service Tesla.

Généralement, Tesla s'appuie sur des techniciens de service pour installer les pièces manquantes ou pour réparer ou remplacer les pièces cassées, avant qu'une voiture ne soit livrée à un client, faisant du service une sorte de bras étendu de la fabrication de Tesla.

La plupart des voitures équipées de l'unité de commande électronique unique étaient initialement destinées à des clients en Chine, où FSD ne connaît pas d'adoption significative. Selon les communications internes, un peu plus de 1 % de tous les clients de Tesla en Chine ont opté pour le forfait d'assistance à la conduite premium au moment où ils ont passé une commande pour une nouvelle voiture.

Plus récemment, des dizaines de milliers de véhicules concernés ont été exportés vers des clients au-delà de la Chine, notamment en Australie, au Royaume-Uni, en Allemagne et dans toute l'Europe, ont déclaré des employés.

La question de la sécurité

Il a été demandé à Richard Wallace de HWA Analytics si le retrait d'une unité de commande électronique d'un système de direction assistée dans un véhicule moderne pouvait présenter un risque pour la sécurité.

« Si quelque chose comme une puce ou un ECU ne fournit pas de fonctionnalités supplémentaires, s'il est vraiment redondant, vous pourrez peut-être le désactiver ou le laisser de côté. Avec les puces et les logiciels, il y a un peu de marge de manœuvre. Je peux réaffecter des choses ici et là », a-t-il déclaré.

Tout dépend de l'architecture informatique d'un véhicule, a déclaré Phil Amsrud, analyste principal principal d'IHS Markit.

Il a déclaré: « Je ne peux pas penser à un cas où un constructeur automobile dirait "Vous savez quoi? Nous retirerons un composant de ce module, même s'il était là pour une bonne raison et nous espérons que rien ne se passera." Passer d'une variante à double puce à une variante à puce unique dans un véhicule peut simplifier un système et le rendre mieux dans certains cas. Mais ils auraient vraiment besoin de faire beaucoup de validation ».

Source : rapport sur l'omission de Tesla

Et vous ?

Pensez-vous que Tesla devait informer les utilisateurs concernés du fait qu'un module électronique n'avait pas été installé sur leurs véhicules ? Dans quelle mesure ?
L'entreprise aurait-elle dû vendre ces modèles moins chers que les modèles vendus avec ce module électronique ? Pourquoi ?
En cas d'incident avec ces véhicules, y aurait-il un cas de figure où la responsabilité de Tesla pourrait être engagée ? Lequel ?

Voir aussi :

Tesla a réalisé plus de 3 Mds $ de bénéfices au premier trimestre pour un chiffre d'affaires de 18,8 Mds $. L'entreprise bat les estimations des analystes et enregistre encore un trimestre record
Tesla doit désormais signaler les accidents liés à son Autopilot au gouvernement ou s'exposer à des amendes, d'après une décision de l'agence fédérale chargée de la sécurité routière
Autopilot de Tesla : les États-Unis enquêtent sur la fonctionnalité après que 11 Tesla se soient écrasées contre des véhicules d'urgence
10  0 
Avatar de Bill Fassinou
Chroniqueur Actualités https://www.developpez.com
Le 19/01/2022 à 14:57
Le PDG de Green Hills accuse Tesla de traiter les utilisateurs du Full Self-Driving comme des "mannequins de test de collision"
et qualifie le FSD du pire logiciel commercial qu'il ait jamais vu

Dan O'Dowd, cofondateur et PDG de Green Hills Software, s'est attiré les foudres d'Elon Musk ce week-end après avoir posté une annonce provocatrice et "dénigrante" sur le système d'aide à la conduite FSD (Full Self-Driving) de Tesla. Il a allégué dans une publicité d'une page entière parue dans le New York Times que des millions de gens mourraient chaque jour si la version actuelle du FSD contrôlait pleinement chaque véhicule sur la route. Il a ajouté que Tesla prenait les utilisateurs du FSD comme des "mannequins de test de collision". En réponse, Elon Musk, PDG de Tesla, a déclaré : "le logiciel de Green Hills est un tas d'ordures".

La voiture électrique, généralement munie d'un système d'aide à la conduite, se popularise davantage et un grand nombre de nouveaux acteurs sont arrivés sur le marché pendant la dernière décennie, certains étant des filiales de grands groupes existant déjà sur le marché des véhicules à combustion. Cela a engendré une concurrence accrue et les entreprises semblent user désormais de tous les moyens pour mettre en avant leurs produits. C'est peut-être ce qui s'est passé dimanche avec Dan O'Dowd, qui a publié dimanche une "critique sévère" sur le logiciel FSD de Tesla sous la forme d'une publicité dans le New York Times.



Dan est le cofondateur et PDG de Green Hills Software. Green Hills est une société privée qui construit des systèmes d'exploitation et des outils de programmation pour les systèmes embarqués, mais avec l'avènement de la voiture électrique, elle s'est également lancée dans le développement de systèmes d'aide à la conduite (ADAS - Advanced Driver Assistance Systems). Intitulée "Don't be a Tesla crash test dummy" ("ne soyez pas un mannequin de test de collision pour Tesla"), la publicité de Dan affirme que dans sa version actuelle, le FSD tuerait des millions de personnes chaque jour s'il alimentait un plus grand nombre de voitures.

Dan a fondé sa critique sur une étude des vidéos mises en ligne qui montrent des propriétaires de Tesla utilisant la fonction de conduite autonome complète, qui, selon Tesla, est en phase bêta et ne permet qu'une autonomie limitée sous la supervision du conducteur. Selon son étude, les vidéos montrent que FSD commet une "erreur de conduite critique" toutes les huit minutes et une "erreur involontaire" toutes les 36 minutes qui "causerait probablement une collision". Sur la bannière publicitaire, Dan estime que le FSD est le "pire logiciel commercial" qu'il ait jamais vu et pense qu'il est toujours dans une phase alpha.

De ce fait, il pense qu'il devrait être testé par des employés de Tesla en interne plutôt que par des propriétaires de Tesla. « Le logiciel qui pilote les voitures à conduite autonome dont des millions de vies vont dépendre doit être le meilleur logiciel », a-t-il déclaré. Bien qu'une version restreinte du FSD soit accessible à toute personne possédant une Tesla, les propriétaires peuvent également demander à devenir des bêta-testeurs d'une version plus avancée s'ils ont un score de sécurité de conduite suffisamment élevé, tel que déterminé par le logiciel de leur voiture. Dan fait en effet campagne pour interdire le FSD de Tesla.



Il a déclaré avoir placé l'annonce sous les auspices du Dawn Project, un groupe de pression qui milite dans ce sens. Il s'agit d'une organisation qui se décrit elle-même comme "dédiée à rendre les ordinateurs vraiment sûrs pour l'humanité". Selon certains critiques, l'annonce publiée par Dan dimanche apparaît en partie comme un coup de publicité destiné à attirer l'attention sur sa propre entreprise. Green Hills Software a déclaré au début du mois que sa technologie était utilisée pour développer un logiciel d'aide à la conduite pour la BMW iX entièrement électrique, un SUV sportif présenté par BMW au CES 2022.

En réaction, Elon Musk, PDG de Tesla, s'est attaqué au logiciel de Green Hills Software. Musk a tweeté dimanche : « le logiciel de Green Hills est un tas d'ordures », et a approuvé un commentaire selon lequel "les critiques du FSD ont toujours un énorme intérêt financier dans une solution concurrente". Mais de son côté, Dan a déclaré que les meilleures sources d'information sur un produit sont ses concurrents. « Ils les mettent en pièces, ils découvrent ce qu'ils font bien, ils découvrent ce qu'ils font mal. Ils savent mieux que quiconque, et ils vous le diront. Le vendeur ne vous dira jamais ces choses-là », a-t-il déclaré à Fox Business.

De plus, il a également allégué que la version originale de l'Autopilot de Tesla, qui était un précurseur du FSD, a été construite en utilisant Green Hills Software. « Je me suis retiré du projet et j'ai dit : "je ne sais pas si c'est bien, si c'est ce que nous devrions faire ici, ça ne va pas marcher », a déclaré Dan. Musk n'a pas eu d'autres réactions en dehors de celle-ci et Tesla, qui ne dispose pas d'un bureau des affaires médiatiques opérationnel, n'a pas apporté de commentaires sur les allégations de Dan selon lesquelles il y aurait un lien entre la technologie d'aide à la conduite de Green Hills Software et le FSD.



Sur la toile, certains commentaires notent qu'il est "tout à fait ridicule" d'utiliser des vidéos YouTube de tiers - au lieu de tester directement la technologie - pour extraire des "preuves" que le FSD tuerait des millions de personnes chaque jour si elle était installée sur toutes les voitures du monde. Un autre signal d'alarme serait le fait que la publicité n'utilise pas une seule fois le nom complet du logiciel Full Self-Driving Beta. Elle ne mentionne pas la partie "Beta", ce qui peut amener certains lecteurs à croire que le FSD Beta est un produit fini alors qu'il est encore en phase de test de développement.

Par ailleurs, Tesla traverse une période trouble en ce moment en raison du FSD, car le logiciel serait impliqué dans plusieurs accidents mortels ces dernières années, et fait actuellement l'objet d'une surveillance accrue de la part des régulateurs. Par exemple, la National Highway Traffic Safety Administration (NHTSA) des États-Unis est en train d'enquêter pour savoir si le système FSD a été impliqué dans un accident qui s'est produit à Brea, en Californie, le 3 novembre.

Cependant, Musk a déclaré que le commentaire fait par Ross Gerber, un fan incontesté de Tesla, sur Twitter selon lequel "il n'y a pas eu un seul accident ou une seule blessure depuis le lancement de la version bêta du système FSD" était correct. Afin d'insister sur le manque de sécurité de FSD, Dan offre maintenant une récompense de 10 000 dollars à quiconque trouvera un autre produit commercial vendu par une entreprise du Fortune 500 qui présente un dysfonctionnement critique toutes les huit minutes.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des allégations de Dan O'Dowd sur le FSD ?
Pensez-vous qu'il cherche simplement à attirer les regards sur son propre système d'aide à la conduite ?
Que pensez-vous du FSD ? Les utilisateurs devraient-ils être autorisés à tester les versions bêta du FSD sur les routes ? Le logiciel devrait-il être interdit ?

Voir aussi

Les accusations de crime impliquent pour une première une technologie automatisée largement utilisée, l'accusé utilisait Autopilot de Tesla dans l'incident qui a tué deux personnes

Tesla : un testeur note que son mode Full Self-Driving est loin d'être au point et dangereux, mais Elon Musk l'accuse d'avoir rédigé son billet avant même d'avoir vécu l'expérience

Tesla retire la MAJ de son logiciel Full Self-Driving, après un freinage soudain qui a effrayé les conducteurs

Autopilot de Tesla : les États-Unis enquêtent sur la fonctionnalité après que 11 Tesla se sont écrasées contre des véhicules d'urgence

Les États-Unis ouvrent une enquête sur 580 000 véhicules Tesla, en raison de la fonction 'Passenger Play', qui peut distraire le conducteur et augmenter le risque d'accident
9  1 
Avatar de AoCannaille
Membre expert https://www.developpez.com
Le 10/01/2022 à 14:54
Citation Envoyé par Eric80 Voir le message
Si tout les véhicules étaient autonomes, ils communiqueraient direct entre eux, et tout le bordel serait bcp plus simple.

Reste que les piétons ne causent pas aux voitures. Quoique: on pourrait imaginer des protocoles de communication avec tout les smartphones autour.
Gare à celui qui sort dans la rue dans son smartphone ou autre appareil connecté!
Dés que ton véhicule a besoin de communiqué avec d'autre, il n'est plus autonome. Et il devient influençable et piratable. J'espère que cette solution ne sera jamais en place.
6  2 
Avatar de Bill Fassinou
Chroniqueur Actualités https://www.developpez.com
Le 10/03/2022 à 12:25
Tesla déclare aux législateurs américains que le système Autopilot nécessite une "surveillance constante"
et conforte les critiques selon lesquelles le nom induit les conducteurs en erreur

L'Autopilot et le Full Self-Driving (FSD) de Tesla continuent de susciter les craintes des autorités américaines, après les accidents mortels de ces dernières années et les comportements parfois dangereux des deux systèmes que rapportent les testeurs. Dans une lettre récente adressée à deux sénateurs démocrates, Tesla a défendu les avantages en matière de sécurité de l'Autopilot et du FSD, mais a reconnu que les deux systèmes nécessitent "une surveillance et une attention constantes de la part du conducteur". Les sénateurs avaient déclaré à l'entreprise le mois dernier que sa technologie mettait la vie des conducteurs en danger.

Tesla a étendu l'année dernière le déploiement du FSD à 60 000 utilisateurs, ce qui a suscité des critiques selon lesquelles la société mettrait en danger la sécurité en testant sa technologie avec des conducteurs non formés sur la voie publique. Ainsi, les sénateurs démocrates Richard Blumenthal et Ed Markey ont écrit à Elon Musk, PDG de la société, le 8 février pour lui faire part de leurs "préoccupations importantes" concernant ses systèmes Autopilot et FSD, qui ont suscité l'attention des régulateurs de la sécurité. Environ un mois après, Tesla a répondu aux sénateurs, avec des déclarations "très éloignées du point de vue de Musk".

Dans une lettre datée du 4 mars, Rohan Patel, directeur principal de Tesla chargé de la politique publique et du développement commercial, a déclaré que l'Autopilot et le FSD améliorent la capacité de ses clients à "conduire de manière plus sûre que le conducteur moyen aux États-Unis". Patel décrit l'Autopilot et le FSD comme des systèmes de niveau 2 "qui nécessitent une surveillance et une attention constantes de la part du conducteur". « Ces fonctions sont capables d'effectuer certaines, mais pas toutes, des tâches de conduite dynamique (DDT) qui peuvent être effectuées par des conducteurs humains », note-t-il dans la lettre.



Cette description semble en effet contredire l'image trop optimiste de Tesla qui présente le produit comme étant "entièrement autonome". Dans sa lettre, Patel donne un aperçu plus nuancé (et très probablement vérifié sur le plan juridique) de l'Autopilot et du FSD que ce que Musk fournit généralement sur Twitter et dans d'autres commentaires publics. Lors d'une récente conférence téléphonique sur les résultats, Musk a affirmé que le FSD sera plus sûr que la conduite humaine d'ici la fin de 2022. Patel n'applique pas la même échéance, mais il insiste sur le fait que les fonctions de conduite avancées de Tesla sont plus sûres que la conduite humaine.

Il note : « par exemple, au quatrième trimestre de 2021, Tesla a enregistré un accident pour 6, 96 millions de kilomètres parcourus au cours desquels nos conducteurs utilisaient la technologie Autopilot, alors que les données les plus récentes de la NHTSA montrent qu'un accident automobile se produit tous les 779 000 kilomètres ». Tesla publie souvent des rapports de sécurité qui reprennent ces mêmes statistiques afin de présenter l'Autopilot comme plus sûr que la conduite humaine. Mais les experts notent que ces statistiques sont en grande partie dénuées de sens, car l'Autopilot est principalement utilisé pour la conduite sur autoroute.

Selon eux, la comparaison avec les statistiques nationales qui incluent une grande variété d'environnements de conduite, y compris la conduite résidentielle et urbaine, donne à Tesla un avantage injuste. Patel poursuit en décrivant le système de surveillance du conducteur de Tesla, qui utilise des capteurs de couple dans le volant et (pour certains véhicules Model 3 et Model Y) des caméras dans l'habitacle pour surveiller l'attention du conducteur. Toutefois, il ne mentionne pas que les régulateurs et les experts en sécurité ont passé des années à supplier Tesla d'ajouter un meilleur système de surveillance du conducteur à ses voitures.

Musk a même admis que les accidents impliquant l'Autopilot sont dus à la complaisance, mais il a précédemment rejeté les appels de ses propres ingénieurs à ajouter une surveillance plus robuste du conducteur aux voitures de l'entreprise. Musk a déclaré à l'époque que cette technologie était "inefficace". Des entreprises telles que General Motors et Ford vendent actuellement des voitures équipées de systèmes de suivi des yeux par caméra, destinés à s'assurer que les conducteurs sont attentifs lorsqu'ils utilisent les fonctions de conduite mains libres. La lettre de Patel semble avoir révélé que Tesla se livre à un "marketing mensonger".

Et si le but de la lettre de Patel était d'apaiser les inquiétudes de Blumenthal et Markey quant à l'engagement de Tesla en matière de sécurité, cela ne semble pas avoir fonctionné. « Ce n'est qu'une nouvelle dérobade de la part de Tesla. Malgré son bilan troublant en matière de sécurité et ses accidents mortels, la société semble vouloir poursuivre ses activités comme si de rien n'était. Il est grand temps que Tesla reçoive le message : suivez la loi et donnez la priorité à la sécurité », ont-ils déclaré. Le constructeur automobile fait l'objet d'un certain nombre d'enquêtes, à la suite de plusieurs accidents mortels et reportages déroutants sur l'Autopilot.

Les sénateurs Blumenthal et Markey ont déclaré dans leur lettre que les plaintes et les enquêtes dressent un tableau troublant : « Tesla diffuse de façon répétée des logiciels sans tenir pleinement compte de leurs risques et de leurs implications, créant ainsi de graves dangers pour tous les usagers de la route ». Sous la pression des régulateurs, Tesla a accepté en janvier de rappeler environ 54 000 véhicules américains pour réviser un logiciel empêchant les véhicules de ne pas respecter les panneaux-stops. Il semble qu'il y a un écart entre les affirmations de Musk et les progrès réels sur l'Autopilot et le FSD.

Source : Lettre de Tesla aux sénateurs démocrates Richard Blumenthal et Ed Markey

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des déclarations du directeur principal de Tesla ?
Pensez-vous que Tesla ou Elon Musk se livre à un marketing mensonger ?
Pensez-vous que les noms Autopilot et FSD induisent les conducteurs en erreur ? Doivent-ils être changés ?

Voir aussi

Les accusations de crime impliquent pour une première une technologie automatisée largement utilisée, l'accusé utilisait Autopilot de Tesla dans l'incident qui a tué deux personnes

L'agence fédérale américaine NTSB accuse Tesla de commercialiser l'Autopilot, un système de conduite autonome, inachevé et défaillant, et appelle à une réglementation plus stricte du secteur

L'Autopilote des Tesla plus sûr que la conduite manuelle, d'après une enquête commandée par une société d'assurances

Trente accidents de Tesla liés au système de conduite assistée font l'objet d'une enquête aux États-Unis, les accidents ont fait 10 morts depuis 2016

Le Gouvernement américain demande à Tesla pourquoi les gens peuvent jouer à des jeux vidéo dans des voitures en mouvement, la fonctionnalité fait l'objet d'un examen
4  0 
Avatar de totozor
Membre éclairé https://www.developpez.com
Le 01/06/2022 à 8:57
Citation Envoyé par Stéphane le calme Voir le message
Et vous ?
Qu'en pensez-vous ? Comprenez-vous sa démarche ? Dans quelle mesure ?
Projet louable ou attaque lancée contre un concurrent pour se faire de la publicité ?
Les deux mon capitaine,
le FSD n'est pas capable d'éviter un obstacle qu'il ne voit pas mais qu'un humain aurait vu, c'est problématique
Le FSD semble être attiré par les éléments sur brillants dont plots de sécurité, véhicules d'urgence qui en général sont signal un danger ou une personne. Les gilets réfléchissants que l'on conseille aux cyclistes ne risque-t-il pas d'être une cible dans leur dos s'ils croisent une Tesla avec le FSD enclenché?
Comment peut on mettre sur les routes un véhicule dans cet état avec une personne qui n'est pas prévenue au volant?

Après le monsieur mène un combat intéressé donc sa démarche n'est pas innocente, ses extrapolations semblent bien exagérées (je n'ai pas souvenir d'accident entre une Tesla sous FSD et un piéton standard).
Développer un système de conduite autonome est certainement un projet dantesque, mais Tesla mets le marketing la charrue avant la sécurité les boeufs en mettant le FSD sur les routes en prétendant qu'il est plutôt fiable.

Ceci dit c'est peut être un moyen pour Musk de réduire les imbéciles sur lesquels l'argent pleut depuis trop longtemps
3  0 
Avatar de Mingolito
Membre extrêmement actif https://www.developpez.com
Le 10/01/2022 à 15:34
12 000 $ pour un logiciel de suicide assisté c'est cher
Et tout ça pour quoi ? pour que des gars puissent poster des vidéos ou il se font faire une pipe dans leur Tesla tout en roulant ?
5  3 
Avatar de marc.collin
Membre chevronné https://www.developpez.com
Le 10/01/2022 à 20:16
Citation Envoyé par ChemOuRoussOuJadot Voir le message
12k$ compte tenu de la grande qualité de ces voitures je ne trouve pas ça cher du tout pour une technologie avant-gardiste.

Certains préfèrent rouler en twingo et d'autres plus à jour et vivant dans le 21ème siècle dans de vraies bijoux de technologie.

Forcément ça fait des jaloux.
une panoplie de défaut
https://model3quebec.com/la-rouille-...-devez-savoir/
2  1 
Avatar de AoCannaille
Membre expert https://www.developpez.com
Le 13/01/2022 à 10:41
Citation Envoyé par Ryu2000 Voir le message
J'ai l'impression qu'il existe des similitudes entre Apple et Tesla, par exemple les 2 marques sont excessivement cher.
Je trouve pas que les Tesla soient "excessivement chères". Elles sont chères, plus que la concurrence, mais essaye de s'aligner sur une gamme assez élevée quand même. A titre de comparaison je trouve la Zoé plus cher proportionnellement qu'une Tesla.
Et puis il faut garder en tête que Tesla part de rien en terme d'usine et qu'ils n'ont pas beaucoup de volume et donc peu d'économies d’échelles.

ça reste cher, mais pas comparable à Apple qui effectivement ne prends sans doute même pas le temps de regarder le coût de revient avant de choisir le prix de vente....
1  0 
Avatar de nirgal76
Membre chevronné https://www.developpez.com
Le 14/01/2022 à 14:12
Citation Envoyé par Mingolito Voir le message
12 000 $ pour un logiciel de suicide assisté c'est cher
Et tout ça pour quoi ? pour que des gars puissent poster des vidéos ou il se font faire une pipe dans leur Tesla tout en roulant ?
Je pense qu'il est moins dangereux que beaucoup de conducteurs/conductrices.
2  1