IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Tesla va procéder à une large diffusion de la version bêta de la suite "Full Self-Driving" « d'ici la fin de l'année »,
En commençant par un déploiement « extrêmement lent et prudent »

Le , par Stan Adkens

83PARTAGES

4  0 
Tesla a envoyé la première mise à jour de la version bêta de son logiciel "Full Self-Driving" (FSB) ou conduite autonome intégrale à un groupe de clients sélectionnés cette semaine, a tweeté mardi le PDG Elon Musk. De Plus, la suite complète de la FSB de Tesla est prête à être diffusée à grande échelle d'ici la fin 2020 à tous les conducteurs qui ont acheté cette capacité, a déclaré Elon Musk, lors de son appel aux gains du troisième trimestre. Musk a déclaré que Tesla abordait cette mise à jour logicielle « avec beaucoup de prudence » car « le monde est un endroit complexe et désordonné ».

Le dernier appel aux gains Tesla est fait, et contrairement aux appels précédents où le PDG Elon Musk a pris des tangentes incontrôlées, cet appel a été assez discret. Nous avons appris des choses plutôt intéressantes sur le projet de Tesla de mettre en place son système FSB sur lequel il travaille depuis des années. Tout d'abord, la version bêta initiale a commencé. Musk a déclaré qu'elle a été diffusée à un très petit groupe de personnes, mais que le nombre de personnes utilisant la version bêta augmentera probablement dès ce week-end et qu'il augmentera rapidement à partir de là. Il a affirmé qu'elle pourrait être diffusée à l'échelle du réseau d'ici la fin de l'année.


« Nous commençons très lentement et très prudemment parce que le monde est très complexe et désordonné », a déclaré Elon Musk en parlant du lancement de la version bêta de la suite FSD à un groupe restreint de personnes, qui a commencé tard mardi. « Nous l'avons mise en ligne hier soir, et nous verrons ensuite comment ça se passe, puis nous la diffuserons probablement à un plus grand nombre de personnes ce week-end ou au début de la semaine prochaine. Puis nous l'augmenterons progressivement jusqu'à ce que nous ayons, nous l'espérons, une large diffusion d'ici la fin de l'année ».

Tesla avait initialement prévu de publier une version complète de la mise à jour du FSB de l’Autopilot à la fin de 2019, mais sans succès. Cette fois, Tesla semble déterminé à livrer la prochaine mise à jour dans les délais prévus, et depuis un certain temps, Elon Musk a fourni avec diligence des mises à jour sur la publication du prochain grand déploiement du logiciel de Tesla.

En septembre dernier, le PDG de Tesla a prédit que la prochaine mise à jour de l’offre FSD sortirait dans un mois. Le 8 octobre, Musk a déclaré que la dernière version de la FSD de la technologie Autopilot serait capable de « conduire sans intervention. La version bêta limitée sera disponible dans quelques semaines ». Quatre jours plus tard, Musk a annoncé que la version limitée de la suite FSD serait disponible le 20 octobre. Tesla a tenu parole, et certains pilotes chanceux ont reçu la capacité mardi soir.


Cependant, Musk envisage déjà des versions plus larges du logiciel FSD si les choses se passent bien. On ignore qui possède actuellement le logiciel ou comment ils ont été sélectionnés pour le recevoir. La mise à jour ne s'adresserait apparemment qu'aux seuls clients du programme d'accès anticipé de Tesla, ce qui permettra aux conducteurs d'accéder au système d'aide à la conduite partiellement automatisé dans les rues en ville. Le programme d'accès anticipé est utilisé comme une plateforme de test pour aider à résoudre les bogues du logiciel.

Néanmoins, la construction prudente de la fonctionnalité de conduite autonome utilisera le réseau neuronal de Tesla pour améliorer ses performances. « Bien sûr, plus le système collecte de données, plus il devient robuste », a déclaré Musk. « C'est un peu comme "Comment Google, en tant que moteur de recherche, s'améliore-t-il ?" C'est parce que les gens le programment en lui posant des questions tout le temps et en cliquant sur des liens particuliers ».

Toutefois, cette large diffusion de la version bêta de FSB cette année pourrait susciter quelques inquiétudes

On ne sait pas encore très bien ce que la version bêta de la FSB implique exactement en termes de fonctionnalités, mais elle devrait étendre la fonctionnalité existante de Tesla telle que le "Contrôle des feux de circulation et des panneaux d'arrêt" pour ajouter des virages dans les intersections.

Au cours des derniers mois, Elon Musk a parlé du fait que Tesla travaille sur « une réécriture fondamentale significative du pilote automatique Tesla ». Il a taquiné à propos du nouveau changement de base de l’Autopilot, qui devrait être capable d'interpréter son environnement en 4D au lieu de 2D après la mise à jour et qui devrait entraîner une amélioration rapide des performances et la sortie plus rapide de nouvelles fonctionnalités.

En combinant ces changements à la fonction "Navigate on Autopilot" du constructeur, les véhicules Tesla seraient techniquement capables de naviguer à la fois dans les rues des villes et sur les autoroutes sans intervention du conducteur. Mais cette large diffusion de la FSB prévue pour cette année pourrait inquiéter plus d’un, notamment parce que Tesla n'a apparemment pas fait beaucoup de tests sur la route. Il s'est appuyé sur les données recueillies par les véhicules de ses clients pour effectuer des simulations afin de mieux former un réseau neuronal.

Lors de l'appel aux gains, Musk a fait valoir que l'avantage de l'Autopilot de Tesla vient du fait qu'une grande flotte de véhicules - environ 930 000 - est déjà sur la route. « Avoir un million de voitures qui fournissent un retour d'information, et plus particulièrement un retour d'information sur des situations bizarres dans les coins que vous ne pouvez même pas imaginer en simulation - c'est une chose qui est vraiment précieuse », a-t-il déclaré.


Ces voitures enregistrent des situations et fournissent des données d'entraînement pour améliorer les réseaux neuronaux nécessaires au logiciel d'intelligence artificielle qui alimente les voitures autonomes. L'approche de la société en matière de véhicules autonomes est principalement axée sur la vision par ordinateur, ou l'utilisation de caméras pour reconnaître et comprendre le monde.

Précédemment, Musk a décrit une version "Full Self-Driving" de l’Autopilot comme permettant à la voiture de se rendre du domicile de quelqu'un à son travail sans intervention du conducteur. Cependant, les conducteurs devront toujours être prêts à prendre le contrôle si la voiture rencontre un problème. Certains experts ont contesté la façon dont le PDG de Tesla parle de ces fonctionnalités par le passé, arguant qu'il brouille les pistes en vendant trop cher les capacités d'une voiture Tesla.

L’Autopilot peut centrer une Tesla dans une voie, même dans les courbes, et ajuster la vitesse de la voiture en fonction du véhicule qui la précède. La fonction "Navigate on Autopilot" peut suggérer - et effectuer - des changements de voie pour contourner les véhicules plus lents, et diriger une Tesla vers les échangeurs et les sorties d'autoroute. Une autre fonction permet de ralentir une Tesla jusqu'à ce qu'elle s'arrête aux feux de circulation et aux panneaux d'arrêt. La société n'a pas encore autorisé ses clients à ne pas contrôler le véhicule à vitesse moyenne, où ils sont plus susceptibles de rencontrer des feux de circulation, des intersections et d'autres difficultés.

L’Autopilot ne peut pas effectuer certaines de ces tâches si les repères de voie d'une route sont effacés ou manquants. Le conducteur doit également avoir une main sur le volant à tout moment, sinon le pilote automatique émet une série d'avertissements avant de se désengager complètement. Mais lorsque ces fonctions marchent de concert, on peut avoir l'impression que la voiture se conduit toute seule, mais le conducteur reste responsable en cas d'erreur ou d'accident. Rappelons qu’il y a eu un certain nombre d'accidents mortels impliquant des véhicules Tesla dont l’Autopilot était enclenché.

Les estimations de Musk pour le déploiement de la gamme FSD en fin d'année s’alignent avec son calendrier de mise en place de la flotte de robotaxis de Tesla. Le service de covoiturage nécessiterait une suite de FSD à intervention zéro qui pourrait fonctionner sans chauffeur. Pour que la flotte de robotaxis puisse prendre forme d'ici 2021, la FSD devrait être achevée au préalable.

La lettre de mise à jour du troisième trimestre de Tesla a également révélé que le constructeur automobile doté de la plus importante capitalisation boursière au monde tend vers une vitesse de fabrication possible d'un million de véhicules par an après une augmentation de 25 % de la production des Model 3 et Y dans l'usine de Fremont. « Nous avons récemment augmenté la capacité de la Model 3 / Model Y à 500 000 unités par an », lit-on.

Sources : Mise à jour Q3 Tesla, Tweet

Et vous ?

Qu’en pensez-vous ?
Que pensez-vous du calendrier de Tesla pour que la FSB soit déployée sur tous les véhicules ?
Les fonctionnalités actuelles de Tesla permettent-elles la conduite autonome intégrale, selon vous ?
Allez-vous emprunter les robotaxis Tesla l’année prochaine ?

Voir aussi :

Elon Musk : les voitures Tesla entièrement autonomes sont maintenant « très proches », et l'autonomie de niveau 5 pourrait être soumise à une approbation réglementaire cette année
L'Autopilot de Tesla détectera les feux verts et les panneaux de limitation de vitesse, puis permettra bien d'autres choses grâce à une nouvelle mise à jour du logiciel
La nouvelle mise à jour de l'Autopilot de Tesla gère désormais les feux de circulation et les panneaux d'arrêt, l'entreprise rappelle néanmoins que cela n'empêche pas de rester attentif
Elon Musk promet un Tesla vraiment autonome d'ici la fin de 2020, capable de vous emmener partout où vous voulez pendant que vous faites la sieste

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Stéphane le calme
Chroniqueur Actualités https://www.developpez.com
Le 21/03/2021 à 9:17
La MàJ du logiciel du pilote automatique « Full Self Driving » de Tesla est potentiellement dangereuse
et dirige le véhicule par moment de façon extrêmement risquée

Une version bêta de la mise à jour du pilote automatique « Full Self Driving » de Tesla a commencé à être déployée auprès de certains utilisateurs. Des vidéos du système en action montrent qu'il y a encore du chemin à parcourir et fait valoir que, pour le moment, il est potentiellement dangereux de se reposer sur le programme bêta « Full Self Driving » d'Autopilot.

En septembre, lors de l'assemblée annuelle des actionnaires de Tesla Motors et de l'événement Battery Day 2020, le PDG Elon Musk a annoncé que le constructeur d'automobiles électriques s'apprêtait à publier une version bêta privée de la « version entièrement autonome » de son logiciel d'aide à la conduite Autopilot dans les mois à venir.

« C'est un peu difficile pour les gens de juger des progrès d'Autopilot », a déclaré Musk à une foule d'actionnaires présents à l'événement, chacun respectant les mesures barrières en restant dans sa propre Tesla. « Je conduis une version alpha de pointe d'Autopilot, donc j'ai en quelque sorte un aperçu de ce qui se passe ».

Musk a poursuivi en expliquant comment les ingénieurs de Tesla ont récemment dû réviser des parties majeures du pilote automatique, y compris en repensant la façon dont le système voit le monde.

« Nous avons dû effectuer une réécriture fondamentale de l'ensemble de la pile logicielle Autopilot… Nous étiquetons maintenant la vidéo 3D, ce qui est très différent de notre procédé précédent qui consistait à étiqueter des images 2D uniques », a expliqué Musk, faisant référence à la façon dont le logiciel Autopilot comprend des objets qu'il voit avec ses huit caméras et comment il doit réagir. « Nous étiquetons maintenant des segments vidéo entiers issus simultanément de toutes les caméras. La sophistication du réseau neuronal de la voiture et la logique globale de la voiture sont considérablement améliorées ».

C'est depuis octobre que certains conducteurs ont pu bénéficier de la version bêta fermée du « Full Self Driving » d'Autopilot. En décembre, environ 200 personnes avaient obtenu l'accès au programme, dont 54 n'étaient pas des employés de Tesla, bien que cela ait probablement changé, puisque le PDG Elon Musk a indiqué que Tesla avait fait participer près de 1000 personnes à la version bêta en janvier. Cependant, Tesla a précisé que ce Full Self Driving ne correspond en réalité qu'à la définition SAE de l'autonomie partielle de niveau 2.

Des vidéos d'une nouvelle mise à jour de la version Bêta ont commencé à circuler sur la toile. Dans une vidéo de 13 minutes publiée sur YouTube par l'utilisateur «AI Addict», nous voyons un Model 3 avec FSD Beta 8.2 tâtonner autour d'Oakland. Il semble totalement confus à tout moment, n'imitant jamais passablement un conducteur humain. Au début de la vidéo, le passager avant remarque la décision correcte de la voiture de dépasser un tas de voitures en double stationnement plutôt que d'attendre derrière elles – mais le moment de louange est écourté lorsque la voiture se gare juste sur la ligne médiane alors qu'elle essaye de prendre le virage à gauche.


En effet, comme tous les systèmes semi-autonomes en vente aujourd'hui, les systèmes « Full Self Driving » et « Autopilot » de Tesla ne sont pas, en fait, entièrement autonomes. Ils nécessitent une surveillance humaine constante et une intervention en une fraction de seconde. Et maintenant que la dernière version bêta du logiciel est disponible, elle semble exiger plus d'attention que jamais.

L'industrie automobile a adopté six niveaux de conduite automatisée, qui dictent le niveau d'assistance qu'un véhicule peut fournir. Ces niveaux d'autonomie des véhicules, de 0 à 5, vont des voitures manuelles ou dotées de fonctions simples telles que le régulateur de vitesse aux véhicules entièrement autonomes qui n'auraient pas besoin de volant ni de pédales de frein et d'accélération. Actuellement, il n'existe pas de voitures produites en série au niveau 3, bien que certains constructeurs automobiles aient testé des véhicules dotés d'une technologie plus sophistiquée de niveau 4, qui implique un véhicule capable de se conduire lui-même, bien qu'il puisse être limité à une certaine zone. L'automatisation de niveau 5, qui permet de garantir un contrôle autonome du véhicule dans pratiquement toutes les situations et de supprimer la nécessité d'un volant, est considérée comme l'objectif ultime des voitures à conduite autonome.


Assez rapidement, la vidéo passe des « erreurs embarrassantes » à « une conduite extrêmement risquée et potentiellement nuisible ». En mode autonome, la Tesla enfreint une variété de règles de la circulation à l'instar d'un changement de voie illégal. Elle tente ensuite de tourner à gauche à côté d'une autre voiture, pour abandonner à mi-chemin de l'intersection et se désengager. Elle prend un autre virage beaucoup trop large, se plaçant dans une voie en sens interdit et nécessitant l'intervention du conducteur.

La vidéo n'est même pas à moitié terminée, mais la litanie d'erreurs se poursuit avec un autre désengagement aléatoire. La Tesla tente de faire un virage à droite à un feu rouge où c'est interdit, obligeant le conducteur à l'en empêcher activement. Elle s'arrête au hasard au milieu de la route, continue tout droit dans une voie réservée aux virages. Le logiciel de la Tesla est perdu par des voitures arrêtées sur la chaussée et à une intersection où il a clairement la priorité.

Personne n'est parvenu à proposer une conduite réellement autonome. C'est un problème difficile qui, selon certains experts, ne sera résolu qu'avec une intelligence artificielle très avancée. Le logiciel de Tesla fait clairement un travail décent en identifiant les voitures, les panneaux d'arrêt, les piétons, les vélos, les feux de signalisation et d'autres obstacles de base.

En général, lorsqu'une technologie est encore en plein développement, la réaction naturelle est de continuer à travailler dessus jusqu'à ce que le chemin soit aplani. Tesla a opté contre cette stratégie ici, choisissant à la place de vendre un logiciel qu'il sait incomplet, facturant une prime substantielle et espérant que ceux qui l'achètent auront une compréhension nuancée et avancée de ses limites. En somme, chaque propriétaire de Tesla qui achète un modèle "Full Self-Driving" sert de superviseur de la sécurité non rémunéré, menant des recherches au nom de Tesla. Peut-être plus accablant, la société n'assume aucune responsabilité pour ses actions et laisse au conducteur le soin de décider quand et où le tester.

Cela conduit à des vidéos comme celle-ci, où les premiers utilisateurs effectuent des tests incontrôlés dans les rues de la ville, les piétons, les cyclistes et les autres conducteurs ignorant qu'ils font partie de l'expérience. Si même l'un de ces pilotes Tesla dérape, les conséquences peuvent être mortelles. Tous ces tests sont effectués sur la voie publique, au profit du constructeur automobile le plus précieux du monde, à un coût pratiquement nul.


Notons qu'au début du mois, Honda Motor a lancé une nouvelle voiture équipée de la première technologie de conduite autonome certifiée de niveau 3 au monde, ouvrant la voie à l'industrie automobile pour redoubler d'efforts pour commercialiser une telle automatisation pour les véhicules de tourisme. Le niveau SAE 3 diffère fondamentalement du niveau 2 en ce qu'il s'agit d'une graduation de l'automatisation partielle (comme dans Autopilot de Tesla) à l'automatisation conditionnelle, ce qui signifie qu'une voiture peut lire son environnement et prendre des décisions en fonction de ce qu'elle voit. Cela permet à une voiture équipée d'un système de niveau 3 comme Honda Sensing Elite d'agir de son propre chef (sans jeu de mots) en fonction de la situation actuelle (parfois avec les mains du conducteur sur le volant, et dans certains cas, si le conducteur ne regarde pas la route). Une telle liberté est accordée dans le cadre de la fonction Traffic Jam Pilot de Honda Sensing Elite, qui donne à la voiture le contrôle de ses propres freins, direction et accélérateur dans ce scénario éponyme. Cela permet à la voiture de maintenir la distance, la vitesse et la position sur la voie. Il fait tout cela sans aucune intervention du conducteur, qui, selon Honda, peut « regarder la télévision / DVD sur l'écran de navigation ou utiliser le système de navigation pour rechercher une adresse de destination ».

Les vidéos de tests nous feront probablement savoir si tout ce qui est annoncé est déjà atteint techniquement et comment se comportent les véhicules en conditions réelles pour des conducteurs lambda.

Et vous ?

Qu'en pensez-vous ? Les conducteurs clients devraient-ils figurer parmi ceux qui testent les mises à jour qui ne sont pas encore bien mises au point ? Dans quelle mesure ?
12  0 
Avatar de Stéphane le calme
Chroniqueur Actualités https://www.developpez.com
Le 30/11/2020 à 9:23
Tesla pourrait procéder à une plus large diffusion de la version bêta du mode Full Self-Driving dans deux semaines.
Certains conducteurs avaient été impressionnés par cette mise à jour

En septembre, lors de l'assemblée annuelle des actionnaires de Tesla Motors et de l'événement Battery Day 2020, le PDG Elon Musk a annoncé que le constructeur d'automobiles électriques s'apprêtait à publier une version bêta privée de la « version entièrement autonome » de son logiciel d'aide à la conduite Autopilot dans les mois à venir.

« C'est un peu difficile pour les gens de juger des progrès d'Autopilot », a déclaré Musk à une foule d'actionnaires présents à l'événement, chacun respectant les mesures barrières en restant dans sa propre Tesla. « Je conduis une version alpha de pointe d'Autopilot, donc j'ai en quelque sorte un aperçu de ce qui se passe ».

Musk a poursuivi en expliquant comment les ingénieurs de Tesla ont récemment dû réviser des parties majeures du pilote automatique, y compris en repensant la façon dont le système voit le monde.

« Nous avons dû effectuer une réécriture fondamentale de l'ensemble de la pile logicielle Autopilot… Nous étiquetons maintenant la vidéo 3D, ce qui est très différent de notre procédé précédent qui consistait à étiqueter des images 2D uniques », a expliqué Musk, faisant référence à la façon dont le logiciel Autopilot comprend des objets qu'il voit avec ses huit caméras et comment il doit réagir. « Nous étiquetons maintenant des segments vidéo entiers issus simultanément de toutes les caméras. La sophistication du réseau neuronal de la voiture et la logique globale de la voiture sont considérablement améliorées ».

Musk a laissé entendre que les conducteurs pourraient bientôt avoir la chance de découvrir cette version plus sophistiquée d’AutoPilot : « Je pense que nous allons, espérons-le, publier une version bêta privée d'Autopilot - la version entièrement autonome d’Autopilot – probablement dans un mois. A ce moment la, les gens comprendront vraiment l'ampleur du changement », a déclaré Musk. « C'est profond. Vous verrez à quoi ça ressemble, c'est incroyable ».

Les participants ont montré leur approbation à la promesse de Musk en donnant plusieurs coups de klaxon depuis leurs barrières improvisées de sécurité.

Le 8 octobre, Musk a déclaré que la dernière version de la FSD de la technologie Autopilot serait capable de « conduire sans intervention. La version bêta limitée sera disponible dans quelques semaines ». Quatre jours plus tard, Musk a annoncé que la version limitée de la suite FSD serait disponible le 20 octobre. Tesla a tenu parole, et certains pilotes chanceux ont reçu la capacité le jour convenu.

Tesla a donc envoyé la première mise à jour de la version bêta de son logiciel Full Self-Driving (FSB) ou conduite autonome intégrale à un groupe de clients sélectionnés le 20 octobre, selon son PDG Elon Musk. « Nous commençons très lentement et très prudemment parce que le monde est très complexe et désordonné », a déclaré Elon Musk en parlant du lancement de la version bêta de la suite FSD à un groupe restreint de personnes. « Nous l'avons mise en ligne hier soir, et nous verrons ensuite comment ça se passe, puis nous la diffuserons probablement à un plus grand nombre de personnes ce week-end ou au début de la semaine prochaine. Puis nous l'augmenterons progressivement jusqu'à ce que nous ayons, nous l'espérons, une large diffusion d'ici la fin de l'année ».


La construction prudente de la fonctionnalité de conduite autonome s'appuie sur le réseau neuronal de Tesla pour améliorer ses performances. « Bien sûr, plus le système collecte de données, plus il devient robuste », a déclaré Musk. « C'est un peu comme "Comment Google, en tant que moteur de recherche, s'améliore-t-il ?" C'est parce que les gens le programment en lui posant des questions tout le temps et en cliquant sur des liens particuliers ».

Dans un tweet publié vendredi, Elon Musk a déclaré qu'il y aurait probablement un déploiement plus large de la nouvelle mise à jour du logiciel « Full Self Driving » dans deux semaines.


Précédemment, Musk a décrit une version "Full Self-Driving" de l’Autopilot comme permettant à la voiture de se rendre du domicile de quelqu'un à son travail sans intervention du conducteur. Cependant, les conducteurs devront toujours être prêts à prendre le contrôle si la voiture rencontre un problème. Certains experts ont contesté la façon dont le PDG de Tesla parle de ces fonctionnalités par le passé, arguant qu'il brouille les pistes en vendant trop cher les capacités d'une voiture Tesla.

L’Autopilot peut centrer une Tesla dans une voie, même dans les courbes, et ajuster la vitesse de la voiture en fonction du véhicule qui la précède. La fonction "Navigate on Autopilot" peut suggérer - et effectuer - des changements de voie pour contourner les véhicules plus lents, et diriger une Tesla vers les échangeurs et les sorties d'autoroute. Une autre fonction permet de ralentir une Tesla jusqu'à ce qu'elle s'arrête aux feux de circulation et aux panneaux d'arrêt. La société n'a pas encore autorisé ses clients à ne pas contrôler le véhicule à vitesse moyenne, où ils sont plus susceptibles de rencontrer des feux de circulation, des intersections et d'autres difficultés.

L’Autopilot ne peut pas effectuer certaines de ces tâches si les repères de voie d'une route sont effacés ou manquants. Le conducteur doit également avoir une main sur le volant à tout moment, sinon le pilote automatique émet une série d'avertissements avant de se désengager complètement. Mais lorsque ces fonctions marchent de concert, on peut avoir l'impression que la voiture se conduit toute seule, mais le conducteur reste responsable en cas d'erreur ou d'accident. Rappelons qu’il y a eu un certain nombre d'accidents mortels impliquant des véhicules Tesla dont l’Autopilot était enclenché.

Les estimations de Musk pour le déploiement de la gamme FSD en fin d'année s’alignent avec son calendrier de mise en place de la flotte de robotaxis de Tesla. Le service de covoiturage nécessiterait une suite de FSD à intervention zéro qui pourrait fonctionner sans chauffeur. Pour que la flotte de robotaxis puisse prendre forme d'ici 2021, la FSD devrait être achevée au préalable.

Source : Elon Musk

Et vous ?

Qu'en pensez-vous ? Un grand pas vers la conduite entièrement autonome ?

Voir aussi :

Elon Musk : les voitures Tesla entièrement autonomes sont maintenant « très proches », et l'autonomie de niveau 5 pourrait être soumise à une approbation réglementaire cette année
L'Autopilot de Tesla détectera les feux verts et les panneaux de limitation de vitesse, puis permettra bien d'autres choses grâce à une nouvelle mise à jour du logiciel
La nouvelle mise à jour de l'Autopilot de Tesla gère désormais les feux de circulation et les panneaux d'arrêt, l'entreprise rappelle néanmoins que cela n'empêche pas de rester attentif
Elon Musk promet un Tesla vraiment autonome d'ici la fin de 2020, capable de vous emmener partout où vous voulez pendant que vous faites la sieste
9  0 
Avatar de Bill Fassinou
Chroniqueur Actualités https://www.developpez.com
Le 19/01/2022 à 14:57
Le PDG de Green Hills accuse Tesla de traiter les utilisateurs du Full Self-Driving comme des "mannequins de test de collision"
et qualifie le FSD du pire logiciel commercial qu'il ait jamais vu

Dan O'Dowd, cofondateur et PDG de Green Hills Software, s'est attiré les foudres d'Elon Musk ce week-end après avoir posté une annonce provocatrice et "dénigrante" sur le système d'aide à la conduite FSD (Full Self-Driving) de Tesla. Il a allégué dans une publicité d'une page entière parue dans le New York Times que des millions de gens mourraient chaque jour si la version actuelle du FSD contrôlait pleinement chaque véhicule sur la route. Il a ajouté que Tesla prenait les utilisateurs du FSD comme des "mannequins de test de collision". En réponse, Elon Musk, PDG de Tesla, a déclaré : "le logiciel de Green Hills est un tas d'ordures".

La voiture électrique, généralement munie d'un système d'aide à la conduite, se popularise davantage et un grand nombre de nouveaux acteurs sont arrivés sur le marché pendant la dernière décennie, certains étant des filiales de grands groupes existant déjà sur le marché des véhicules à combustion. Cela a engendré une concurrence accrue et les entreprises semblent user désormais de tous les moyens pour mettre en avant leurs produits. C'est peut-être ce qui s'est passé dimanche avec Dan O'Dowd, qui a publié dimanche une "critique sévère" sur le logiciel FSD de Tesla sous la forme d'une publicité dans le New York Times.



Dan est le cofondateur et PDG de Green Hills Software. Green Hills est une société privée qui construit des systèmes d'exploitation et des outils de programmation pour les systèmes embarqués, mais avec l'avènement de la voiture électrique, elle s'est également lancée dans le développement de systèmes d'aide à la conduite (ADAS - Advanced Driver Assistance Systems). Intitulée "Don't be a Tesla crash test dummy" ("ne soyez pas un mannequin de test de collision pour Tesla"), la publicité de Dan affirme que dans sa version actuelle, le FSD tuerait des millions de personnes chaque jour s'il alimentait un plus grand nombre de voitures.

Dan a fondé sa critique sur une étude des vidéos mises en ligne qui montrent des propriétaires de Tesla utilisant la fonction de conduite autonome complète, qui, selon Tesla, est en phase bêta et ne permet qu'une autonomie limitée sous la supervision du conducteur. Selon son étude, les vidéos montrent que FSD commet une "erreur de conduite critique" toutes les huit minutes et une "erreur involontaire" toutes les 36 minutes qui "causerait probablement une collision". Sur la bannière publicitaire, Dan estime que le FSD est le "pire logiciel commercial" qu'il ait jamais vu et pense qu'il est toujours dans une phase alpha.

De ce fait, il pense qu'il devrait être testé par des employés de Tesla en interne plutôt que par des propriétaires de Tesla. « Le logiciel qui pilote les voitures à conduite autonome dont des millions de vies vont dépendre doit être le meilleur logiciel », a-t-il déclaré. Bien qu'une version restreinte du FSD soit accessible à toute personne possédant une Tesla, les propriétaires peuvent également demander à devenir des bêta-testeurs d'une version plus avancée s'ils ont un score de sécurité de conduite suffisamment élevé, tel que déterminé par le logiciel de leur voiture. Dan fait en effet campagne pour interdire le FSD de Tesla.



Il a déclaré avoir placé l'annonce sous les auspices du Dawn Project, un groupe de pression qui milite dans ce sens. Il s'agit d'une organisation qui se décrit elle-même comme "dédiée à rendre les ordinateurs vraiment sûrs pour l'humanité". Selon certains critiques, l'annonce publiée par Dan dimanche apparaît en partie comme un coup de publicité destiné à attirer l'attention sur sa propre entreprise. Green Hills Software a déclaré au début du mois que sa technologie était utilisée pour développer un logiciel d'aide à la conduite pour la BMW iX entièrement électrique, un SUV sportif présenté par BMW au CES 2022.

En réaction, Elon Musk, PDG de Tesla, s'est attaqué au logiciel de Green Hills Software. Musk a tweeté dimanche : « le logiciel de Green Hills est un tas d'ordures », et a approuvé un commentaire selon lequel "les critiques du FSD ont toujours un énorme intérêt financier dans une solution concurrente". Mais de son côté, Dan a déclaré que les meilleures sources d'information sur un produit sont ses concurrents. « Ils les mettent en pièces, ils découvrent ce qu'ils font bien, ils découvrent ce qu'ils font mal. Ils savent mieux que quiconque, et ils vous le diront. Le vendeur ne vous dira jamais ces choses-là », a-t-il déclaré à Fox Business.

De plus, il a également allégué que la version originale de l'Autopilot de Tesla, qui était un précurseur du FSD, a été construite en utilisant Green Hills Software. « Je me suis retiré du projet et j'ai dit : "je ne sais pas si c'est bien, si c'est ce que nous devrions faire ici, ça ne va pas marcher », a déclaré Dan. Musk n'a pas eu d'autres réactions en dehors de celle-ci et Tesla, qui ne dispose pas d'un bureau des affaires médiatiques opérationnel, n'a pas apporté de commentaires sur les allégations de Dan selon lesquelles il y aurait un lien entre la technologie d'aide à la conduite de Green Hills Software et le FSD.



Sur la toile, certains commentaires notent qu'il est "tout à fait ridicule" d'utiliser des vidéos YouTube de tiers - au lieu de tester directement la technologie - pour extraire des "preuves" que le FSD tuerait des millions de personnes chaque jour si elle était installée sur toutes les voitures du monde. Un autre signal d'alarme serait le fait que la publicité n'utilise pas une seule fois le nom complet du logiciel Full Self-Driving Beta. Elle ne mentionne pas la partie "Beta", ce qui peut amener certains lecteurs à croire que le FSD Beta est un produit fini alors qu'il est encore en phase de test de développement.

Par ailleurs, Tesla traverse une période trouble en ce moment en raison du FSD, car le logiciel serait impliqué dans plusieurs accidents mortels ces dernières années, et fait actuellement l'objet d'une surveillance accrue de la part des régulateurs. Par exemple, la National Highway Traffic Safety Administration (NHTSA) des États-Unis est en train d'enquêter pour savoir si le système FSD a été impliqué dans un accident qui s'est produit à Brea, en Californie, le 3 novembre.

Cependant, Musk a déclaré que le commentaire fait par Ross Gerber, un fan incontesté de Tesla, sur Twitter selon lequel "il n'y a pas eu un seul accident ou une seule blessure depuis le lancement de la version bêta du système FSD" était correct. Afin d'insister sur le manque de sécurité de FSD, Dan offre maintenant une récompense de 10 000 dollars à quiconque trouvera un autre produit commercial vendu par une entreprise du Fortune 500 qui présente un dysfonctionnement critique toutes les huit minutes.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des allégations de Dan O'Dowd sur le FSD ?
Pensez-vous qu'il cherche simplement à attirer les regards sur son propre système d'aide à la conduite ?
Que pensez-vous du FSD ? Les utilisateurs devraient-ils être autorisés à tester les versions bêta du FSD sur les routes ? Le logiciel devrait-il être interdit ?

Voir aussi

Les accusations de crime impliquent pour une première une technologie automatisée largement utilisée, l'accusé utilisait Autopilot de Tesla dans l'incident qui a tué deux personnes

Tesla : un testeur note que son mode Full Self-Driving est loin d'être au point et dangereux, mais Elon Musk l'accuse d'avoir rédigé son billet avant même d'avoir vécu l'expérience

Tesla retire la MAJ de son logiciel Full Self-Driving, après un freinage soudain qui a effrayé les conducteurs

Autopilot de Tesla : les États-Unis enquêtent sur la fonctionnalité après que 11 Tesla se sont écrasées contre des véhicules d'urgence

Les États-Unis ouvrent une enquête sur 580 000 véhicules Tesla, en raison de la fonction 'Passenger Play', qui peut distraire le conducteur et augmenter le risque d'accident
9  0 
Avatar de Bill Fassinou
Chroniqueur Actualités https://www.developpez.com
Le 12/07/2021 à 10:02
Tesla commence enfin à déployer la version bêta 9 du Full Self-Driving après un long retard
elle apporte la surveillance du conducteur et améliore la visualisation de la route

Attendue depuis plusieurs mois par les propriétaires Tesla, la mise à jour logicielle (2021.4.18.12) du Full Self-Driving (FSD) a commencé à être déployée samedi. Cela permet aux propriétaires Tesla qui ont acheté l'option FSD d'accéder à cette fonction, qui permet aux conducteurs d'utiliser de nombreuses fonctions avancées d'aide à la conduite d'Autopilot sur des routes locales, en dehors des autoroutes. Elon Musk, PDG de Tesla, a toutefois rappelé aux utilisateurs qu'il ne s'agit pour l'instant que d'une version bêta, après que l'entreprise a admis en mai que l'Autopilot actuel est un système d'aide à la conduite de niveau 2.

Les propriétaires de Tesla attendent depuis des mois que la mise à jour majeure du FSD arrive sur les voitures par le biais de mises à jour logicielles automatiques. Et, fait intéressant, bien qu'ils aient constamment demandé à Elon Musk quand les fonctionnalités pourraient être lancées, ils ont été apparemment patients. En effet, leur attente dure depuis près de 3 ans. En 2018, Musk avait déclaré que la version "tant attendue" du FSD commencerait à être déployée au mois d'août. Il l'a refait en 2019, proclamant que « dans un an, il y aurait plus d'un million de voitures avec une conduite autonome complète, le logiciel, tout », ce qui n'est pas arrivé.



Plus tôt ce mois, il a affirmé que « la version bêta de la FSD 9 sera bientôt expédiée ». Donc, dire que les fans de Tesla ont anticipé cette mise à jour depuis un certain temps serait un euphémisme. Ce retard est probablement dû en partie au fait que Tesla a retiré le radar de ses Model 3 et Model Y en faveur d'une approche basée sur la vision par caméra uniquement. La vraie question est de savoir si cette mise à jour est prête pour le grand public. À cela, Musk a donné une réponse peu claire comme à son habitude. « La bêta 9 traite la plupart des problèmes connus, mais il y aura des problèmes inconnus, alors s'il vous plaît soyez paranoïaque », a-t-il écrit sur Twitter.

Cette mise à jour n'apporte pas une autonomie complète, malgré le maintien de l'ancienne appellation, mais elle permet de nombreuses aides à la conduite en dehors des routes (comme les changements de voie et les virages) tout en apportant de nombreuses corrections. Cette mise à jour apporte également des visualisations remaniées qui offrent des "informations supplémentaires sur les environs" et donnent une meilleure idée de ce que la voiture voit. En outre, les notes de mise à jour mentionnent aussi les améliorations apportées à la surveillance du conducteur par la caméra de l'habitacle pour vérifier l'attention.



Il s'agit d'une fonctionnalité récemment activée qui utilise la caméra de l'habitacle pour s'assurer que vous êtes attentif lorsque l'Autopilot est activé. Il est important de noter que Tesla s'est longtemps opposé à l'idée d'inclure un système de surveillance du conducteur plus solide (comme le suivi oculaire infrarouge, par exemple) pour s'assurer que ses clients respectent les protocoles de sécurité. Le constructeur se contentait d'avertir les conducteurs de rester vigilants, garder les yeux sur la route et les mains sur le volant à tout moment. Mais les choses ont commencé par changer dernièrement.

L'Autopilot est considéré comme un système "partiellement automatisé" de niveau 2 par les normes de la Society of Automotive Engineers (ainsi que par les avocats de Tesla), qui exige que les conducteurs gardent les mains sur le volant et les yeux sur la route. Par ailleurs, les défenseurs des consommateurs ont prouvé que l'Autopilot peut facilement être trompé en faisant croire qu'il y a quelqu'un sur le siège conducteur. Cela a d'ailleurs suscité un regain d'attention à la suite d'un accident mortel au Texas impliquant une Tesla, dans lequel les autorités ont déclaré qu'il n'y avait personne derrière le volant.




Mais cela n'a pas empêché certains propriétaires de Tesla d'abuser de l'Autopilot – allant parfois jusqu'à filmer et rendre publics les résultats. Des conducteurs ont été surpris en train de dormir sur le siège passager ou la banquette arrière de leur Tesla alors que le véhicule roule à toute vitesse sur une autoroute bondée. Un Canadien a été accusé de conduite imprudente l'année dernière après avoir été arrêté pour avoir dormi alors qu'il roulait à une vitesse de 93 m/h (149 km/h). Les rapports montrent que Tesla a introduit l'Autopilot en 2015, il est impliqué dans au moins 11 décès dans neuf accidents aux États-Unis.

À l'échelle internationale, il y aurait eu au moins neuf autres décès dans sept autres accidents. Pendant ce temps, le gouvernement américain exige que les constructeurs automobiles signalent les accidents impliquant des véhicules autonomes ou des systèmes avancés d'aide à la conduite, souvent dans la journée suivant l'incident. Il s'agit d'un changement majeur qui signale une position plus stricte des régulateurs sur ces systèmes partiellement automatisés. Tesla se montre également plus prudent sur ce point. Vendredi, Musk a exhorté les bêta-testeurs à être prêts à prendre le volant à tout moment.



Il ne fait aucun doute que Tesla est plus disposé que ses concurrents à tester des versions bêta de sa fonction d'aide à la conduite Autopilot sur ses clients, afin de recueillir des données et de corriger les éventuels défauts du système. Et les clients de Tesla sont pour la plupart d'accord avec cela, inondant régulièrement les mentions de Musk en suppliant d'être admis dans le programme d'accès anticipé de la société pour les bêta-testeurs. Cela a contribué à la réputation publique de Tesla en tant que leader de la conduite autonome, bien que ses véhicules ne soient pas toujours à la hauteur de ce que la plupart des experts considèrent comme une voiture autonome.

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous du FSD v9 Beta ?

Voir aussi

Tesla admet que le "Full Self-Driving Beta" actuel sera toujours le niveau 2 : « Il y a des circonstances et des événements que le système n'est pas capable de reconnaître »

Tesla annonce aux régulateurs que les voitures entièrement autonomes ne seront peut-être pas disponibles d'ici la fin de l'année, en contradiction avec les indications d'Elon Musk

Tesla lance en version bêta le mode Full self-driving, la réaction des conducteurs montre que Tesla semble avoir fait un grand pas vers la conduite "entièrement" autonome

Tesla abandonne le radar et s'en remet aux caméras pour le système Autopilot de certaines voitures,
Les capteurs radar restent pour l'instant sur ses modèles les plus chers


Le PDG de Waymo rejette le plan "self-driving" de Tesla : « Ce n'est pas comme ça que ça marche », la stratégie actuelle de Tesla ne produirait probablement jamais un système entièrement autonome
8  0 
Avatar de Bill Fassinou
Chroniqueur Actualités https://www.developpez.com
Le 13/07/2021 à 9:10
Quels sont les scénarios dans lesquels la nouvelle mise à jour FSD Beta 9 de Tesla échoue ?
certains comportements du système seraient "carrément" dangereux

Tesla a commencé à déployer la dernière mise à jour de son logiciel d'aide à la conduite ce week-end. Appelée FSD Beta 9 (la version 2021.4.18.12), cette mise à jour est censée corriger de nombreux problèmes des versions précédentes de la version bêta du système FSD. Lundi, les premiers propriétaires de Tesla l'ayant essayé ont partagé leurs observations sur Twitter et dans de petites vidéos sur YouTube. Ils notent que, bien que le système soit impressionnant à bien des égards, il est clair qu'il reste encore beaucoup de chemin à parcourir et que certains comportements du FSD Beta 9 sont "carrément" dangereux.

Même si Tesla s'efforce d'améliorer le FSD (Full Self-Driving), qu'il a finalement qualifié de système d'aide à la conduite de niveau 2, une grande majorité de l'industrie dénonce une appellation trompeuse du produit. La mise à jour FSD Beta 9 qui a commencé à être déployée ce week-end est particulièrement importante parce qu'elle marque la première mise à jour du FSD conçue pour s'appuyer uniquement sur les données de la caméra de la voiture. En effet, Tesla a cessé d'installer des émetteurs-récepteurs radar sur les modèles 3 et Y et passe à Tesla Vision, le système semi-automatique entièrement basé sur la caméra.



Parmi les autres changements importants, il y a un nouveau système de visualisation beaucoup plus détaillé. Grâce à ce visualiseur, vous pouvez voir que le système est souvent capable de détecter des types de véhicules spécifiques, par exemple en distinguant les voitures, les SUV, les camionnettes, les personnes sur scooter, à vélo, etc. Dans ces visualisations, vous pouvez également voir que les feux de freinage sont maintenant reconnus, ce qui représente une amélioration importante par rapport aux versions précédentes du système. Toutefois, il semble qu'il n'est pas encore capable d'identifier les clignotants.

Il existe un certain nombre de vidéos montrant le système en train d'effectuer la tâche de conduite (il s'agit toujours d'un système de niveau 2, l'humain assis dans le siège du conducteur doit donc être prêt à prendre le relais à tout moment, ce qui arrive même dans les vidéos où il se comporte très bien) avec beaucoup d'habileté et de précision. Quant aux aspects moins positifs, ils sont sans doute plus importants que les démonstrations de bon fonctionnement, car, lorsqu'une chose ne va pas dans une voiture contrôlée par l'IA, il y a un réel danger, pouvant causer la mort de personnes à l'extérieur et à l'intérieur de la voiture.

Une des vidéos publiées sur la toile lundi montre, par exemple, une Tesla avec le FSD Beta 9 activé qui passe à travers un buisson envahissant sur un terre-plein central, au grand dam du propriétaire. Il s'agit d'une de ces situations que les humains n'auraient aucun mal à détecter et à éviter, mais la Tesla, suivant ses règles strictes de maintien de la voie, n'est absolument pas consciente des branches et les traverse. Cela pourrait être un bon exemple des différences entre le raisonnement ascendant de l'IA (suivre les capteurs et les règles) et le raisonnement descendant de l'homme (je sais ce que sont les branches et je veux les éviter).


Plus inquiétant, dans la même vidéo, le FSD a étrangement échoué à virer à gauche, avant de foncer vers des voitures garées aux abords de la route, car le système n'a pas réussi à redresser le volant. Ces erreurs sont particulièrement troublantes, car l'on ne sait pas vraiment pourquoi le véhicule n'a pas pu exécuter le virage correctement, alors qu'il n'y avait vraiment rien de très différent des autres virages à gauche qu'il a exécutés sans problème. Cala rappelle désagréablement à quel point ce genre de système peut être une boîte noire. Les retours devraient permettre à Tesla d'améliorer les choses.

Un autre fan très sérieux de Tesla a effectué un trajet de nuit en ville à Seattle et si la voiture s'est généralement bien comportée, l'on note toutefois quelques égarements du FSD. D'une manière ou d'une autre, Tesla Vision semble être aveugle aux énormes colonnes de béton qui soutiennent le Monorail de Seattle, une chose qui peut s'avérer très dangereuse dans certaines conditions. Un conducteur qui aurait fait suffisamment confiance à ce système pour ne pas faire attention à la route aurait pu se retrouver en plein dans ces colonnes. La nouvelle visualisation ne montrait pas du tout les colonnes.

Le conducteur s'est demandé si c'est à cause de l'absence du système radar que la voiture ne peut pas percevoir les pylônes du monorail ou une jardinière en bordure de route, mais ce n'est vraiment pas clair du tout. En outre, le FSD ne semble pas non plus comprendre les différences entre les feux de circulation rouges et jaunes clignotants. La voiture traite en effet un signal jaune clignotant comme un panneau d'arrêt. Ce dernier point pourrait certainement poser problème s'il y avait des véhicules derrière la Tesla. Un autre problème relevé par les bêta-testeurs concerne les virages à gauche non protégés.



Une autre vidéo montre une voiture Tesla en train de tenter de tourner à gauche sans protection sur une autoroute à six voies. Il s'agit en fait d'une manœuvre difficile pour un conducteur humain, et c'est donc un véritable défi pour le FSD Beta 9. Et il échoue "lamentablement". Ce n'est que la première fois que la Tesla tente le virage à gauche qu'elle atteint le terre-plein central, et le conducteur humain doit alors terminer le travail. Toutes les autres fois étaient un échec. Ces problèmes ont peut-être échappé à Tesla, car le PDG Elon Musk a déclaré la semaine dernière qu'il pouvait y avoir des problèmes inconnus.

« Soyez paranoïaques », a ajouté Musk, avant d'affirmer que la sécurité est la priorité absolue du constructeur automobile avec ces versions. Tesla ne dispose pas d'un service de relations publiques pour répondre aux demandes de commentaires. Les testeurs ont recensé au moins 11 problèmes en conduisant avec le FSD Beta 9 activé, notamment :

  • la voiture traverse la ville et ne reconnaît pas les jardinières dans la rue et manque de les heurter ;
  • la voiture ne reconnaît pas le monorail au milieu de la rue et se dirige vers lui ;
  • la voiture traverse une voie de bus au lieu de rester sur la voie de droite ;
  • la voiture ne reconnaît pas une rue à sens unique et le panneau de sens unique dans la rue, et elle roule en sens interdit ;
  • la voiture ne peut pas décider de la voie à utiliser pour tourner à droite dans la rue suivante. Il continue à changer de voie ;
  • la voiture décide trop tard de prendre la bonne voie ;
  • la voiture décide d'emprunter une voie, puis se rend compte qu'elle doit emprunter l'autre voie, mais c'est trop tard ;
  • la voiture doit tourner à gauche et décide de changer de voie avant ;
  • la voiture tourne à gauche, mais s'engage sur une voie sur laquelle elle n'est pas censée être ;
  • la voiture doit traverser plusieurs voies pour tourner à gauche et il semble qu'avant de pouvoir traverser toutes les voies, elle doive se rapprocher du carrefour ;
  • la voiture voit un double stop alors qu'il n'y en a qu'un seul.


En regardant ces vidéos, le consensus semble être que les gens aiment beaucoup les nouvelles visualisations, la détection des feux de freinage, et sont impressionnés par le fait qu'il s'agit uniquement d'une caméra, mais dans l'ensemble les améliorations du comportement de conduite ne semblent pas vraiment notables. « Encore une fois, ce qui a été réalisé est impressionnant, sans aucun doute ; c'est une merveille technologique », a écrit un critique. Il est également loin d'être un système complet de niveau 5, capable d'aller partout sans surveillance, ou même un système d'aide à la conduite de niveau 4.



La voiture a en effet absolument besoin d'un humain pour la surveiller, en permanence. Il n'y a aucun moyen sûr de se mettre à l'abri si le FSD se retrouve dans une situation qu'il ne peut pas gérer, et en tant que tel, il aura toujours besoin d'un humain vigilant prêt à prendre le contrôle à tout moment. « Je continue à penser qu'il s'agit d'un modèle intrinsèquement défectueux et potentiellement dangereux. Ensuite, il y a toujours le choix très discutable de tester un logiciel bêta contrôlant une voiture de 4 000 livres dans des rues publiques remplies de personnes qui n'ont jamais accepté de participer à un test bêta d'une voiture robot », a écrit un critique.

« Personne ne verra un robotaxis Tesla de niveau 5 d'ici la fin de l'année et, bien qu'il y ait certainement des progrès, les défaillances significatives que le système a déjà démontrées dans les mains de testeurs enthousiastes dans le peu de temps où il a été disponible devraient s'avérer être un appel à la réalité de l'état du FSD », a-t-il ajouté.

Source : Fil de discussion Twitter

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des problèmes du FSD Beta 9 détectés par les testeurs ?
Pensez-vous que ces problèmes sont dangereux ou qu'ils sont peu alarmants ?

Voir aussi

Tesla commence enfin à déployer la version bêta 9 du Full Self-Driving après un long retard, elle apporte la surveillance du conducteur et améliore la visualisation de la route

Tesla admet que le "Full Self-Driving Beta" actuel sera toujours le niveau 2, « Il y a des circonstances et des événements que le système n'est pas capable de reconnaître »

Tesla annonce aux régulateurs que les voitures entièrement autonomes ne seront peut-être pas disponibles d'ici la fin de l'année, en contradiction avec les indications d'Elon Musk

Tesla abandonne le radar et s'en remet aux caméras pour le système Autopilot de certaines voitures, les capteurs radar restent pour l'instant sur ses modèles les plus chers
8  0 
Avatar de Stéphane le calme
Chroniqueur Actualités https://www.developpez.com
Le 24/11/2021 à 23:40
Tesla : un testeur note que son mode Full Self-Driving est dangereux,
mais Elon Musk l'accuse d'avoir rédigé son billet avant même d'avoir vécu l'expérience

Le journaliste de CNN, Matt McFarland, a essayé le logiciel Full Self-Driving (FSD) de Tesla à New York et l'expérience était loin d'être agréable. « Le logiciel a failli pousser la voiture à s'écraser sur un chantier de construction, à essayer de foncer sur un camion à l'arrêt et tenter de conduire du mauvais côté de la route. », a écrit McFarland. « Les conducteurs en colère ont klaxonné alors que le système hésitait, parfois en plein milieu d'une intersection ». Le PDG de Tesla, Elon Musk, a longtemps affirmé que le logiciel de conduite autonome du constructeur de voitures électriques deviendrait bientôt la norme de l'industrie. Mais, deux ans après son lancement initial, le logiciel nécessite toujours un conducteur avec son permis au volant et est loin d'être totalement autonome.

Tesla a proposé son FSD en tant qu'option sur ses véhicules, les clients payant jusqu'à 10 000 dollars pour avoir la possibilité d'accéder au logiciel dès sa sortie. Mais des années se sont écoulées depuis l'introduction de cette option, et ce n'est que récemment qu'un groupe restreint de propriétaires a pu accéder à une version bêta de la fonction.

Si l'expression Full Self-Driving, littéralement « conduite autonome intégrale », laisse peu d'ambiguïté quant à ses aspirations, la technologie accomplit bien moins que ce que les mots impliquent. La FSD serait en fait une version sophistiquée de l'assistance au conducteur de niveau 2, telle que définie par SAE International, arbitre de nombreuses normes automobiles mondiales.

En octobre, le PDG de Tesla, a annoncé le report de la mise à jour 10.3 après que le service assurance qualité Tesla a découvert que la nouvelle version était moins performante que les versions précédentes pour les virages à gauche aux feux de signalisation. Le lendemain, Musk a déclaré que Tesla allait « revenir temporairement à la version 10.2 » après avoir reçu des rapports faisant état de freinages soudains, de faux avertissements et d'autres problèmes.

Et pour ne rien arranger, un journaliste de CNN a décrit son expérience désagréable avec le logiciel.

Dans son article, McFarland a déclaré que le logiciel ressemble davantage à un « tour » pour épater ses amis plutôt qu'à une fonctionnalité qu'il faudrait impérativement avoir.

McFarland a posté une vidéo de la conduite qu'il a prise depuis la banquette arrière de la voiture, tandis qu'un autre conducteur était assis sur le siège avant, prêt à prendre le contrôle total en cas de besoin. Le journaliste a décidé d'emmener le véhicule faire un tour sur Flatbush Avenue à Brooklyn, une route urbaine encombrée qui peut être difficile même pour les conducteurs les plus expérimentés.

La vidéo montrait des extraits du trajet, se concentrant principalement sur les moments où le Model 3 hésitait ou tentait de s'engouffrer dans le trafic. Le conducteur a déclaré qu'il devait prendre le contrôle du logiciel autonome environ tous les trois blocs. Cependant, il a noté qu'il aurait peut-être pris le contrôle plus que quelqu'un qui était habitué au logiciel.

McFarland a déclaré que le véhicule effectuait souvent des virages saccadés et freinait ou accélérait à des moments inattendus du trajet. Trois choses qui peuvent être risquées en milieu urbain, mais des problèmes qui ont été fortement signalés par les utilisateurs bêta sur YouTube.


L'expérience de McFarland

Voici une partie de son expérience :

« Lorsqu'une douzaine de petits enfants sont passés devant notre Tesla en mode "Full Self-Driving", j'avais de bonnes raisons d'être nerveux.

J'avais passé ma matinée sur la banquette arrière du Model 3 à utiliser le mode "Full Self-Driving", le système qui, selon Tesla, changera le monde en permettant de disposer de véhicules autonomes sûrs et fiables. Le logiciel a failli pousser la voiture à s'écraser sur un chantier de construction, a essayé de foncer sur un camion à l'arrêt et tenter de conduire du mauvais côté de la route. Les conducteurs en colère klaxonnaient alors que le système hésitait, parfois en plein milieu d'une intersection. (Nous avions un conducteur humain attentif au volant pendant tous nos tests, pour prendre le contrôle total en cas de besoin.)

Le "Full Self-Driving" du Model 3 a nécessité de nombreuses interventions humaines pour nous protéger ainsi que tous les autres sur la route. Parfois, cela signifiait appuyer sur le frein pour désactiver le logiciel, afin qu'il n'essaie pas de contourner une voiture devant nous. D'autres fois, nous avons rapidement secoué le volant pour éviter un accident. (Tesla dit aux conducteurs de porter une attention constante à la route et d'être prêts à agir immédiatement.)

J'espérais que la voiture ne ferait plus d'erreurs stupides. Après ce qui a semblé être une éternité, les enfants ont fini de traverser. J'ai expiré.
Nous pouvions enfin progresser sans encombre. La voiture a semblé trop hésitante au début, mais j'ai ensuite remarqué un cycliste venant de notre gauche. Nous avons attendu.

Une fois que le cycliste a traversé l'intersection, la voiture s'est arrêtée et a fait un virage en douceur.

Au cours de l'année écoulée, j'ai regardé plus d'une centaine de vidéos de propriétaires de Tesla utilisant la technologie "Full Self-Driving", et j'ai parlé à beaucoup d'entre eux de leurs expériences.

Le mode "Full Self-Driving" est une fonction d'aide à la conduite de 10 000 $ proposée par Tesla. Alors que toutes les nouvelles Tesla sont capables d'utiliser le logiciel de "Full Self-Driving", les acheteurs doivent opter pour l'ajout coûteux s'ils souhaitent accéder à la fonctionnalité. Le logiciel est toujours en version bêta et n'est actuellement disponible que pour un groupe restreint de propriétaires de Tesla, bien que le PDG Elon Musk ait affirmé qu'un déploiement plus large est imminent. Musk promet que ce mode sera totalement capable d'amener une voiture à sa destination dans un proche avenir.

Mais ce n'est pas le cas, loin de là.

Les propriétaires de Tesla ont décrit la technologie comme impressionnante, mais aussi imparfaite. Un instant, il roule parfaitement, l'instant suivant, il manque de percuter quelqu'un ou quelque chose.

Jason Tallman, un propriétaire de Tesla qui documente ses voyages en FSD sur YouTube, m'a proposé de me le faire vivre.
Nous avons demandé à Jason de nous rencontrer sur Flatbush Avenue à Brooklyn. C'est une artère urbaine qui achemine des milliers de voitures, camions, cyclistes et piétons vers Manhattan. Même pour les conducteurs humains expérimentés, cela peut être un défi(...)

FSD fait parfois des virages saccadés. La roue commence à tourner, puis revient en arrière, avant de tourner à nouveau dans la direction prévue. Il y a aussi le freinage, qui peut sembler aléatoire. À un moment donné, une voiture s'est rapprochée de l'arrière et nous a stoppés suite à un freinage qui m'a surpris. Se faire klaxonner était courant. Je n'ai jamais vraiment eu l'impression de savoir ce que FSD ferait ensuite. Demander à un mode FSD de naviguer à Brooklyn, c'était comme demander à un élève conducteur de passer un examen routier pour lequel il n'était pas encore prêt.

Ce que FSD pouvait bien faire était impressionnant, mais l'expérience a finalement été déroutante. Je ne peux pas imaginer utiliser régulièrement ce mode dans une ville. J'ai remarqué que j'étais réticent à regarder le tableau de bord de la Model 3, par exemple pour vérifier notre vitesse, car je ne voulais pas quitter la route des yeux ».

La réaction d'Elon Musk

Musk a commenté l'article sur Twitter.

« Je soupçonne que cet article a été écrit avant même que l'expérience n'ait eu lieu », a-t-il déclaré.


Source : CNN, Elon Musk
8  0 
Avatar de Bruno
Chroniqueur Actualités https://www.developpez.com
Le 26/04/2021 à 12:49
Un conseiller en réglementation de Tesla aurait déclaré que le système « Full Self-Driving » resterait manuel,
après que Tesla a admis que sa technologie de conduite autonome est un système de niveau 2

Tesla, la société américaine de véhicules électriques et d'énergie propre basée à Palo Alto, en Californie aurait confirmé en privé que la fonctionnalité de sa technologie Full Self-Driving (FSD) est loin d'être aussi autonome que son nom le suggère. Les documents envoyés aux autorités californiennes en 2019 et en 2020 décrivent l'option payante comme une fonctionnalité de niveau 2, ce qui signifie que la conduite autonome intégrale n'est certainement pas totalement autonome.

« Les fonctionnalités qui composent la partie automatique sont le régulateur de vitesse en fonction du trafic et l'orientation automatique. La capacité de conduite autonome complète (FSD) est une suite de fonctionnalités optionnelle qui s'appuie sur Autopilot et qui est également représentative du niveau 2 de la Society of Automotive Engineers (SAE) », aurait indiqué Eric Williams, avocat associé de la société pour les questions réglementaires, dans un courriel envoyé à un destinataire du California Department of Motor Vehicles (DMV) le 28 décembre 2020.


La version bêta de la FSD, officiellement appelée Autosteer on City Streets, fait partie de la suite de fonctionnalités du système avancé d'aide à la conduite (ADAS). "Full Self-Driving" et non d'un composant autonome permettant de conduire les mains libres comme certains pourraient le penser. Cette connotation a exacerbé la confusion suscitée par l’expression "Full Self-Driving" et a provoqué l'envoi d'un courriel par le California DMV. Ce courriel demandait à Tesla de fournir immédiatement des éclaircissements sur la fonctionnalité FSD Beta afin de s'assurer que le constructeur automobile n'effectuait pas de tests sur les routes californiennes sans le permis approprié pour déployer une telle fonctionnalité.

En mars de cette année, des vidéos du système en action ont révélé qu’il est potentiellement dangereux de se reposer sur le programme bêta « Full Self Driving » d'Autopilot. En septembre, lors de l'assemblée annuelle des actionnaires de Tesla Motors et de l'événement Battery Day 2020, le PDG Elon Musk a annoncé que le constructeur d'automobiles électriques s'apprêtait à publier une version bêta privée de la « version entièrement autonome » de son logiciel d'aide à la conduite Autopilot dans les mois à venir.

« C'est un peu difficile pour les gens de juger des progrès d'Autopilot », a déclaré Musk à une foule d'actionnaires présents à l'événement, chacun respectant les mesures barrières en restant dans sa propre Tesla. « Je conduis une version alpha de pointe d'Autopilot, donc j'ai en quelque sorte un aperçu de ce qui se passe ». Musk a poursuivi en expliquant comment les ingénieurs de Tesla ont récemment dû réviser des parties majeures du pilote automatique, y compris en repensant la façon dont le système voit le monde.

« Nous avons dû effectuer une réécriture fondamentale de l'ensemble de la pile logicielle Autopilot… Nous étiquetons maintenant la vidéo 3D, ce qui est très différent de notre procédé précédent qui consistait à étiqueter des images 2D uniques », a expliqué Musk, faisant référence à la façon dont le logiciel Autopilot comprend des objets du monde réel qu'il voit avec ses huit caméras et comment il doit réagir. Cependant, Tesla a précisé que ce Full Self Driving ne correspond en réalité qu'à la définition SAE de l'autonomie partielle de niveau 2.

Le 17 avril, les autorités texanes ont déclaré que deux personnes ont trouvé la mort dans un accident de la route impliquant une voiture Tesla, dans la ville de Spring. La voiture s'est écrasée contre un arbre et s'est enflammée. Les pompiers auraient mis près de quatre heures pour éteindre le feu. La maîtrise de l'incendie a pris tout ce temps en raison des batteries (des batteries lithium-ion) de la voiture qui ne cessaient de raviver les flammes. L'autonomie de niveau 2 est définie par la Society of Automotive Engineers (SAE) comme un système offrant une automatisation partielle de la conduite. Il est essentiel que le conducteur reste derrière le volant et soit conscient à tout moment. Cependant, Bien qu'il y avait deux personnes à bord de la voiture impliquée dans l’accident mortel de Tesla, il semblerait qu'aucune d'entre elles n'était au volant lorsque le choc a eu lieu.

Au moins 23 accidents liés à l'Autopilot font l'objet d'une enquête de la National Highway Traffic Safety Administration (NHTSA). Cependant, il semble s'agir du premier accident mortel où il n'y avait pas un chauffeur sur le siège du conducteur. Tesla a déjà prévenu ses clients que l'Autopilot n'est pas un système de conduite autonome et qu'il nécessite toujours une attention constante à la route lorsqu'il est utilisé. Les voitures Tesla ne vérifient cette attention qu'à l'aide d'un capteur qui vérifie si le conducteur serre le volant avec ses mains, ce qui laisse une marge de manœuvre pour une utilisation abusive.

À la lecture des documents envoyés aux autorités californiennes en 2019 et en 2020, il se dégage que la version bêta actuelle de la FSD est limitée et ne saurait être assimilée à une quelconque forme de conduite sans intervention, comme de nombreuses personnes l'avaient pensé étant donné le nom. Ce seul fait a suscité une grande confusion chez les propriétaires actuels et potentiels des véhicules Tesla. La confusion s'est encore accrue lorsque Elon Musk le CEO de Tesla a dans un Tweet évoqué l’idée de « conduire de manière autonome tout en jouant » à des jeux vidéo.


Selon l'agent Mark Herman du district 4 du comté de Harris, personne ne conduisait la voiture Tesla lorsque l'accident annoncé le samedi 17 avril s'est produit. Étaient-ils en train de jouer aux jeux vidéo ? Personne ne saurait pour l’instant répondre à cette question. Toutefois, l'agent Mark Herman a déclaré aux médias qu'une personne a été retrouvée sur le siège du passager avant et une autre sur le siège arrière. Herman a déclaré que les autorités pensent que personne d'autre n'était dans la voiture et qu'elle s'est enflammée immédiatement. Il a ensuite ajouté qu'il pense que la voiture n'était pas conduite par une personne.

Et vous ?

Quel est votre avis sur le sujet ?

Seriez vous prêt pour une acquisition de voiture autonome ?

Quels commentaires faites-vous du récent accident de la voiture Tesla ?

Voir aussi :

Tesla et son PDG Elon Musk sanctionnés par les autorités fédérales pour leurs actions antisyndicales "illégales" à l'usine de Fremont, Musk est sommé de supprimer un tweet menaçant

La mise à jour du logiciel du pilote automatique « Full Self Driving » de Tesla est potentiellement dangereuse et dirige le véhicule par moment de façon extrêmement risquée

Le levier de vitesse à écran tactile de Tesla est-il une très mauvaise idée ? La NHTSA déclare que cela répond aux normes de conformité et ne viole pas les règles

Deux personnes sont tuées dans un accident d'une voiture Tesla sans personne au volant, l'Autopilot serait activé et les batteries de la voiture ne cessaient de raviver les flammes
6  0 
Avatar de Bruno
Chroniqueur Actualités https://www.developpez.com
Le 28/10/2021 à 12:58
Tesla retire la MAJ de son logiciel Full Self-Driving,
après un freinage soudain qui a effrayé les conducteurs

Elon Musk et Tesla continuent de donner raison aux critiques qui les accusent de faire du battage médiatique quant aux capacités réelles du Full Self-Driving (FSD). Samedi matin, le PDG de Tesla, a annoncé le report de la mise à jour 10.3 après que le service assurance qualité Tesla a découvert que la nouvelle version était moins performante que les versions précédentes pour les virages à gauche aux feux de signalisation. Puis, dimanche après-midi, Musk a déclaré que Tesla allait « revenir temporairement à la version 10.2 » après avoir reçu des rapports faisant état de freinages soudains, de faux avertissements et d'autres problèmes.

« L'Autopilot est un système avancé d'aide à la conduite qui améliore la sécurité et la commodité au volant. Lorsqu'il est utilisé correctement, l'Autopilot réduit la charge de travail globale en tant que conducteur. Chaque nouveau véhicule Tesla est équipé de 8 caméras externes, de 12 capteurs à ultrasons et d'un ordinateur de bord qui offrent une couche de sécurité supplémentaire pour aider le conducteur dans ses déplacements », indique Tesla.

Tesla a proposé son FSD en tant qu'option sur ses véhicules, les clients payant jusqu'à 10 000 dollars pour avoir la possibilité d'accéder au logiciel dès sa sortie. Mais des années se sont écoulées depuis l'introduction de cette option, et ce n'est que récemment qu'un groupe restreint de propriétaires a pu accéder à une version bêta de la fonction.

Si l'expression Full Self-Driving entendez, « conduite autonome intégrale » laisse peu d'ambiguïté quant à ses aspirations, la technologie accomplit bien moins que ce que les mots impliquent. La FSD serait en fait une version sophistiquée de l'assistance au conducteur de niveau 2, telle que définie par SAE International, arbitre de nombreuses normes automobiles mondiales.


Plusieurs propriétaires ont signalé que leur véhicule avait freiné brusquement lorsque le logiciel FSD de Tesla avait signalé par erreur une collision imminente. Lorsqu'ils fonctionnent correctement, l'alerte de collision avant et le freinage automatique d'urgence fonctionnent de concert pour éviter qu'un véhicule ne percute des objets sur sa trajectoire. Une combinaison de capteurs et de logiciels alerte d'abord les conducteurs d'une collision imminente et, si aucune action n'est entreprise, applique avec force les freins. Les voitures qui reçoivent des alertes fantômes entraînant un freinage d'urgence risquent d'être embouties si elles s'arrêtent rapidement dans un trafic dense ou si elles roulent à grande vitesse. « L'activation du freinage automatique d'urgence au milieu de l'autoroute était terrifiante », a rapporté un conducteur de Tesla.

Si les faux événements de freinage automatique d'urgence et les fausses alertes de collision avant semblent être les problèmes les plus répandus, d'autres conducteurs ont signalé de fausses alertes de sortie de voie et une désactivation des alertes de collision avant et du freinage automatique d'urgence sans avertissement.

Tesla devrait répondre à deux recommandations de sécurité formulées par l’office national de la sécurité des transports il y a plus de quatre ans. L'agence a formulé ces recommandations après avoir enquêté sur l'accident qui a tué Joshua Brown, dont la Model S a heurté de plein fouet une semi-remorque qui se trouvait sur son chemin. L'agence a déterminé que Brown avait utilisé la conduite autonome pendant de longues périodes sans avoir les mains sur le volant et qu'il avait utilisé la fonction sur des routes pour lesquelles elle n'avait pas été conçue. L’office national de la sécurité des transports a demandé à Tesla de limiter le moment et l'endroit où l'Autopilot peut être utilisé et de mettre en place un contrôle plus strict de l'attention du conducteur.

« Nos enquêtes sur les accidents impliquant les véhicules de votre entreprise ont clairement montré que le potentiel d'utilisation abusive nécessite une modification de la conception du système pour assurer la sécurité, a écrit la présidente de l’office national de la sécurité des transports, Jennifer Homendy. Si vous voulez sérieusement mettre la sécurité au premier plan dans la conception des véhicules Tesla, je vous invite à terminer la mise en œuvre des recommandations de sécurité que nous vous avons émises il y a quatre ans. »


L'Autopilot est un système avancé d'aide à la conduite de niveau 2, ce qui signifie que les conducteurs doivent surveiller le véhicule à tout moment. Actuellement, la plupart des constructeurs automobiles, y compris Tesla, testent l'engagement du conducteur en vérifiant périodiquement si un couple est appliqué au volant. D'autres systèmes, comme le SuperCruise de GM et le BlueCruise de Ford, utilisent le suivi des yeux. Cependant, aucun système n'est infaillible.

S'il est une technologie qui suscite beaucoup d'optimisme, c'est bien le logiciel Full Self-Driving de Tesla. Cependant, pour certains analystes, il n'y aurait pas de voitures à « conduite autonome intégrale » en vente aujourd'hui, malgré ce que promet Elon Musk.

Source : Elon Musk

Et vous ?

Quel est votre avis sur la conduite autonome et sur l'Autopilote de Tesla en particulier ?

Que pensez-vous du logiciel Full Self-Driving de Tesla ?

« Pour certains analystes, il n'y aurait pas de voitures à ''conduite autonome intégrale'' en vente aujourd'hui, malgré ce que promet Elon Musk », êtes-vous pour ou contre cet avis ?

Voir aussi :

Les actions Tesla chutent après que son système d'autopilote a été impliqué dans un accident, et l'annonce des batteries de ses véhicules prenant feu

Elon Musk lance la dernière version bêta du Full Self-Driving de Tesla et déclare qu'elle n'est "pas géniale", alors que l'entreprise avait promis d'atteindre une autonomie de niveau 5 cette année

Le pack "Full Self-Driving" de Tesla, d'une valeur de 10 000 dollars, est enfin disponible par abonnement, pour 199 dollars par mois

Le PDG de Waymo rejette le plan "self-driving" de Tesla : « Ce n'est pas comme ça que ça marche », la stratégie actuelle de Tesla ne produirait probablement jamais un système entièrement autonome
6  0 
Avatar de totozor
Membre habitué https://www.developpez.com
Le 26/11/2021 à 12:47
Citation Envoyé par rbolan Voir le message
La meilleure manière de démontrer l’efficacité ou la dangerosité du "Full-Self Driving" de Tesla, c'est de réaliser une étude indépendante pertinente à partir d'un échantillon représentatif qui produira des résultats analysable à partir desquels une discussion pourra être faite.
Pas besoin d'étude, FSD tente - parfois - de conduire du mauvais coté de la route, se dirige - parfois - vers un chantier alors qu'il ne semble pas y avoir de raison particulière.

Je fais du vélo en ville de façon pas toujours très sûre mais, à la surprise de mes amis, j'ai assez peu d'accidents.
Ils pensent que je devrais être pour les voitures intelligentes ou autonomes mais ce n'est clairement pas le cas.
Pourquoi?
Les chauffeurs ont un regard qui me montre une infinités d'informations qui définissent la façon dont je vais réagir:
Est ce qu'il m'a vu?
Va-t-il prendre l'initiative ou attend il que j'exprime mon intention?
Veut il changer de voie? Cherche-t-il une place pour se garer?
A-t-il l'intention de me laisser passer?
A-t-il l'intention de ne surtout pas me laisser passer?
Et je peux retourner les même information:
Je veux passer devant toi, laisses moi la priorité (qui m'est souvent dues)
Avance s'il te plait, je passerais derrière toi
Ne me double pas maintenant
Tu peux me doubler
etc

Avec une voiture autonome (Tesla ou autre) aucune de cette communication n'existe alors je lui prie au moins de respecter le code de la route.
7  1 
Avatar de Bill Fassinou
Chroniqueur Actualités https://www.developpez.com
Le 02/11/2020 à 11:23
Tesla lance en version bêta le mode Full self-driving,
la réaction des conducteurs montre que Tesla semble avoir fait un grand pas vers la conduite "entièrement" autonome

La conduite “entièrement” autonome sera sans doute le plus grand défi de cette décennie de l’industrie automobile. De nombreux constructeurs sont engagés, dont de grands noms comme Tesla, Nissan, General Motors, etc. Tesla vient de publier une version bêta du “Full self-driving”, la fonction permettant à ses voitures de proposer un mode de conduite entièrement autonome, pour un nombre limité de clients. La bêta permettrait aux véhicules Tesla de circuler de manière autonome dans la grande majorité des situations routières courantes et d'effectuer de nombreux trajets du début à la fin.

Plusieurs vidéos YouTube montrent des résultats de tests réalisés afin de mettre en évidence les capacités du mode Full self-driving (FSD) de Tesla. Avant tout, l’entreprise a annoncé qu’il ne s’agit que d’une version bêta et qu’il n’est pas encore destiné à un fonctionnement totalement autonome. Ainsi, les conducteurs sont censés garder les yeux sur la route et les mains sur le volant à tout moment. Dans les vidéos, l’on peut remarquer combien il est important de surveiller le logiciel, car le FSD commet souvent des erreurs graves et s'engage parfois dans des manœuvres pouvant entraîner une collision avec d’autres voitures.


Selon les critiques, d’une part, il est impressionnant de voir que Tesla est allé aussi loin qu'il l'a fait. D'autre part, il est clair que le logiciel a encore un long chemin à parcourir avant de se rapprocher des niveaux humains de performance de conduite. En effet, un conducteur humain expérimenté peut conduire pendant des milliers de kilomètres sans commettre d'erreur grave, le nouveau logiciel de Tesla est loin d'atteindre ce niveau. Dans une vidéo publiée vendredi par exemple, on peut voir une voiture Tesla, avec le FSD activé, foncer droit vers une autre voiture pour créer une collision.


« Cette voiture allait si vite », a déclaré Brandon, l’auteur de la vidéo. « J'ai dû débrayer sur place parce qu'il [FSD, ndlr] n'a pas détecté cette voiture pour une raison quelconque ». Dans la vidéo, la Tesla de Brandon tournait à gauche, mais n'était pas assez précise pour éviter de heurter une voiture garée de l'autre côté de la rue transversale. « Oh Jeeeesus », dit Brandon en saisissant le volant pour le tourner vers la gauche. « C'était un bon exemple de ce qui est encore bêta et de l'importance d'avoir le contrôle à tout moment », conclut-il. « Il s'est juste dirigé directement vers l'arrière de cette voiture garée, et il n'allait pas freiner ».


Les critiques ajoutent tout de même que pour être juste envers Tesla, il est difficile d’affirmer si l'une ou l'autre de ces erreurs aurait forcément conduit à un accident. Le logiciel aurait-il réalisé son erreur et freiné à la dernière seconde ? Si oui, s’agit-il vraiment là d’une bonne expérience de conduite ? Autant d’interrogations sans réponse. En outre, malgré ses petits incidents, Brandon s’est dit content des améliorations apportées au FSD par le constructeur. Selon lui, « les améliorations par rapport aux deux versions précédentes du logiciel sont incroyables ».


Les autres pilotes de Tesla ayant partagé une vidéo de leurs essais ont eu une expérience semblable à celle de Brandon, c’est-à-dire mitigée. Ils ont été impressionnés par la rapidité avec laquelle le FSD s'est amélioré, mais chacun est intervenu plusieurs fois lorsque le comportement du logiciel les a rendus nerveux. « C'est fou, c'est effrayant, et c'est vraiment bon », a déclaré Zeb Hallock, propriétaire de Tesla, dans une vidéo publiée dimanche. Hallock venait de prendre les commandes alors que sa voiture dépassait un cycliste à un endroit où la route était en virage.


Alors que la voiture s'est déplacée pour laisser la place au cycliste, Hallock a déclaré que « la route était sinueuse, et c'était un virage, et je n'étais pas sûr. Même si c'était complètement sûr, ça pourrait effrayer quelqu'un avec tout ce zigzag ». Dans une vidéo, Electrek a déclaré que l’accélération du nouveau FSD est nettement améliorée par rapport à la précédente version. Le média estime également que « la transition est incroyablement douce » et que le changement de voie du FSD semble maintenant plutôt bon. Cela dit, il note certaines choses sur lesquelles le constructeur devra encore travailler.

En premier, Electrek estime que le nouveau FSD oublie parfois de mettre le clignotant avant de tourner. Ensuite, il a également observé que le FSD se déplace un peu trop agressivement vers un dos-d’âne.

Tesla face à la concurrence grandissante dans le secteur

Une analyse de Customer Reports le mois dernier a révélé que Tesla est désormais talonné par de sérieux concurrents. Plus encore, l’Autopilot de la société serait inférieur à la fonction d’aide à la conduite de Cadillac, le Super Cruise. Ainsi, dans son classement de 2020 des systèmes d’aide à la conduite, CR a accordé 69 points au Super Cruise, le plaçant à la première place, contre 57 points pour l’Autopilot qui est deuxième du classement. D’autres constructeurs suivent Tesla de près dans ce classement, mais ils ne proposent pas encore une fonction de conduite entièrement autonome.

Sur ce point, Tesla est directement concurrencé par Waymo, une division du groupe Alphabet. Depuis 2017, Waymo exploite un service de taxis autoguidés dans la banlieue de Chandler à Phoenix, avec des chauffeurs de sécurité au volant de presque tous les véhicules. Au début de ce mois, après plus de trois ans de tests, Waymo a enfin commencé à proposer des courses de taxi sans chauffeur au grand public. Mais ce fut le lancement le plus prudent que l'on puisse imaginer. Le service est limité à un coin de 50 miles carrés de la zone métropolitaine de Phoenix.

La société propose initialement moins de 100 courses sans chauffeur par semaine, et les courses sont étroitement surveillées par le personnel du centre d'opérations de Waymo à Chandler, en Arizona. Il y a aussi General Motors avec Cruise. GM tend à adopter une approche similaire à celle de Waymo et prévoit de lancer un service de taxis à faible vitesse dans un seul quartier de San Francisco avant la fin de cette année. Ce modèle économique est différent de celui de Tesla. Ce dernier vend des voitures au lieu de gérer un service de taxis.

Tesla s’est basé sur une stratégie d'essai radicalement différente. Au lieu d'essayer de passer directement à un service entièrement autonome, la société a commencé par un système de maintien de la trajectoire de base et a progressivement ajouté des capacités au cours des quatre dernières années. Cette stratégie a abouti la semaine dernière à la mise en service d'un service de conduite entièrement autonome qui permet aux voitures Tesla d'effectuer la plupart des trajets de bout en bout. Mais, même si Tesla insiste sur le fait de rester concentré sur la route, certains conducteurs pourraient facilement faire confiance au FSD et cesser de prêter attention à la route.

Cette situation pourrait entraîner des accidents de la route, comme c’est déjà le cas avec l’Autopilot. Beaucoup de conducteurs voient déjà le système d’aide à la conduite de Tesla comme une fonction de conduite entièrement autonome et se permettent de regarder des vidéos au volant, créant ainsi des accidents. Certains rapports estiment que le nom de la fonctionnalité, l'Autopilot, induit les conducteurs en erreur, il serait ambigu et n’exprimerait pas très clairement le rôle de la fonctionnalité. Alors, à quoi doit-on s’attendre avec le FSD qui a un nom plus osé ?

La nouvelle version du FSD coûte maintenant 10 000 dollars, soit 2000 de plus qu’auparavant. L'augmentation des prix ne concerne actuellement que les États-Unis. Notons que le prix de l'option FSD a augmenté régulièrement au cours des deux dernières années. Il est passé de 5000 à 6000 dollars en mai de l'année dernière, à 7000 dollars en novembre, puis à 8000 dollars en juin. Mais ces hausses de prix ne représentent qu'une infime partie du prix que Musk pense que les propriétaires de Tesla finiront par payer pour cette technologie, qui pourrait, selon lui, dépasser les 100 000 dollars.

Source : Vidéos

Et vous ?

Qu'en pensez-vous ?

Voir aussi

Consumer Reports : le Super Cruise de Cadillac surpasse l'Autopilot de Tesla, des concurrents se rapprochent davantage des performances de l'Autopilot

Waymo ouvre son service de voiture entièrement sans conducteur au grand public dans la région de Phoenix en Arizona dans un rayon d'environ 129 kilomètres carrés

Waymo lance son premier service commercial de voiture sans conducteur le mois prochain, marquant un grand pas en avant pour les voitures autonomes

Ford, General Motors et Toyota vont former un consortium axé sur la sécurité des véhicules autonomes afin de dissiper les inquiétudes du Congrès US
5  0