
Après des années de promesses ambitieuses, Tesla a finalement déployé une flotte limitée de Model Y équipés de sa technologie de conduite autonome intégrale (FSD) à Austin. Ce programme pilote, payant et accessible sur invitation, vise à tester la capacité des véhicules à naviguer de manière autonome dans un environnement urbain. Elon Musk, PDG de Tesla, a salué ce déploiement comme une « culmination de dix ans de travail acharné », soulignant le développement interne des équipes logicielles et de conception de puces.
L’événement a été présenté comme une démonstration éclatante des capacités de l’intelligence artificielle embarquée dans les voitures Tesla. Les robotaxis, déployés dans certaines zones d’Austin, circulent sans chauffeur humain, entièrement pilotés par le système Full Self-Driving (FSD). La promesse est alléchante : réduire les accidents, fluidifier le trafic et révolutionner la mobilité urbaine.
Une révolution qui tourne court dès les premiers tours de roue
L’expérimentation des robotaxis Tesla ne devait concerner qu’un nombre réduit de véhicules, sur un périmètre contrôlé. Pourtant, ces conditions supposément sécurisées n’ont pas empêché une cascade de dysfonctionnements :
- Le passager appuie sur « pull over », le robotaxi s'arrête au milieu d'une intersection, le passager descend pendant que le Robotaxi bloque l'intersection pendant quelques instants.
Rendez-vous à 37:57 - Le passager appuie sur « pull over » et la voiture s'arrête au milieu de la route. Le moniteur de sécurité doit appeler le service d'assistance aux passagers pour faire repartir la voiture.
Rendez-vous à 9:07 - Conduite à contresens dans une rue à sens unique : plusieurs vidéos virales montrent un robotaxi Tesla s'engager à contresens dans une rue texane, mettant en danger les autres usagers.
- Franchissement illégal de lignes continues et confusion dans les carrefours : d’autres incidents rapportent des trajectoires erratiques à l’approche d’intersections, parfois avec franchissement de la ligne jaune et positionnement dans la mauvaise voie.
- Excès de vitesse dans des zones limitées : des utilisateurs ont filmé des robotaxis roulant bien au-dessus de la limite autorisée, ce qui pose la question du calibrage des algorithmes en contexte urbain réel.
- Freinages fantômes : hérités du mode Full Self-Driving classique, le véhicule s'arrête soudainement sans raison apparente. Le système de perception de Tesla, basé uniquement sur une caméra, a longtemps eu des problèmes avec le freinage fantôme, semblant mal interpréter les ombres, le marquage de la route ou d'autres facteurs environnementaux, ce qui déclenche le freinage d'urgence automatique du véhicule sans obstacle visible, ce qui pourrait provoquer des collisions en chaîne.
Ici par exemple, le robotaxi coupe la route à une autre voiture et freine pour éviter l'ombre d'un arbre.
Rendez-vous à 19:32
Ici, le robotaxi freine inopinément, faisant tomber le téléphone du passager
Rendez-vous à 10:19
Ici, le robotaxi freine inopinément, peut-être à cause de la présence de la police à proximité.
Enquête fédérale et doute institutionnel
La multiplication des vidéos amateurs documentant ces incidents n’a pas tardé à attirer l’attention des autorités. La NHTSA (National Highway Traffic Safety Administration) a ouvert une enquête officielle. En parallèle, des voix s’élèvent au Texas pour demander un moratoire sur le déploiement de ces véhicules, en attendant que leur fiabilité soit démontrée.
Le 17 octobre 2024, la National Highway Traffic Safety Administration (NHTSA) a ouvert une nouvelle enquête de sécurité concernant les systèmes de "Full Self-Driving" (FSD) de Tesla impliquant 2,4 millions de véhicules. Cette enquête fait suite à quatre accidents impliquant des véhicules Tesla utilisant le système FSD dans des conditions de visibilité réduite, telles que le brouillard, la lumière du soleil et la poussière en suspension. L'un de ces accidents a conduit à la mort d'un piéton en 2023. Les enquêteurs de la NHTSA vont examiner la capacité du système FSD à détecter et à réagir de manière appropriée à ces conditions de visibilité réduite. Ils chercheront également à comprendre les circonstances contribuant à ces accidents.
L'enquête vise à déterminer la capacité de la FSD à « détecter les conditions de visibilité réduite sur la route et à y répondre de manière appropriée ». Contrairement à presque tous les autres systèmes déployés sur la route, Tesla choisit de s'appuyer uniquement sur des caméras et ne dispose pas d'une configuration stéréoscopique, mais plutôt d'un capteur grand angle, d'un capteur principal et d'un capteur à angle étroit orienté vers l'avant. Par ailleurs, des centaines de milliers de Teslas plus anciennes disposent d'un matériel moins performant, mais sont toujours en mesure d'utiliser la FSD.
La demande d'informations de la NHTSA à Tesla concernant le programme de robotaxis d'Austin s'inscrit dans cette surveillance continue. Tesla a d'ailleurs classé ses réponses comme des informations commerciales confidentielles, ce qui a suffit pour alimenter le débat sur la transparence nécessaire dans le développement de ces technologies.
Le contraste avec Waymo est frappant. L’entreprise d’Alphabet opère avec prudence, multiplie les tests, fournit des rapports détaillés. Tesla, elle, continue de s’appuyer sur une philosophie : « il faut tester en situation réelle pour progresser ». Mais à quel prix ?
Elon Musk, entre visionnaire et kamikaze technologique
La stratégie d’Elon Musk repose sur un pari risqué : prendre de vitesse les régulateurs et la concurrence, quitte à essuyer les plâtres en public. Certains voix ont par exemple évoqué FSD (Full Self-Driving), le système de Tesla encore au stade bêta qui était déployé comme s’il était finalisé. D’autres ont pointé le décalage entre la technologie disponible et les promesses marketing. En vendant dès aujourd’hui des voitures avec des noms comme Full Self-Driving ou Autopilot, Tesla entretient une confusion entre ce que le système peut faire et ce que les clients pensent qu’il peut faire.
Les incidents d'Austin ravivent le débat sur l'approche technologique de Tesla. Contrairement à de nombreux concurrents comme Waymo (Google) ou Zoox (Amazon) qui intègrent des lidars (détection par laser) et des radars en plus des caméras, Tesla s'appuie presque exclusivement sur une architecture "vision-only". Musk défend cette approche en affirmant qu'elle est plus proche de la vision humaine et à terme plus évolutive (scalable). Cependant, pour les détracteurs, cette dépendance unique aux caméras pourrait limiter la capacité du système à percevoir son environnement de manière redondante et robuste, en particulier dans des conditions météorologiques difficiles ou de faible luminosité.
[B]Ces incidents soulèvent des questions...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.