
et relance le débat sur la sécurité routière avec des véhicules autonomes
L'ambition de Tesla de révolutionner le transport avec des robotaxis autonomes se heurte à une réalité plus complexe que prévu. Si la promesse d'une conduite sûre et efficace sans intervention humaine captive l'imagination, une liste croissante d'incidents met en lumière les défis considérables que l'entreprise d'Elon Musk doit encore surmonter. À peine lancée, l’expérimentation accumule les faux pas techniques. Freinages soudains, erreurs de trajectoire, confusion dans les intersections… La liste des incidents s’allonge, et elle inquiète.
Après des années de promesses ambitieuses, Tesla a finalement déployé une flotte limitée de Model Y équipés de sa technologie de conduite autonome intégrale (FSD) à Austin. Ce programme pilote, payant et accessible sur invitation, vise à tester la capacité des véhicules à naviguer de manière autonome dans un environnement urbain. Elon Musk, PDG de Tesla, a salué ce déploiement comme une « culmination de dix ans de travail acharné », soulignant le développement interne des équipes logicielles et de conception de puces.
L’événement a été présenté comme une démonstration éclatante des capacités de l’intelligence artificielle embarquée dans les voitures Tesla. Les robotaxis, déployés dans certaines zones d’Austin, circulent sans chauffeur humain, entièrement pilotés par le système Full Self-Driving (FSD). La promesse est alléchante : réduire les accidents, fluidifier le trafic et révolutionner la mobilité urbaine.
Une révolution qui tourne court dès les premiers tours de roue
L’expérimentation des robotaxis Tesla ne devait concerner qu’un nombre réduit de véhicules, sur un périmètre contrôlé. Pourtant, ces conditions supposément sécurisées n’ont pas empêché une cascade de dysfonctionnements :
- Le passager appuie sur « pull over », le robotaxi s'arrête au milieu d'une intersection, le passager descend pendant que le Robotaxi bloque l'intersection pendant quelques instants.
Rendez-vous à 37:57 - Le passager appuie sur « pull over » et la voiture s'arrête au milieu de la route. Le moniteur de sécurité doit appeler le service d'assistance aux passagers pour faire repartir la voiture.
Rendez-vous à 9:07 - Conduite à contresens dans une rue à sens unique : plusieurs vidéos virales montrent un robotaxi Tesla s'engager à contresens dans une rue texane, mettant en danger les autres usagers.
- Franchissement illégal de lignes continues et confusion dans les carrefours : d’autres incidents rapportent des trajectoires erratiques à l’approche d’intersections, parfois avec franchissement de la ligne jaune et positionnement dans la mauvaise voie.
- Excès de vitesse dans des zones limitées : des utilisateurs ont filmé des robotaxis roulant bien au-dessus de la limite autorisée, ce qui pose la question du calibrage des algorithmes en contexte urbain réel.
- Freinages fantômes : hérités du mode Full Self-Driving classique, le véhicule s'arrête soudainement sans raison apparente. Le système de perception de Tesla, basé uniquement sur une caméra, a longtemps eu des problèmes avec le freinage fantôme, semblant mal interpréter les ombres, le marquage de la route ou d'autres facteurs environnementaux, ce qui déclenche le freinage d'urgence automatique du véhicule sans obstacle visible, ce qui pourrait provoquer des collisions en chaîne.
Ici par exemple, le robotaxi coupe la route à une autre voiture et freine pour éviter l'ombre d'un arbre.
Rendez-vous à 19:32
Ici, le robotaxi freine inopinément, faisant tomber le téléphone du passager
Rendez-vous à 10:19
Ici, le robotaxi freine inopinément, peut-être à cause de la présence de la police à proximité.
Enquête fédérale et doute institutionnel
La multiplication des vidéos amateurs documentant ces incidents n’a pas tardé à attirer l’attention des autorités. La NHTSA (National Highway Traffic Safety Administration) a ouvert une enquête officielle. En parallèle, des voix s’élèvent au Texas pour demander un moratoire sur le déploiement de ces véhicules, en attendant que leur fiabilité soit démontrée.
Le 17 octobre 2024, la National Highway Traffic Safety Administration (NHTSA) a ouvert une nouvelle enquête de sécurité concernant les systèmes de "Full Self-Driving" (FSD) de Tesla impliquant 2,4 millions de véhicules. Cette enquête fait suite à quatre accidents impliquant des véhicules Tesla utilisant le système FSD dans des conditions de visibilité réduite, telles que le brouillard, la lumière du soleil et la poussière en suspension. L'un de ces accidents a conduit à la mort d'un piéton en 2023. Les enquêteurs de la NHTSA vont examiner la capacité du système FSD à détecter et à réagir de manière appropriée à ces conditions de visibilité réduite. Ils chercheront également à comprendre les circonstances contribuant à ces accidents.
L'enquête vise à déterminer la capacité de la FSD à « détecter les conditions de visibilité réduite sur la route et à y répondre de manière appropriée ». Contrairement à presque tous les autres systèmes déployés sur la route, Tesla choisit de s'appuyer uniquement sur des caméras et ne dispose pas d'une configuration stéréoscopique, mais plutôt d'un capteur grand angle, d'un capteur principal et d'un capteur à angle étroit orienté vers l'avant. Par ailleurs, des centaines de milliers de Teslas plus anciennes disposent d'un matériel moins performant, mais sont toujours en mesure d'utiliser la FSD.
La demande d'informations de la NHTSA à Tesla concernant le programme de robotaxis d'Austin s'inscrit dans cette surveillance continue. Tesla a d'ailleurs classé ses réponses comme des informations commerciales confidentielles, ce qui a suffit pour alimenter le débat sur la transparence nécessaire dans le développement de ces technologies.
Le contraste avec Waymo est frappant. L’entreprise d’Alphabet opère avec prudence, multiplie les tests, fournit des rapports détaillés. Tesla, elle, continue de s’appuyer sur une philosophie : « il faut tester en situation réelle pour progresser ». Mais à quel prix ?
Elon Musk, entre visionnaire et kamikaze technologique
La stratégie d’Elon Musk repose sur un pari risqué : prendre de vitesse les régulateurs et la concurrence, quitte à essuyer les plâtres en public. Certains voix ont par exemple évoqué FSD (Full Self-Driving), le système de Tesla encore au stade bêta qui était déployé comme s’il était finalisé. D’autres ont pointé le décalage entre la technologie disponible et les promesses marketing. En vendant dès aujourd’hui des voitures avec des noms comme Full Self-Driving ou Autopilot, Tesla entretient une confusion entre ce que le système peut faire et ce que les clients pensent qu’il peut faire.
Les incidents d'Austin ravivent le débat sur l'approche technologique de Tesla. Contrairement à de nombreux concurrents comme Waymo (Google) ou Zoox (Amazon) qui intègrent des lidars (détection par laser) et des radars en plus des caméras, Tesla s'appuie presque exclusivement sur une architecture "vision-only". Musk défend cette approche en affirmant qu'elle est plus proche de la vision humaine et à terme plus évolutive (scalable). Cependant, pour les détracteurs, cette dépendance unique aux caméras pourrait limiter la capacité du système à percevoir son environnement de manière redondante et robuste, en particulier dans des conditions météorologiques difficiles ou de faible luminosité.
Ces incidents soulèvent des questions fondamentales sur la responsabilité en cas d'accident impliquant un véhicule autonome
Qui est responsable lorsque le système commet une erreur ? Le constructeur, le propriétaire du véhicule, ou l'algorithme lui-même ? Le cadre juridique et assurantiel doit évoluer pour prendre en compte cette nouvelle réalité et définir clairement les responsabilités.
Par ailleurs, la confiance du public est un facteur crucial pour l'adoption des robotaxis. Chaque incident médiatisé alimente les doutes et les craintes quant à la sécurité de ces véhicules sans conducteur. Tesla devra redoubler d'efforts en matière de transparence et de communication pour rassurer les utilisateurs potentiels et prouver la fiabilité de sa technologie.
En conclusion, si la vision de Tesla de déployer des robotaxis autonomes est séduisante, les incidents recensés rappellent que la route vers une autonomie totale est semée d'embûches. Les défis techniques, réglementaires et sociétaux sont considérables et nécessitent des avancées significatives en matière de sécurité et de fiabilité avant que cette promesse puisse devenir une réalité largement acceptée. La liste des mésaventures continue de s'allonger, soulignant l'importance d'une surveillance rigoureuse et d'une évaluation approfondie des risques avant de confier entièrement nos déplacements à des machines.
Des investisseurs séduits, malgré tout
Fait surprenant : alors que ces vidéos circulaient, l’action Tesla a bondi de plus de 10 %, portée par les annonces enthousiastes de Musk et l’effet de nouveauté. Selon Bloomberg, cette hausse témoigne de la confiance persistante des investisseurs dans le projet robotaxi, perçu comme un levier de croissance majeur pour les années à venir.
Mais certains analystes commencent à tempérer cet optimisme. Selon Dan Ives de Wedbush Securities : « Tesla ouvre une voie prometteuse, mais elle est parsemée d’obstacles techniques, éthiques et réglementaires. Le marché ne doit pas ignorer les réalités. »
Au-delà de la spéculation boursière, le principal défi est celui de la confiance des usagers. Si un véhicule sans conducteur peut se tromper de voie ou ignorer une limite de vitesse, comment convaincre un parent de faire monter son enfant à bord ? Pour l’instant, les vidéos de lancement ont suscité plus de craintes que d’adhésion dans l’opinion publique.
L’un des passants interrogés par CNBC résume bien le sentiment ambivalent : « C’est impressionnant, mais aussi effrayant. Je ne suis pas prêt à monter là-dedans. »
Source : vidéos dans le texte
Et vous ?








Vous avez lu gratuitement 51 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.