Un conducteur Tesla endormi alors que l'Autopilot était enclenché accuse le système d'avoir percuté une voiture de police par l'arrièresuggérant une défaillance dans le fonctionnement du logiciel
Un nouvel accident soulève des doutes concernant la fiabilité des systèmes conçus par Tesla pour s'assurer que les conducteurs restent attentifs lorsque l'Autopilot est activé. Un conducteur Tesla à Barrington Hills, dans l'Illinois, a été arrêté et inculpé après avoir percuté une voiture de police de South Barrington. Interrogé par la police, il aurait déclaré s'être endormi et que l'Autopilot avait le contrôle au moment de la collision. Les systèmes de surveillance du conducteur auraient dû l'avertir de rester attentif, mais il existe des moyens de les contourner. Le nom Autopilot pousse certains conducteurs à faire aveuglément confiance au système, malgré ses défaillances.
L'Autopilot de Tesla est un système avancé d'aide à la conduite (ADAS) de niveau 2. Il permet à la voiture de se diriger, d’accélérer et de freiner automatiquement dans certaines conditions. Par exemple, la voiture peut suivre sa voie sur l’autoroute, adapter sa vitesse selon le trafic et garder ses distances avec le véhicule qui précède. Toutefois, contrairement à ce que son nom pourrait laisser penser, il ne s'agit pas d'un système de conduite autonome.
L'Autopilot exige que le conducteur reste pleinement attentif, garde les mains sur le volant et soit prêt à prendre le contrôle à tout moment, car le système ne peut pas gérer toutes les situations de la route. Mais dans la réalité, les conducteurs Tesla ont tendance à s'abandonner à l'Autopilot lorsqu'il est enclenché.
Cela semble être le cas du conducteur Tesla de Barrington Hills, du moins selon son récit à la police. Il a déclaré que l'Autopilot était aux commandes lorsque la voiture a percuté l'arrière d'une voiture de police alors qu'ils dormaient. Mais son histoire suscite le scepticisme. Le conducteur utilisait peut-être l'Autopilot à un moment donné, mais quant à savoir si le système était toujours en marche moment de l'impact, c'est une tout autre histoire.
Les fonctions de surveillance du conducteur auraient dû avertir le conducteur, mais il existe des moyens de les contourner. Si la caméra de surveillance du conducteur n'a pas une vue claire des yeux du conducteur, elle revient à la détection du couple du volant, qui peut être contournée à l'aide d'un simple poids.
La police informe que la responsabilité humaine reste primordiale
Si les déclarations du conducteur sont vraies, cela suggère que ce dernier a activement ignoré les avertissements visuels et sonores répétés du système de surveillance lui demandant de rester attentif avant que l'Autpilot ne se désactive finalement, ou qu'il a contourné d'une manière ou d'une autre les fonctions de sécurité. Les conducteurs peuvent échapper aux contrôles de Tesla en couvrant la caméra de l'habitacle lors de l'utilisation d'Autopilot.
Le système émet plusieurs avertissements. Selon Tesla, si le conducteur ignore à plusieurs reprises les invites lui demandant d'exercer une légère pression sur le volant ou de faire attention, le système affiche une série d'avertissements de plus en plus sévères et, si ces avertissements sont ignorés, il se désactive pour le reste du trajet et affiche le message suivant : « Autopilot indisponible pour le trajet actuel. Avertissements ignorés ».
Si le conducteur ne reprend pas le contrôle manuel du volant, la voiture émet un signal sonore continu, active les feux de détresse et ralentit jusqu'à s'arrêter complètement. Selon les experts, une enquête approfondie est nécessaire pour déterminer comment l'Autopilot s'est comporté avant la collision.
Le département de police de Barrington Hills, qui mène l'enquête, a arrêté le conducteur et l'a inculpé de plusieurs infractions. Deux agents se trouvaient dans la voiture de police au moment de l'accident. Heureusement, les responsables du village ont indiqué que les deux agents n'avaient pas subi de blessures graves. Le département de police de South Barrington a partagé quelques images des dommages subis par leur voiture de police.
Le chef adjoint de la police de South Barrington, Adam Puralewski, a rappelé que si les systèmes automatisés ne sont pas illégaux, la responsabilité humaine reste primordiale. « La technologie continue d'évoluer et peut améliorer la sécurité lorsqu'elle est utilisée correctement. Cependant, il est important de rappeler que les conducteurs restent responsables de la conduite sécuritaire de leur véhicule à tout moment », a déclaré Adam Puralewski.
Le système de surveillance des conducteurs de Tesla jugé inefficace
Tout système peut faire l'objet d'abus. Il est difficile de créer un système totalement infaillible. Cependant, on peut se demander si Tesla en fait assez pour prévenir les abus, une préoccupation qui a été soulevée dans plusieurs procès impliquant des accidents liés à l'Autopilot et le système de conduite entièrement autonome de Tesla, Full Self-Driving (FSD). Prétendre que vous « dormiez » n'est pas une défense, c'est un aveu direct de négligence.
Dommages subis par la voiture de police
Dans certains cas, des conducteurs ont affirmé qu'ils pensaient qu'il était raisonnable de ne pas faire attention, car ils croyaient que l'Autopilot empêcherait les accidents. Ce qui est notamment très éloigné de la réalité. Lorsque Tesla vante les mérites de son système en le présentant comme « plus sûr que les humains » sur la base d'un « rapport de sécurité » profondément biaisé, on comprend que certaines personnes puissent se faire une idée erronée.
Tesla renonce à offrir une conduite autonome sans surveillance
Depuis 2016, Tesla affirmait que tous ses véhicules en production seraient capables d'atteindre une capacité de conduite autonome sans supervision. Le PDG Elon Musk a affirmé que cela se produirait « d'ici la fin » de chaque année depuis 2018. Cependant, près d'une décennie plus tard, il n'en est rien. Alors que l'Autopilot et le Full Self-Driving sont confrontés à de nombreuses défaillances techniques, Tesla décide de renoncer à cette promesse.
En juillet 2025, le PDG de Ford, Jim Farley, a fait part de son scepticisme à l'égard de l'approche de Tesla en matière de conduite autonome. Tesla s'appuie uniquement sur des caméras pour ses fonctions de conduite autonome, tandis que Waymo utilise une combinaison de caméras, de radars et de LiDAR. Invité à comparer les deux systèmes, Jim Farley a souligné les limites du modèle de Tesla et a déclaré que l'approche de Waymo semble « plus logique ».
Aujourd'hui, Tesla a modifié la signification de « conduite entièrement autonome » pour renoncer à sa promesse initiale d'offrir une autonomie sans supervision. L'entreprise a déjà confirmé que tous les véhicules produits entre 2016 et 2023 ne disposent pas du matériel nécessaire pour offrir une conduite autonome comme promise. Cela signifie que Tesla a menti lorsqu'il a promis à ses clients qu'ils pourraient un jour convertir leurs véhicules en « robotaxis ».
Tesla a modifié son discours et ne vend désormais plus que des systèmes « Full Self-Driving (Supervised) » (conduite entièrement autonome sous supervision) à ses clients. Les petits caractères précisent que cela ne rend pas le véhicule « autonome » et ne promet pas cette fonctionnalité. Ainsi, les clients qui achètent le Full Self Driving aujourd'hui n'achètent pas la capacité de conduite autonome sans supervision comme l'ont fait les acheteurs précédents.
Tesla a vendu le pack Full Self-Driving Capability pour un montant pouvant atteindre 15 000 dollars, assurant aux clients que le système évoluerait vers une autonomie totale grâce à des mises à jour en direct. Mais aujourd'hui, l'on est bien loin de la vision initiale. En réalité, le Full Self-Driving est désormais commercialisé comme un simple système avancé d'aide à la conduite (ADAS) sans aucun engagement en matière d'autonomie sans surveillance.
Conduite autonome : l'échec de l'Autopilot et du Full Self-Driving
La conduite autonome est la promesse centrale autour de laquelle Elon Musk a bâti son entreprise. Il est convaincu qu'il s'agit de la prochaine frontière de l'industrie automobile. Tesla n'a jamais livré de véhicule véritablement autonome, mais le milliardaire continue d'affirmer que ses voitures rouleront bientôt sans aucune intervention humaine. En attendant, l'Autopilot, son logiciel d'aide à la conduite, n'est pas vraiment aussi avancé qu'il le prétend.
Les documents contiennent plus de 2 400 plaintes de clients concernant des accélérations involontaires et plus de 1 500 problèmes de freinage, dont 139 cas impliquant un freinage d'urgence sans cause et 383 freinages fantômes déclenchés par de fausses alertes de collision. Plus de 1 000 accidents sont documentés.
Une feuille de calcul distincte sur les incidents liés à l'aide à la conduite, pour lesquels les clients ont soulevé des préoccupations en matière de sécurité, répertorie plus de 3 000 entrées. La plus ancienne date de 2015, la plus récente de mars 2022. Sur cette période, Tesla a livré environ 2,6 millions de véhicules équipés du logiciel Autopilot. La plupart des incidents se sont produits aux États-Unis, mais des plaintes ont été enregistrées en Europe et en Asie.
Les clients ont décrit leurs voitures comme accélérant soudainement ou freinant brusquement. Certains s'en sont sortis avec une frayeur, d'autres ont fini dans des fossés, ont percuté des murs ou sont entrés en collision avec des véhicules venant en sens inverse. « Après avoir déposé mon fils sur le parking de son école, alors que je m'apprêtais à prendre la sortie à droite, la voiture a soudainement fait un bond en avant », peut-on lire dans une plainte.
Les défaillances techniques de l'Autopilot et du Full Self-Driving
Ces dernières années, la NHTSA a recensé plusieurs cas dans lesquels des Tesla ont percuté des véhicules d'urgence à l'arrêt. Dans chacun de ces cas, l'Autopilot s'est désactivé « moins d'une seconde avant l'impact », ce qui laisse beaucoup trop peu de temps au conducteur pour réagir. Les critiques ont averti que ce comportement pourrait permettre à Tesla de faire valoir devant les tribunaux que l'Autopilot n'était pas activé au moment de l'impact.
Le YouTuber Mark Rober, ancien ingénieur à la NASA, a reproduit ce comportement dans une expérience réalisée le 15 mars 2025. Il a simulé une série de situations dangereuses dans lesquelles la Tesla Model Y a obtenu des résultats nettement inférieurs à ceux d'un véhicule concurrent. La Tesla a roulé à plusieurs reprises sur un mannequin d'essai sans freiner. La vidéo est devenue virale, accumulant plus de 14 millions de vues en quelques jours.
L'expérience du YouTuber Mark Rober renforce l'argument selon lequel les systèmes de conduite autonome basés sur le LiDAR sont plus fiables que les systèmes de conduite autonome utilisant uniquement des caméras, comme les systèmes Autopilot et Full Self-Driving de Tesla. La seconde voiture testée par Mark Rober est équipée d'un système de conduite autonome utilisant une combinaison de LiDAR, de caméras et d'autres types de capteurs.
Tesla a décidé de renoncer au LiDAR et de s'appuyer entièrement sur la vision par ordinateur. Selon les critiques, la vision par ordinateur est limitée, ce qui justifierait les défaillances des systèmes Autopilot et Full Self-Driving de Tesla. Le PDG de Tesla, Elon Musk, a qualifié le LiDAR de « béquille », et a déclaré qu'il s'agit d'une « aventure insensée ». Cependant, de nombreux experts de l'industrie automobile ne partagent pas l'avis du PDG de Tesla.
En mars 2025, Tesla a supprimé le terme « Full Self-Driving » du nom de son logiciel de conduite autonome en Chine, le Full Self-Driving ayant déjà été taxé de publicité mensongère pour avoir laissé croire aux consommateurs que les véhicules Tesla étaient entièrement autonomes.
Source : le département de police de Barrington Hills
Et vous ?
Quel est votre avis sur le sujet ?
Selon vous, qui du conducteur ou de l'Autopilot est responsable de cet accident ?Voir aussi
Tesla modifie la signification du terme « Full Self-Driving » et renonce à sa promesse d'offrir une conduite autonome sans surveillance, les problèmes techniques persistent et le logiciel rebute les clients
Autopilot : Tesla a déclaré ne pas disposer des données clés relatives à un accident mortel, puis un hacker les a trouvées. L'entreprise nie les avoir cachées, mais est condamnée à verser 243 Mns $
Quand la technologie oublie le bon sens : avec l'abandon des poignées mécaniques par Tesla, les accidents peuvent se transformer en courses mortelles contre la montre
Vous avez lu gratuitement 166 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.