IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Des miroirs placés devant des cônes de signalisation perturbent le capteur LiDAR d'une voiture autonome, la rendant incapable de détecter des obstacles réels,
Ce qui souligne les limites de la technologie

Le , par Mathis Lucas

5PARTAGES

3  0 
Des miroirs placés devant des cônes de signalisation perturbent le capteur LiDAR d'une voiture autonome, la rendant incapable de détecter des obstacles réels
ce qui souligne les limites de la technologie

Une expérience réalisée par des chercheurs européens a démontré qu’il est facile de tromper les capteurs LiDAR d’un véhicule autonome en plaçant des miroirs sur des cônes de signalisation sur sa trajectoire. Cette manipulation affecte la perception de l’environnement par la voiture ; elle peut rendre la voiture incapable de détecter des obstacles réels ou lui faire percevoir des obstacles inexistants. Le véhicule était équipé du logiciel open source Autoware. L'expérience a déclenché un débat sur la sécurité des véhicules autonomes et sur la meilleure approche entre un système basé sur le LiDAR et le système d'Elon Musk basé uniquement sur des caméras haute définition.

Le LIDAR (Light Detection and Ranging) est utilisé sur la plupart des voitures autonomes. (Tesla fait exception, le PDG Elon Musk ayant choisi de s'appuyer sur des caméras haute définition.) Le LiDAR utilise des impulsions laser pour mesurer l'environnement physique, mais rencontre des difficultés avec les surfaces réfléchissantes. En 2024, une équipe de chercheurs a réussi à tromper le LiDAR à l'aide de papier d'aluminium et d'échantillons de couleur.

Une équipe de scientifiques français et allemands a publié les résultats d'une nouvelle démonstration réalisée dans le parking d'un campus universitaire. Les chercheurs ont mis en évidence deux types d'attaques : l'attaque par suppressions d'objet (Object Removal Attack - ORA) et l'attaque par ajouts d'objet (Object Addition Attack - OAA). Ces deux attaques exploitent la réflexion spéculaire pour manipuler les données perçues par le capteur LIDAR.

  1. attaque par suppression d'objet (Object Removal Attack - ORA) : en couvrant un cône avec un miroir orienté vers le sol ou le ciel, ils ont réussi à rendre l'obstacle invisible pour le capteur LiDAR, incitant ainsi le véhicule à ne pas le détecter ou à tenter de le traverser ;
  2. attaque par ajout d'objet (Object Addition Attack - OAA) : en plaçant des miroirs sur le bord d'un trottoir, ils ont créé des échos fantômes, amenant le véhicule à percevoir un obstacle inexistant et à freiner brusquement ou à éviter une voie.



Les chercheurs ont testé le système dans divers scénarios, utilisant le système OAA pour empêcher une voiture d'effectuer un virage dans la circulation en utilisant différentes combinaisons de miroirs. Deux miroirs ont permis de convaincre le logiciel de la voiture qu'un objet fantôme se trouvait sur sa trajectoire dans 65 % des cas, et ce taux est passé à 74 % lorsqu'une grille de six miroirs a été utilisée. Le positionnement des miroirs pouvait déclencher un arrêt d'urgence, ce qui n'est pas souhaitable dans un trafic dense.

Les miroirs se sont révélés encore plus efficaces pour dissimuler des objets lors d'une attaque ORA, car les auteurs ont constaté que le positionnement des surfaces réfléchissantes masquait les obstacles aux voitures, quel que soit l'angle des miroirs.

« Un adversaire peut créer des obstacles fantômes ou effacer des obstacles réels à l'aide de simples miroirs bon marché », a averti l'équipe. « Il s'agit de menaces concrètes susceptibles de provoquer des défaillances critiques en matière de sécurité, telles que des freinages d'urgence brusques et des refus de priorité ». Ces expériences viendront s'ajouter aux préoccupations majeures en matière de sécurité qui entourent les voitures autonomes.

Préoccupations relatives à la sécurité de la technologie de conduite autonome

La plupart des constructeurs de véhicules autonomes s'appuient sur le LiDAR, à l'exception de Tesla, dont le PDG Elon Musk insiste sur le fait que cette technologie est une « béquille » coûteuse. Tesla s'appuie uniquement sur des caméras pour ses fonctions de conduite autonome Full Self-Driving (FSD). Toutefois, son approche basée uniquement sur des caméras n'est pas sans défauts majeurs, comme le fait d'être aveuglée par la lumière du soleil.

Selon les critiques, la vision par ordinateur est limitée (le modèle de Tesla), ce qui justifierait les défaillances des systèmes Autopilot et Full Self-Driving de Tesla. Le PDG de Ford, Jim Farley, a souligné les limites du modèle de Tesla et a déclaré que l'approche de Waymo (basé sur le LiDAR) semble « plus logique ».


Cependant, de nombreuses questions se posent déjà quant à la capacité des voitures autonomes à reconnaître les obstacles quotidiens, notamment les piétons. On s'interroge également sur la manière dont cette technologie réagira face à des personnes cherchant délibérément à la perturber. Des activistes ont découvert qu'ils pouvaient désactiver les robotaxis Waymo en plaçant un cône de signalisation sur leur capot, ce qui, rétrospectivement, symbolise parfaitement les difficultés actuelles de l'industrie.

L'article décrit également des moyens de défense, notamment l'imagerie thermique, car les objets solides ont généralement une signature. Les auteurs avertissent que l'ajout de l'imagerie thermique au LiDAR « n'est pas une panacée », en particulier pour les petits objets dans des environnements à haute température.

En outre, l'équipe a précisé qu'elle avait effectué des tests à des vitesses bien inférieures à celles auxquelles circulent les voitures sur les autoroutes et a souligné la nécessité de mener d'autres tests. Il faudra donc attendre encore un certain temps avant de savoir si des miroirs à 100 dollars peuvent menacer votre prochain trajet en taxi robotisé.

Conclusion

Cette étude met en lumière une vulnérabilité des systèmes LiDAR face à des manipulations simples et peu coûteuses. Bien que les tests aient été effectués en laboratoire, ils soulignent la nécessité d’intégrer des technologies complémentaires, comme l’imagerie thermique, pour renforcer la sécurité des véhicules autonomes face à ce type d’attaques. Ils avertissent également que ces solutions ne sont pas des panacées et nécessitent des évaluations approfondies pour assurer leur efficacité dans divers environnements.

Ce n'est pas un coup fatal pour la technologie en soi. Mais cela nous rappelle de manière flagrante que cette technologie présente encore des limites importantes qui méritent, osons le dire, une réflexion sérieuse. À l'heure actuelle, Waymo et Tesla exploitent chacun sa propre flotte de robotaxis autonomes sur plusieurs routes publiques des États-Unis. Des incidents sont régulièrement signalés avec les robotaxis déployés par l'entreprise d'Elon Musk, bien que les véhicules Waymo présentent également des défaillances.

Source : rapport de l'étude

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous des observations rapportées par les chercheurs européens ? Sont-elles pertinentes ?
Selon vous, quelle approche offre plus de sécurité : le modèle basé sur le LiDAR ou le modèle d'Elon Musk basé sur la vision par ordinateur ?

Voir aussi

Des habitants grincheux sabotent les taxis autonomes de Cruise et Waymo avec des cônes de signalisation, ils affirment que les robots taxis ne sont pas fiables et bloquent parfois les routes

La conduite autonome intégrale promise par Elon Musk reste hors de portée : deux actionnaires de Tesla endommagent gravement leur Model Y en tentant de démontrer les capacités du logiciel Full Self-Diriving

Tesla modifie la signification du terme « Full Self-Driving » et renonce à sa promesse d'offrir une conduite autonome sans surveillance, les problèmes techniques persistent et le logiciel rebute les clients
Vous avez lu gratuitement 84 articles depuis plus d'un an.
Soutenez le club developpez.com en souscrivant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !