Les Marines ont précédemment procédé aux tests de robots armés de lance-roquettes. C’est désormais au tour de chiens-robots armés de fusils de faire l’objet de tests. L’objectif : permettre aux militaires de rester à couvert pendant que le robot attaque l’ennemi. Cette mise à contribution de la technologie se fait dans un contexte de protestations contre l’utilisation de l’intelligence artificielle à des fins militaires. Le commandement des opérations spéciales des forces marines des États-Unis (MARSOC) évalue actuellement une nouvelle génération de chiens robotisés développés par Ghost Robotics et équipés de systèmes d'armes de l'entreprise de technologie de défense Onyx Industries. Les MARSOC testent ces robots pour diverses applications, notamment la reconnaissance et la surveillance, mais c'est la possibilité de les équiper d'armes pour un engagement à distance qui retient le plus l'attention. MARSOC est actuellement en possession de deux de ces robots qui font l’objet de test.
The U.S. Marine Corps Special Operations Forces Command (MARSOC) tested the Ghost Robotics Vision 60, a four-legged bionic robot.
— Clash Report (@clashreport) May 9, 2024
One of the robot dogs is armed with a 7.62x39mm caliber gun, while the other is equipped with a 6.5mm Creedmoor caliber gun. pic.twitter.com/Cs0dmLCWiY
Ces robots s’appuient sur de complexes algorithmes de contrôle pour s’équilibrer et se déplacer
Du point de vue du développeur informatique, il s’agit de kits matériel - à la présentation visuelle similaire à celle d’un chien sur pattes – programmable via des API fournies par les constructeurs. C’est au travers de ces dernières, ainsi que d’une série de modules d’extensions, que le développeur peut aller à l’essentiel de l’application à mettre en œuvre.
Ces robots s’appuient à la base sur des applications à de la détection et suivi d’objets. Dans ce cas, il y a au préalable collecte des images provenant de caméras avant puis détection d’objet sur une classe spécifiée. Cette détection utilise Tensorflow via le tensorflow_object_detector. Il accepte n'importe quel modèle Tensorflow et permet au développeur de spécifier un sous-ensemble de classes de détection incluses dans le modèle. Il effectue cet ensemble d'opérations pour un nombre prédéfini d'itérations, en bloquant pendant une durée prédéfinie entre chaque itération. L'application détermine ensuite l'emplacement de la détection la plus fiable de la classe spécifiée et se dirige vers l'objet.
L’application est organisée en trois ensembles de processus Python communiquant avec le robot Spot. Le diagramme des processus est illustré ci-dessous. Le processus principal communique avec le robot Spot via GRPC et reçoit constamment des images. Ces images sont poussées dans la RAW_IMAGES_QUEUE et lues par les processus Tensorflow. Ces processus détectent des objets dans les images et poussent l'emplacement dans PROCESSED_BOXES_QUEUE. Le thread principal détermine alors l'emplacement de l'objet et envoie des commandes au robot pour qu'il se dirige vers l'objet.
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.