Classiquement, cela se fait en concevant indépendamment les systèmes de perception, d'actionnement et de contrôle avec des tolérances très faibles. Cela les limite à des environnements étroitement contrôlés, tels qu'une course d'obstacles prédéterminée dans les laboratoires. En revanche, les humains sont capables d'apprendre le parcours par la pratique sans modifier de manière significative leur biologie sous-jacente.
Dans un article de recherche, des chercheurs de la Carnegie Mellon University adoptent une approche similaire pour développer le parcours robotisé sur un petit robot bon marché doté d'un actionnement imprécis et d'une seule caméra de profondeur frontale pour la perception, qui est à basse fréquence, instable et sujette à des artefacts. Ils montrent comment une politique de réseau neuronal unique fonctionnant directement à partir d'une image de caméra, entraînée en simulation avec un RL à grande échelle, peut surmonter la détection et l'actionnement imprécis pour produire un comportement de contrôle très précis de bout en bout. Ils montrent que le robot peut effectuer un saut en hauteur sur des obstacles deux fois plus hauts que lui, un saut en longueur sur des espaces deux fois plus longs que lui, faire le poirier et courir sur des rampes inclinées, et s'adapter à de nouvelles courses d'obstacles ayant des propriétés physiques différentes.
Source : Carnegie Mellon University
Et vous ?
Quel est votre avis sur ce robot et cette méthode ?
Voir aussi :
Google DeepMind présente RT-X : un modèle d'IA généraliste pour aider à faire progresser la façon dont les robots peuvent apprendre de nouvelles compétences
ARTEMIS, un robot humanoïde joueur de football : il est capable de courir et peut maintenir son équilibre face à des coups de pied et des poussées violentes
La dernière vidéo du robot humanoïde Atlas de Boston Dynamics montre qu'il est capable de courir, sauter, prendre un objet au sol et le lancer à un ouvrier sur un chantier de construction simulé