
Robot, connais-toi toi-même : Les champs Jacobien Neuraux du MIT enseignent aux machines à comprendre leur corps
Le défi : Robots lourdement équipés de capteurs
Pendant des décennies, les ingénieurs ont compté sur de denses réseaux d'encodeurs, de potentiomètres et d'autres capteurs pour dire aux robots où se trouvent leurs bras et articulations. Ces dispositifs surveillent constamment l'angle et la vitesse de chaque moteur pour que le robot puisse calculer comment déplacer son corps dans l'espace. Cette approche fonctionne mais comporte des coûts élevés : elle nécessite un câblage complexe, un étalonnage méticuleux et échoue souvent si un capteur est endommagé ou si les conditions environnementales changent. De plus, les algorithmes de contrôle traditionnels doivent être minutieusement ajustés pour chaque nouveau robot, limitant la facilité avec laquelle les conceptions peuvent évoluer ou s'adapter à de nouvelles tâches. Les chercheurs cherchent depuis longtemps un moyen plus simple de donner aux machines un sens de la proprioception – la capacité de connaître la position et le mouvement de leur propre corps – sans les surcharger de matériel.
Présentation des champs Jacobien Neuraux
En juillet 2025, une équipe du laboratoire d'informatique et d'intelligence artificielle du MIT (CSAIL) a annoncé une avancée appelée champs Jacobien Neuraux (NJF). Plutôt que d'utiliser des dizaines de capteurs, NJF permet à un robot d'apprendre la relation entre les mouvements de ses articulations et les mouvements résultants à partir de simples observations visuelles. Avec une seule caméra pointée sur le robot, le système observe le robot se déplacer et construit progressivement un modèle interne de la manière dont ses articulations affectent la position de ses membres. L'idée clé est que ce modèle, connu en robotique sous le nom de Jacobien, peut être représenté par un réseau neuronal qui apprend directement à partir d'images vidéo. Une fois entraîné, le réseau permet au robot de déduire comment déplacer son corps pour atteindre une position désirée sans dispositifs de mesure explicites sur chaque articulation.
Comment fonctionne NJF
Le système NJF fonctionne en deux phases. Pendant la phase d'entraînement, le robot effectue des mouvements aléatoires tandis qu'une caméra enregistre ses mouvements sous plusieurs angles. L'algorithme traite ces images pour estimer la position des articulations du robot à chaque image. Il utilise ensuite ces données pour entraîner un réseau neuronal à approximer le Jacobien – la fonction mathématique qui relie les vitesses des articulations aux changements de position de l'effecteur du robot. En apprenant cette correspondance, le réseau capture la structure cinématique du robot. Une fois l'entraînement terminé, le robot entre dans la phase de contrôle. Désormais, lorsque la caméra observe l'état actuel du robot, le réseau peut prédire comment de petits changements dans chaque articulation déplaceront le bras ou la jambe du robot. Cela permet au contrôleur de calculer les commandes des articulations nécessaires pour atteindre une position cible. Comme le système ne dépend que des entrées visuelles, il est robuste face aux changements de distribution de masse du robot ou à une légère usure mécanique qui nécessiterait normalement un réétalonnage.
Avantages et applications
Les implications du NJF vont au-delà de la curiosité académique. En éliminant le besoin d'encodeurs sur chaque articulation, les robots peuvent être faits plus légers, moins chers et plus durables. Un bras robotisé dans une usine pourrait continuer à fonctionner même si certains capteurs échouent, car il peut se fier à son modèle appris pour déduire son état. Pour les tâches qui se déroulent dans des environnements imprévisibles – telles que la recherche et le sauvetage, l'exploration spatiale ou la récolte agricole – la capacité de s'adapter sans réétalonnage manuel est cruciale. NJF ouvre également la voie à de nouvelles morphologies de robots. Les concepteurs peuvent expérimenter avec des robots souples ou modulaires dont la forme change au fil du temps, sachant que la machine peut apprendre la dynamique de son propre corps par la vision. Dans l'éducation et la robotique de loisir, les étudiants pourront bientôt construire des robots peu coûteux qui apprennent à se contrôler eux-mêmes avec une simple webcam.
Perspectives d'avenir
Bien que NJF soit encore un prototype de recherche, ses créateurs sont optimistes quant à son avenir. Les prochaines étapes incluent l'amélioration de l'efficacité du processus d'apprentissage et l'extension de la méthode à des robots ayant des articulations plus complexes et des composants flexibles. Intégrer NJF avec des capteurs tactiles et d'autres modalités pourrait donner aux robots un sens plus complet de leur corps, se rapprochant de la proprioception que possèdent les animaux. Si elles réussissent, les techniques de contrôle basées sur la vision comme les champs Jacobien Neuraux pourraient fondamentalement changer la façon dont nous concevons et déployons les machines autonomes, les rendant plus adaptables, résilientes et capables de travailler aux côtés des humains dans le monde réel.
Source : MIT News