Jusque là, les robots acquéraient de nouvelles capacités par imitation. Des chercheurs inversent ce principe. Ils travaillent sur des machines capables d’apprendre plus rapidement en partant de démonstrations ratées ou inexactes.
Un robot, impassible, enregistre. Son instructeur souhaite lui apprendre à mettre un ballon dans un panier de basket situé à 20 mètres de distance. Tentant lui-même ce geste humainement très difficile à accomplir, il rate systématiquement sa cible. Le scientifique n’a-t-il fait que perdre son temps?
Considérées comme des erreurs bonnes pour la poubelle, les démonstrations ratées peuvent au contraire être des occasions d’apprendre mieux, répondent des chercheurs de l’EPFL. Un point de vue original qui les a amenés à développer des algorithmes novateurs.
«Nous avons inversé le principe, communément admis en robotique, de l’acquisition par imitation et considéré les cas où les humains sont imprécis dans certaines tâches», explique la professeure Aude Billard. «Cette approche permet au robot d’aller plus loin, d’apprendre plus vite et surtout de faire mieux que l’humain», ajoute Dan Grollman, collaborateur scientifique.
Ce chercheur d’origine américaine a travaillé sur ce qu’il a appelé la théorie «Donut as I do». Il a développé un algorithme indiquant au robot de ne pas reproduire le geste d’un démonstrateur qui n’a pas été correctement réalisé. La machine utilisera ces informations pour éviter de répéter les erreurs et ainsi cherchera des solutions alternatives. D’où le choix du terme «donut», un jeu de mots entre le dessert américain en forme de Torus et la phrase «do not», «ne fais pas» : le trou du donut correspond à la région qu’il faut éviter et donc à bannir absolument, tandis que le pourtour représente le champ des solutions à explorer...