Capturer les mouvements des animaux en temps réel

DeepLabCut! en action. Crédit : Mackenzie Mathis (EPFL)

DeepLabCut! en action. Crédit : Mackenzie Mathis (EPFL)

Des scientifiques de l’EPFL spécialistes du comportement lancent DeepLabCut-Live!, un outil d’apprentissage profond qui permet d’étudier en temps réel les mouvements et les postures des animaux. Ce logiciel open source, basé sur la capture sans marqueur des mouvements, peut être utilisé dans le cadre d’analyses neurologiques par les chercheurs.

Gollum dans «Le Seigneur des Anneaux», Thanos dans «Avengers», Snoke dans «La Guerre des Étoiles», les Na’vi dans «Avatar»: nous avons tous été émerveillés par les prodiges de la capture des mouvements, une technique de cinéma qui suit les mouvements des acteurs et les «transpose» dans une animation informatique pour créer un personnage numérique qui bouge, vit et remportera peut-être un Oscar un jour.

Ce que beaucoup de gens ne savent sans doute pas, c’est que la capture des mouvements n’est pas limitée au grand écran et est également utilisée dans la recherche. Des scientifiques spécialistes du comportement ont développé et employé des outils similaires pour étudier et analyser les postures et les mouvements d’animaux dans une multitude de conditions. Mais les techniques de capture des mouvements exigent aussi du sujet qu’il porte une combinaison complexe équipée de marqueurs qui permettent à l’ordinateur de «savoir» où se trouve chaque partie du corps dans un espace tridimensionnel. Un acteur professionnel peut s’en accommoder, mais les animaux n’apprécient guère, quant à eux, qu’on les habille.

Pour résoudre le problème, les scientifiques ont combiné la capture des mouvements avec l’apprentissage profond, une méthode qui permet à un ordinateur d’apprendre comment optimiser une tâche en identifiant notamment un «point clé» spécifique dans les vidéos. L’idée est d’apprendre à l’ordinateur à suivre et même à prédire les mouvements ou les postures d’un animal sans qu’il soit nécessaire d’utiliser des marqueurs.

Mais pour être utiles en sciences du comportement, les outils de capture «sans marqueur» doivent permettre aux scientifiques de contrôler ou de stimuler l’activité neuronale de l’animal rapidement, littéralement en temps réel. C’est particulièrement important dans le cadre d’expériences visant à déterminer quelle partie du système nerveux est liée à tel ou tel mouvement postural.

DeepLabCut: capture des postures sans marqueurs sur le modèle de l’apprentissage profond

Mackenzie Mathis, qui a récemment quitté Harvard pour rejoindre la Faculté des sciences de la vie de l’EPFL, est l’un des fers de lance de cette l’approche. Le laboratoire de Mackenzie Mathis a développé une boîte à outils logicielle basée sur l’apprentissage profond baptisée DeepLabCut , qui est capable de suivre et d’identifier les mouvements des animaux en temps réel directement à partir d’images vidéo. Dans un article publié dans eLife, Mackenzie Mathis et Gary Kane, autre post-doctorant de Harvard, présentent une nouvelle version du système appelée DeepLabCut-Live! (DLC-Live!) , qui affiche une faible latence (maximum 15 ms à plus de 100 ips) - un module supplémentaire permettant de prédire les postures permet même de garantir un feed-back zéro latence - et peut être intégrée dans d’autres ensembles logiciels.

DeepLabCut a été développé au départ pour étudier et analyser la manière dont les animaux adaptent leur posture en réponse aux changements dans leur environnement. «Nous cherchons à comprendre comment les circuits neurologiques contrôlent le comportement et en particulier comment les animaux s’adaptent à de rapides changements dans leur environnement», indique Mackenzie Mathis.

«Prenons l’exemple suivant: vous versez votre café dans une tasse qui, une fois pleine, a un poids déterminé. À mesure que vous buvez votre café, le poids change et pourtant, vous ne devez pas réfléchir pour modifier votre force de préhension ou la hauteur à laquelle vous devez lever votre bras pour atteindre votre bouche. Nous faisons cela de façon tout à fait naturelle, car nous sommes capables de nous adapter très rapidement à ces changements. Et cependant, cela exige une foule de circuits neurologiques interconnectés, du cortex jusqu’à la moelle épinière.»

DLC-Live! est la nouvelle version d’un «logiciel d’estimation des poses animales» extrêmement avancé qui utilise des réseaux sur mesure pour prédire la posture des animaux sur la base d’images vidéo et permet d’aller jusqu’à 2500 ips hors ligne sur un GPU standard. Son analyse à haut débit en fait un outil inestimable pour l’étude des mécanismes neurologiques du comportement et l’expérimentation en la matière. La faible latence du nouveau système permet aux chercheurs de donner un feed-back en temps réel aux animaux et de tester les fonctions comportementales de circuits neurologiques spécifiques. Et, chose plus importante, le système peut communiquer avec le matériel utilisé dans les études de postures pour donner un feed-back aux animaux.

«C’est important pour notre propre programme de recherche, où nous voulons être capables de manipuler le comportement d’un animal», précise encore Mackenzie Mathis. «Ainsi, dans l’une de nos études de comportement, nous apprenons à une souris à jouer à un jeu vidéo en laboratoire et cherchons à désactiver des neurones ou des circuits neurologiques précis dans une fenêtre temporelle réellement spécifique - déclencher un laser pour faire de l’optogénétique ou déclencher une récompense externe.»

«Nous voulions faire de DLC-Live! un système très convivial et faire en sorte qu’il fonctionne avec n’importe quelle espèce et dans n’importe quel environnement», ajoute-t-elle. «Le système est réellement modulaire et peut être employé dans un tas de contextes différents; la personne qui mène les expériences peut en déterminer aisément les conditions et définir ce qu’elle cherche à déclencher grâce à notre interface utilisateur graphique. Nous avons aussi voulu que le système puisse être utilisé avec d’autres plateformes d’usage courant en neurosciences.» Deux de ces plateformes sont Bonsai et Autopilot. Dans l’article publié, Mackenzie Mathis et ses collègues qui ont développé ces ensembles logiciels montrent comment DLC-Live! peut aisément interagir avec ces systèmes.

«C’est économique et modulable et nous espérons que ce sera un progrès technique qui permettra de poser encore davantage de questions sur la manière dont le cerveau contrôle le comportement», affirme Mackenzie Mathis.

Autres contributeurs

  • Université de Harvard
  • Institute of Neuroscience
  • Université d’Oregon