La manière dont un neurone traite l’information varie constamment

    -     English
© BBP / EPFL 2019

© BBP / EPFL 2019

Comment les neurones traitent-ils les informations? On sait qu’ils fractionnent les signaux électriques entrants en sous-unités. Les chercheurs du Blue Brain ont découvert que les dendrites - les récepteurs ramifiés des neurones - travaillent ensemble pour apprendre, dynamiquement et en fonction de la charge de travail. Ces travaux permettent de mieux comprendre comment nous pensons et pourraient inspirer de nouveaux algorithmes destinés à l’intelligence artificielle.

Dans un article de la revue Cell Reports, les chercheurs du programme de recherche suisse Blue Brain Project, à l’EPFL, ont décrit leur nouvelle approche pour comprendre comment fonctionne un neurone unique dans le cerveau.

Les chercheurs ont effectué leur analyse sur les cellules d’un cortex virtuel de rongeur, conçu au Blue Brain. Ils pensent que d’autres types de neurones - non-corticaux ou humains - devraient fonctionner de la même manière.

Lorsqu’un neurone reçoit un signal, les résultats montrent que les dendrites - les branches élaborées et ramifiées des récepteurs qui émergent de la cellule - fonctionnent ensemble d’une manière ajustée à la complexité du signal entrant.

La force d’une synapse détermine l’intensité avec laquelle un neurone perçoit le signal électrique provenant d’un voisin. Or cette force est changée par le processus d’apprentissage. Une "matrice de connectivité" détermine comment ces synapses communiquent entre elles. En l’analysant, un algorithme établit à quel moment et dans quel endroit les synapses se regroupent en unités d’apprentissages indépendantes, à partir des propriétés structurelles et électriques des dendrites. En d’autres termes, le nouvel algorithme détermine comment les dendrites se divisent fonctionnellement en unités de calcul séparées. Il montre que les dendrites travaillent ensemble pour traiter l’information, de manière dynamique et en fonction de la charge de travail.

Les chercheurs comparent leurs résultats au fonctionnement de certaines technologies informatiques actuelles. Les fonctionnalités nouvellement observées des dendrites agissent comme des unités de calcul parallèles. Cela veut dire qu’un neurone peut traiter différents aspects d’un signal entrant en parallèle, comme un superordinateur. Chaque unité de calcul parallèle peut apprendre indépendamment à ajuster son signal sortant, comme les noeuds des réseaux de deep learning exploités dans les modèles actuels d’intelligence artificielle. A l’image des infrastructures de cloud computing, un neurone se partage dynamiquement en autant d’unités de calculs séparées requises par la charge de travail du signal entrant.

"Dans le Blue Brain Project, cette approche mathématique aide à établir des groupes fonctionnellement pertinents de signaux neuronaux entrants, qui nourrissent la même unité parallèle de traitement. Cela nous permet de déterminer à quel niveau de complexité nous devons modéliser les réseaux corticaux dans notre reconstruction numérique et notre simulation du cerveau", explique Marc-Oliver Gewaltig, responsable de la division de neurosciences de la simulation Blue Brain.

Les unités parallèles de calculs des neurones peuvent apprendre indépendamment à ajuster leur signal sortant.

De plus, cette recherche montre comment ces unités parallèles de traitement influencent l’apprentissage - c’est à dire comment elles changent la force de la connection entre différents neurones. La manière dont un neurone apprend dépend du nombre et de l’emplacement des processeurs parallèles, lesquels dépendent des signaux provenant d’autres neurones. Par exemple, certaines synapses n’apprennent pas indépendamment quand le niveau du signal entrant est faible, mais commencent à le faire quand le signal est plus fort.

Pour l’heure, les algorithmes d’apprentissage conventionnels (comme ceux utilisés aujourd’hui dans les applications d’intelligence artificielle) présupposent que les neurones sont des unités statiques qui se contentent d’intégrer et de mettre à l’échelle les signaux entrants. Au contraire, ces travaux montrent que le nombre et la taille des sous-unités indépendantes peuvent être contrôlées par un signal entrant équilibré ou par une forme particulière de potentiel postsynaptique inhibiteur appelée "shunting inhibition". Les chercheurs pensent que ce contrôle temporaire de la compartimentalisation constitue un mécanisme puissant pour l’apprentissage des caractéristiques d’un signal entrant via le regroupement des dendrites.

"Notre méthode montre que dans de nombreux états cérébraux, les neurones ont largement moins de processeurs parallèles que ne le suggéraient les structures des branches dendritiques. Ainsi, de nombreux synapses semblent être dans une "zone grise" où ils n’appartiennent à aucune unité de traitement, explique le scientifique principal et premier auteur Willem Wybo. Cependant, dans le cerveau, les neurones reçoivent divers niveaux de signaux de fond entrant. Nos résultats montrent que le nombre de processeurs parallèles varie avec le niveau de ces signaux de fond, ce qui suggère que le même neurone pourrait avoir diverses fonctions de calcul dans différents états cérébraux."

"Cette observation est enthousiasmante. Elle montre un nouvel aspect du rôle des états up/down dans le cerveau, et elle permet d’expliquer pourquoi l’inhibition corticale est si spécifique à un endroit particulier. Avec ces nouveaux concepts, nous pouvons commencer à chercher des algorithmes qui exploitent les changement rapides dans l’appariement des unités de traitement. Cela nous ouvrira de nouvelles perspectives sur cette question fondamentale: comment le cerveau effectue des calculs", conclut Marc-Oliver Gewaltig.