Modéliser les performances pour simuler le tissu cérébral

    -     English
(Image © Fotolia)

(Image © Fotolia)

Des scientifiques ont étendu les techniques de modélisation des performances au domaine des sciences cérébrales informatiques. Publié dans Neuroinformatics, la recherche de l’EPLF fournit une appréciation quantitative de la situation des performances en matière de simulation du tissu cérébral et analyse en détail la relation entre une expérience in silico, le neurone sous-jacent et le modèle de connectivité, l’algorithme de simulation et la plateforme matérielle utilisée. Il en résulte les premiers modèles de performances analytiques de simulations détaillées du tissu cérébral, ce qui constitue une étape concrète pour ouvrir la voie à la nouvelle génération de simulations du tissu cérébral.

Comprendre le cerveau est l’un des défis majeurs du «big data» auxquels nous sommes confrontés aujourd’hui et, petit à petit, les modélisations et simulations informatiques sont devenues des outils essentiels pour mieux comprendre la structure du cerveau ainsi que pour déchiffrer les interrelations causales de ses composants. Jusqu’à présent, l’informatique d’usage général était tout à fait capable de fournir des performances de qualité pour la simulation du tissu cérébral mais, parallèlement à cela, il devient de plus en plus difficile de s’appuyer sur les générations futures d’ordinateurs, en raison de limitations physiques. Si des modèles complets de cerveaux sont en passe d’être réalisés avec la nouvelle génération d’ordinateurs, il sera indispensable de comprendre les caractéristiques de calcul des modèles et des moteurs de simulation.

Actuellement, l’ampleur même des processus biochimiques et biophysiques et des structures inhérentes au cerveau a conduit à développer une vaste gamme d’abstractions de modèles et d’outils spécialisés dont la plupart fonctionnent sur les plus grands ordinateurs au monde afin de simuler le tissu cérébral. Cependant, leur avancement a le plus souvent reposé sur une analyse comparative des performances, autrement dit, sur l’art de mesurer et d’optimiser un logiciel et une approche algorithmique sur un matériel donné, utilisant dans de rares cas seulement une extrapolation initiale basée sur un modèle.

Des connaissances approfondies grâce à la modélisation analytique des performances

Afin d’aller au-delà de l’approche comparative et des extrapolations initiales publiées antérieurement, les scientifiques ont adopté une approche complémentaire: la modélisation détaillée des performances - la science de la modélisation effective des performances d’un modèle de tissu cérébral, l’algorithme utilisé et un schéma de simulation, le tout couplé à une architecture informatique spécifique sur laquelle l’exploiter. Utilisant un modèle hybride de boîte grise combinant des propriétés biologiques et algorithmiques à des spécifications de matériel, les scientifiques ont identifié des goulots d’étranglement des performances sous différents régimes de simulation, correspondant à une quantité de questions scientifiques liées au prototype auxquelles il est possible de répondre en simulant des réseaux de neurones biologiques. L’analyse était basée sur une architecture matérielle de calcul haute performance (HPC) de pointe et appliquée à des simulations de réseaux de neurones déjà publiées (le modèle Brunel, l’original et une version simplifiée du Reconstructedmicrocircuit, microcircuit reconstruit du Blue Brain Project) qui ont été sélectionnées pour représenter des modèles de neurones importants dans la littérature.

Francesco Cremonesi, le premier auteur de l’étude, explique: «Pour la première fois, nous avons appliqué des techniques de modélisation des performances analytiques avancées et quantitatives au domaine des simulations du tissu cérébral à l’échelle cellulaire. Cela nous a donné un éclairage nouveau sur les types de modèles requérant un certain type de matériel et sur la manière dont nous pouvons améliorer leur efficacité (et ainsi simuler des modèles plus grands sur le même matériel). Nous pensons que cela constitue une contribution importante à la communauté scientifique qui a parfois tendance à comparer les modèles de tissu cérébral uniquement en fonction du nombre de neurones et de synapses, mais à ignorer les différences importantes des coûts informatiques selon le niveau de détail des modèles», conclut-il.

Une découverte majeure pour affronter l’avenir incertain de l’informatique

La loi de Moore étant en perte de vitesse et pouvant même s’arrêter dans un avenir plutôt proche, il est devenu crucial de comprendre quelles propriétés matérielles constituent un facteur limitant du calcul actuel et des systèmes futurs, et quels problèmes ne peuvent être résolus en l’absence de nouvelles méthodes, de nouveau matériel, etc. Par conséquent, cette connaissance détaillée de l’élément d’un système informatique (p. ex. bande passante de la mémoire, temps de réponse du réseau, vitesse de traitement, etc.) le plus pertinent pour résoudre un problème scientifique est indispensable pour le futur, car il fournit un cadre quantitatif et systématique dans lequel ces futurs développements doivent avoir lieu en priorité.

Felix Schürmann, auteur de l’étude, explique: «Ce travail fournit un cadre de travail formel nécessaire depuis longtemps qui permet une discussion quantitative entre les modélisateurs in silico, les chercheurs de logiciel à performance élevée et les architectes du matériel. La méthodologie développée dans ce travail constitue un moyen quantitatif grâce auquel ces communautés de scientifiques peuvent collaborer à la conception et à l’optimisation des logiciels et matériels du futur, destinés à la génération suivante de simulations du tissu cérébral», poursuit-il.

Références

Cremonesi, F., Schürmann, F., Understanding computational costs of cellular-level brain tissue simulations through analytical performance models, Neuroinformatics, Jan 2020