Come il cervello percepisce la posizione e il movimento del corpo

- EN- DE- FR- IT
Braccio umano con muscoli che reggono un cervello creato in MyoSuite. Credito: A
Braccio umano con muscoli che reggono un cervello creato in MyoSuite. Credito: Alessandro Marin Vargas/EPFL
I ricercatori dell’EPFL utilizzano le reti neurali artificiali per studiare la propriocezione, cioè il senso utilizzato dal cervello per "conoscere" la posizione e i movimenti del corpo.

Come fa il nostro cervello a conoscere la posizione e i movimenti delle diverse parti del corpo? Conosciuto comunemente come propriocezione, questo "sesto senso" ci permette di muoverci liberamente senza dover guardare continuamente i nostri arti.

La propriocezione coinvolge una complessa rete di sensori sensoriali nei nostri muscoli. Questi sensori trasmettono al cervello informazioni sulla posizione e sui movimenti degli arti. Tuttavia, si sa poco di come il cervello riunisca i vari segnali che i nostri muscoli gli trasmettono.

Un recente studio guidato da Alexander Mathis dell’EPFL fa luce su questa questione, esaminando come il nostro cervello sviluppi una percezione coerente della posizione e dei movimenti del nostro corpo. Pubblicato sulla rivista Cell, lo studio è stato condotto dai dottorandi Alessandro Marin Vargas, Axel Bisi e Alberto Chiappa e si basa sui dati sperimentali di Chris Versteeg e Lee Miller della Northwestern University.

"È generalmente accettato che i sistemi sensoriali debbano sfruttare le regolarità statistiche dell’ambiente. Questa teoria potrebbe spiegare molte proprietà dei sistemi visivi e uditivi", spiega Alexander Mathis. "Per generalizzare questa teoria alla propriocezione, abbiamo usato simulatori muscoloscheletrici per calcolare le statistiche di attivazione legate al movimento dei sensori sensoriali distribuiti lungo i nostri arti".

I ricercatori hanno utilizzato questa modellazione muscolo-scheletrica per produrre segnali di fuso neuromuscolare distribuiti in tutto l’arto superiore, al fine di creare un "repertorio su larga scala di movimenti naturali". Questo repertorio ha permesso di addestrare migliaia di modelli di reti neurali artificiali "orientati al compito" su sedici compiti computazionali, ognuno dei quali fa riferimento a un’ipotesi scientifica sulle computazioni eseguite dalla via propriocettiva, che comprende parti del tronco encefalico e della corteccia somatosensoriale.

Utilizzando questo approccio, il team ha condotto un’analisi approfondita dell’influenza di diverse architetture di reti neurali e compiti computazionali sull’elaborazione cerebrale delle rappresentazioni delle informazioni propriocettive. Hanno scoperto che i modelli di rete neurale addestrati su compiti che prevedono la posizione e la velocità dell’arto erano i più predittivi dell’attività neurale, indicando che il nostro cervello integra principalmente l’attività del fuso neuromuscolare per comprendere la posizione e il movimento del corpo.

Questa ricerca evidenzia il potenziale della modellazione guidata dal compito nelle neuroscienze. A differenza dei metodi tradizionali che cercano di prevedere direttamente l’attività neurale, i modelli addestrati a risolvere compiti computazionali possono fornire informazioni sui principi computazionali alla base dell’elaborazione sensoriale.

Questa ricerca apre anche la strada a nuovi percorsi sperimentali nelle neuroscienze. Una migliore comprensione dell’elaborazione propriocettiva potrebbe portare a importanti progressi nelle neuroprotesi, con un controllo più naturale e intuitivo degli arti artificiali.

Riferimenti

Alessandro Marin Vargas, Axel Bisi, Alberto Chiappa, Chris Versteeg, Lee Miller, Alexander Mathis. Modelli di rete neurale orientati al compito predicono le dinamiche neurali della propriocezione. Cell 21 marzo 2024. DOI: 10.1016/j.cell.2024.02.036