Software modulare per la ricostruzione di immagini scientifiche

- EN- DE- FR- IT
Imaging computazionale modulare e scalabile: Pyxu (pronunciato [piksu], preceden
Imaging computazionale modulare e scalabile: Pyxu (pronunciato [piksu], precedentemente noto come Pycsou) è un framework Python open-source che consente agli scienziati di qualsiasi livello di prototipare/dispiegare rapidamente pipeline di imaging computazionale accelerate dall’hardware e out-of-core su scala. (Fonte: pyxu-org.github.io)
Per facilitare e accelerare la ricostruzione delle immagini a tutte le scale, gli scienziati dell’EPFL propongono un programma sotto forma di blocchi di algoritmi riutilizzabili e universali.

Telescopi, microscopi, tomografi e altri mezzi di acquisizione permettono di vedere, a volte in movimento, sempre più in piccolo, più lontano, o di visualizzare l’interno della materia sia vivente che inerte senza alterazioni. Ma questi dispositivi, anche se spinti al limite, producono immagini parziali o di qualità insufficiente per farle parlare da sole. Potenti algoritmi intervengono quindi per ripristinare le informazioni luminose perdute, migliorare la risoluzione e il contrasto o ricostituire i volumi. Queste tecniche, che di recente hanno registrato progressi senza precedenti, sono diventate pilastri essenziali della ricerca in innumerevoli campi. Sebbene i principi fisici sottostanti siano molto spesso simili, gli specialisti di diversi settori hanno sviluppato gruppi di algoritmi tanto potenti quanto specifici, che richiedono un grande sforzo di adattamento e traduzione da parte dei ricercatori non appena escono dalla loro zona di comfort. "Avevamo l’impressione di riscrivere sempre gli stessi pezzi di codice per adattare questi metodi", spiega Sepand Kashani, dottorando presso il Laboratorio di Comunicazione Audiovisiva (LCAV) dell’EPFL. Così, insieme a Matthieu Simeoni e Joan Rué Queralt, l’ex e l’attuale responsabile del polo di ricostruzione delle immagini presso il Centro di Imaging dell’EPFL, ha iniziato a sviluppare un pacchetto software che consentisse di utilizzare questi programmi indipendentemente dal campo di ricerca. È nato così Pyxu, ora open source.

Il panorama dell’imaging computazionale ha subito un cambiamento radicale negli ultimi anni con l’avvento del deep learning. L’uso di tecnologie basate sull’intelligenza artificiale ha portato rapidamente a prestazioni superiori a quelle degli algoritmi convenzionali.

Martin Vetterli, professore presso il Laboratorio di Comunicazione Audiovisiva

Dall’immagine dello spazio a quella di una molecola: concetti fisici universali

I concetti fisici universali associati all’imaging sono spesso identici in tutti i campi", spiega Joan Rué Queralt, responsabile dell’Image Reconstruction Hub del Centro di Imaging. I problemi di ricostruzione possono quindi essere raggruppati in alcune categorie per le quali i modelli matematici utilizzati sono simili: raggi X e tomografia, risonanza magnetica e radioastronomia, oltre a pochi altri". In questo modo è possibile offrire un software agnostico. "I metodi faticano a farsi conoscere in altri settori di ricerca: vediamo che i ricercatori di tutto il mondo si impegnano molto per sviluppare programmi simili a quelli già esistenti. Questo rallenta il progresso dell’imaging in tutti i campi".

Pyxu è stato progettato per essere utilizzato in modo indipendente dal dominio e per facilitare la perfetta integrazione di tecnologie AI all’avanguardia. Il panorama dell’imaging computazionale ha subito un cambiamento radicale negli ultimi anni con l’avvento del deep learning", spiega Martin Vetterli, professore del LCAV. L’uso di tecnologie basate sull’intelligenza artificiale ha rapidamente portato a prestazioni superiori rispetto agli algoritmi convenzionali". Questi algoritmi vengono addestrati, ad esempio, sulla base di un confronto tra immagini di ottima qualità e i risultati delle ricostruzioni, per poi implementare automaticamente le varie correzioni necessarie per ottenere un risultato corretto e confrontare i dati tra loro.

La progettazione di Pyxu, avviata dal Centro di Imaging dell’EPFL e dal LCAV, e della piattaforma open source ha richiesto un grande lavoro di unificazione. "Una delle principali difficoltà tecniche risiedeva nel fatto che doveva essere adattabile per l’elaborazione di grandi insiemi di dati e facilmente implementabile su varie infrastrutture informatiche, con un’ampia gamma di configurazioni hardware", osserva Sepand Kashani.

Meno codice e mattoni da assemblare

Gli utenti non devono più conoscere tutte le sottigliezze delle righe di codice. I moduli che rappresentano i diversi compiti vengono scelti e integrati nell’ordine desiderato, come un set di costruzione. Uno dei primi utenti, Nino Hervé, dottorando all’Università di Losanna, lo sta utilizzando per ricostruire i dati degli elettroencefalogrammi. "Dedurre l’attività di 5.000 connessioni neuronali da 200 misurazioni di elettrodi posizionati sul cuoio capelluto è una sfida. Per affrontarla efficacemente, abbiamo bisogno di un framework in grado di gestire i problemi di ottimizzazione. Pyxu implementa un gran numero di algoritmi di ottimizzazione all’avanguardia ed è ottimizzato per il calcolo parallelo, il che consente di accelerare la velocità di calcolo e quindi di alleggerire notevolmente il mio carico di lavoro". Il software, che è open source solo da pochi mesi, è già stato utilizzato in una serie di progetti di ricerca in radioastronomia, ottica, tomografia e scansione all’EPFL. "Il nostro piano prevede che i ricercatori possano creare nuovi modelli basati sui nostri e poi aggiungerli a beneficio dell’intera comunità scientifica", spiega Matthieu Simeoni, che ha avviato il progetto.

Una seconda versione più scalabile

La seconda versione di Pyxu, più scalabile, cioè adattabile a grandi quantità di dati, sta per essere resa open source. Il team continua a impegnarsi per migliorare il software e renderlo ancora più semplice da usare. Sta inoltre lavorando a stretto contatto con il Laboratorio di imaging biomedico dell’EPFL per trarre vantaggio dal recente lavoro di radicamento degli algoritmi di intelligenza artificiale in strutture matematiche. L’obiettivo è garantire che le ricostruzioni risultanti non siano solo visivamente interessanti ma anche matematicamente affidabili, il che è di fondamentale importanza per applicazioni sensibili come la diagnostica medica.