Ein Framework für maschinelles Lernen, das Bilder wie eine Netzhaut codiert

- EN- DE - FR- IT
Ein Framework für maschinelles Lernen, das Bilder wie eine Netzhaut codiert
Wissenschaftler der EPFL haben eine Methode des maschinellen Lernens entwickelt, um Bilddaten mit größerer Genauigkeit zu komprimieren als Berechnungsmethoden ohne Lernen. Diese Methode könnte für Netzhautimplantate und andere sensorische Prothesen nützlich sein.

Eine der größten Herausforderungen bei der Entwicklung besserer neuronaler Prothesen ist die sensorische Kodierung. Dabei geht es darum, die von Sensoren aus der Umwelt entnommenen Informationen in neuronale Signale umzuwandeln, die vom Nervensystem interpretiert werden können. Da die Anzahl der Elektroden in einer Prothese jedoch begrenzt ist, muss diese Informationsmenge reduziert werden. Gleichzeitig muss die Qualität der an das Gehirn übertragenen Daten erhalten bleiben.

Demetri Psaltis ( Labor für Optik ) und Christophe Moser ( Labor für angewandte photonische Geräte ) arbeiteten mit Diego Ghezzi vom Hôpital ophtalmique Jules-Gonin - Fondation Asile des Aveugles (zuvor Medtronic-Lehrstuhl für Neuroengineering an der EPFL) zusammen, um maschinelles Lernen auf das Problem der Datenkompression von mehrdimensionalen Bildern, wie Farbe oder Kontrast, anzuwenden. In ihrem Fall war das Ziel der Komprimierung das Downsampling bzw. die Verringerung der Anzahl der Pixel eines Bildes, das über eine Netzhautprothese übertragen werden sollte.

"Das Downsampling für Netzhautimplantate wird heute durch die Berechnung des Pixelmittelwerts erreicht, was im Grunde dem entspricht, was Grafikprogramme tun, wenn man die Größe einer Datei reduzieren möchte. Aber letztendlich ist es ein mathematischer Prozess. Es ist kein Lernprozess erforderlich", erklärt Diego Ghezzi.

"Wir haben festgestellt, dass die Anwendung eines lernbasierten Ansatzes zu besseren Ergebnissen bei der Optimierung der sensorischen Kodierung führte. Am überraschendsten war jedoch, dass, wenn wir ein unbelastetes neuronales Netz verwendeten, dieses lernte, selbstständig bestimmte Aspekte der Netzhautverarbeitung zu imitieren."

Genauer gesagt hat sich der maschinelle Lernansatz der Wissenschaftler, der als "Akteurmodell-Rahmen" bezeichnet wird, als besonders effektiv bei der Suche nach einem "idealen Punkt" für den Bildkontrast erwiesen. Diego Ghezzi nennt Photoshop als Beispiel. "Wenn Sie den Kontrastregler zu weit in eine Richtung bewegen, ist es schwieriger, das Bild zu sehen. Unser Netzwerk hat Filter entwickelt, die einige der Eigenschaften der Netzhautverarbeitung nachahmen."

Die Ergebnisse wurden kürzlich in der Zeitschrift Nature Communications veröffentlicht .

In-silico- und Ex-vivo-Validierung

Im Rahmen des Schauspielermodells arbeiten zwei neuronale Netze komplementär zueinander. Der Modellteil oder das Frontmodell fungiert als digitaler Zwilling der Netzhaut: Er wird zunächst darauf trainiert, ein hochauflösendes Bild zu empfangen und einen binären neuronalen Code zu erzeugen, der dem von einer biologischen Netzhaut erzeugten neuronalen Code so ähnlich wie möglich ist. Das Aktornetz wird dann trainiert, ein hochauflösendes Bild unterabzutasten, das einen neuronalen Code aus dem Vordergrundmuster auslösen kann, das dem Muster, das die biologische Netzhaut als Reaktion auf das Originalbild erzeugt, so ähnlich wie möglich ist.

Mithilfe dieses Rahmens testeten die Wissenschaftler unterabgetastete Bilder sowohl auf dem digitalen Zwilling der Netzhaut als auch auf Netzhäuten von Mauskadavern, die entfernt (explantiert) und in ein Kulturmedium gelegt worden waren. Beide Experimente zeigten, dass der Ansatz des Schauspielermodells Bilder erzeugte, die eine neuronale Reaktion auslösten, die der Reaktion des Originalbildes näher kam als ein Bild, das durch einen Berechnungsansatz ohne Lernen, wie die Berechnung des Pixelmittelwerts, erzeugt wurde.

Trotz der methodischen und ethischen Herausforderungen, die mit der Verwendung von explantierter Mausretina verbunden sind, ist es diese Ex-vivo-Validierung ihres Modells, die ihre Studie zu einer echten Innovation in diesem Bereich macht, so Diego Ghezzi.

"Wir können uns nicht nur auf das in silico Computermodell verlassen. Daher bestand das Ziel dieser Experimente darin, unseren Ansatz zu validieren."

Andere Sinneshorizonte

Das Team hat bereits an Netzhautprothesen gearbeitet , aber es war das erste Mal, dass sie den Rahmen des Schauspielermodells für die sensorische Kodierung nutzten. Diego Ghezzi sieht ein Potenzial für die Erweiterung der Anwendungen des Rahmens im Bereich der Wiederherstellung des Sehvermögens und darüber hinaus. Er fügt hinzu, dass es wichtig sein wird, festzustellen, inwieweit das Modell, das mit der Netzhaut von Mäusen validiert wurde, auf den Menschen übertragbar ist.

"Der nächste offensichtliche Schritt ist, zu sehen, wie man ein Bild weiter komprimieren kann, über die Verringerung der Pixel hinaus, so dass der Rahmen mit mehreren visuellen Dimensionen gleichzeitig spielen kann. Eine weitere Möglichkeit besteht darin, dieses Netzhautmodell auf die Ausgaben anderer Gehirnareale zu übertragen. Dieses Modell könnte sogar mit anderen Geräten wie Hörgeräten oder Gliedmaßenprothesen verbunden werden", schloss Diego Ghezzi.

Referenzen

Leong, F., Rahmani, B., Psaltis, D. et al. An actor-model framework for visual sensory encoding. Nat Commun 15, 808 (2024). https://doi.org/10.1038/s41467­’024 -45105-5