![Modular and Scalable Computational Imaging: Pyxu (pronounced [piksu], formerly k](/news/wire/un_logiciel_modulaire_pour_la_reconstruction_d_images_scientifiques-2024-epfl/image.jpg)
Teleskope, Mikroskope, Tomographen und andere Aufnahmemittel ermöglichen es, manchmal in Bewegung, immer kleiner und weiter zu sehen oder das Innere von Lebendigem wie auch von Leblosem unverfälscht darzustellen. Doch selbst wenn diese Geräte an ihre Grenzen stoßen, produzieren sie nur Teilbilder oder Bilder, deren Qualität nicht ausreicht, um sie zum Sprechen zu bringen. Leistungsstarke Algorithmen übernehmen dann die Aufgabe, verlorene Lichtinformationen wiederherzustellen, die Auflösung und Kontraste zu verbessern oder auch Volumen zu rekonstruieren. Diese Techniken, die in letzter Zeit beispiellose Fortschritte gemacht haben, sind zu unverzichtbaren Pfeilern der Forschung in zahllosen Bereichen geworden. Obwohl die zugrunde liegenden physikalischen Prinzipien sehr oft ähnlich sind, haben die Spezialisten in den verschiedenen Bereichen Gruppen von Algorithmen entwickelt, die ebenso leistungsstark wie spezifisch sind und von den Forschern eine große Anpassungsleistung und Übersetzung erfordern, sobald sie sie aus ihrer Komfortzone herausholen. "Wir hatten das Gefühl, dass wir ständig dieselben Teile des Codes neu schreiben mussten, um diese Methoden anzupassen", erklärt Sepand Kashani, Doktorand am Laboratorium für audiovisuelle Kommunikation (LCAV) der EPFL. Zusammen mit Matthieu Simeoni und Joan Rué Queralt, dem ehemaligen und aktuellen Leiter des Bildrekonstruktions-Hubs am Imaging Center der EPFL, machte er sich deshalb daran, eine föderative Software zu entwickeln, die es ermöglicht, diese Programme unabhängig vom Forschungsgebiet zu nutzen. Pyxu, heute Open Source, war geboren.
Die Landschaft der computergestützten Bildgebung hat sich in den letzten Jahren mit dem Aufkommen des Deep Learning radikal verändert. Der Einsatz von Technologien, die auf künstlicher Intelligenz basieren, hat schnell zu einer höheren Leistung als herkömmliche Algorithmen geführt
Martin Vetterli, Professor am Laboratorium für audiovisuelle Kommunikation
Von der Abbildung des Weltraums bis zur Abbildung von Molekülen: universelle physikalische Konzepte
"Die universellen physikalischen Konzepte, die mit der Bildgebung verbunden sind, finden sich oft in identischer Weise über die Bereiche hinweg wieder", betont Joan Rué Queralt, Leiter des Hub für Bildrekonstruktion am Zentrum für Bildgebung. Rekonstruktionsprobleme lassen sich daher in einige Kategorien einteilen, bei denen die verwendeten mathematischen Modelle ähnlich sind: Röntgenstrahlen und Tomografie, MRT und Radioastronomie sowie einige andere." Auf diese Weise ist es möglich, agnostische Software anzubieten. "Die Methoden haben Schwierigkeiten, in anderen Forschungsbereichen bekannt zu werden: Wir beobachten, dass überall Forscher viel Aufwand betreiben, um Programme zu entwickeln, die denen ähneln, die es bereits gibt. Das verlangsamt den Fortschritt in der Bildgebung in allen Bereichen".Pyxu wurde so konzipiert, dass es domänenunabhängig eingesetzt werden kann und die nahtlose Integration von hochmodernen KI-Technologien erleichtert. "Die Landschaft der computergestützten Bildgebung hat sich in den letzten Jahren mit dem Aufkommen des Deep Learning in der Tat radikal verändert", erklärt Martin Vetterli, Professor am LCAV. Der Einsatz von Technologien, die auf künstlicher Intelligenz basieren, hat schnell zu einer höheren Leistung als bei herkömmlichen Algorithmen geführt." Diese Algorithmen sind beispielsweise darauf trainiert, auf der Grundlage eines Vergleichs zwischen Bildern von ausgezeichneter Qualität und dem Ergebnis von Rekonstruktionen anschließend automatisch die verschiedenen Korrekturen durchzuführen, die für ein korrektes Ergebnis und den Vergleich der Daten untereinander erforderlich sind.
Die Entwicklung von Pyxu, das vom Zentrum für Bildgebung der EPFL und dem LCAV initiiert wurde, sowie der Open-Source-Plattform erforderte intensive Vereinheitlichungsarbeit. "Eine der größten technischen Schwierigkeiten bestand darin, dass es sowohl anpassungsfähig sein muss, um große Datensätze zu verarbeiten, als auch mühelos auf verschiedenen IT-Infrastrukturen in einer Vielzahl von Hardwarekonfigurationen einsetzbar sein muss", stellt Sepand Kashani fest.