Die Informatikerin ist seit 1999 Professorin am Labor für Bildgebung und visuelle Darstellung der EPFL. Sie ist auch Mitglied des Lenkungsausschusses des Zentrums für Bildgebung der EPFL und Präsidentin des Schweizerischen Wissenschaftsrats.
Was können wir heute mit bildgebenden Verfahren noch nicht sehen?
Bei der Bildgebung ist alles eine Frage des Maßstabs. Vom unendlich Großen - dem Weltraum - bis zum unendlich Kleinen - dem Atom -, von der Struktur von Materialien bis zur medizinischen Diagnostik werden Fortschritte bei der räumlichen, zeitlichen und radiometrischen Auflösung erwartet. Mit empfindlicheren Instrumenten in diesen drei Dimensionen könnte noch mehr entdeckt werden.
Zum Beispiel?
Im Fall der Fernerkundung werden die Erfassungsgeräte immer leistungsfähiger und ermöglichen immer genauere Analysen der Bodenzusammensetzung und des Wassergehalts. Das hilft uns, z. B. die Auswirkungen des Anbaus besser zu modellieren und Lösungen für eine nachhaltige Landwirtschaft zu entwickeln.
Wir möchten auch Krebs in früheren Stadien erkennen, die Interaktionen im Inneren der Zellen besser verstehen, die Geheimnisse des Urknalls entschlüsseln und Spuren von Leben auf Exoplaneten finden. Fortschritte in der Zeitdimension mit einer Geschwindigkeit von tausend Bildern/Sekunde oder mehr werden uns helfen, die Bewegungen und das Verhalten bestimmter Tiere besser zu entschlüsseln.
Inwiefern ist künstliche Intelligenz für die Bilderzeugung entscheidend?
In der Raumfahrt ist es typisch: Sobald ein neues Teleskop in Betrieb genommen wird, gibt es mehr zu entdecken. Aber dass wir das erste Bild eines Schwarzen Lochs aufnehmen konnten, ist der KI zu verdanken. Das ist das Ergebnis eines iterativen Prozesses: Die Instrumente nehmen neue Bilder auf, mit denen die KI trainiert wird, die KI kann dann rekonstruieren, dann werden die Instrumente verbessert, die KI wird mit den neuen Bildern trainiert und so weiter. Das eine geht nicht ohne das andere.
Die Menge der Bilder ist für die KI entscheidend. Wir brauchen also Geräte, die eine große Menge an Bildern aufnehmen können.
Was ist mit der Analyse?
Bei der Analyse ist die KI, wenn sie gut trainiert ist, bereits besser als der Mensch. Brustkrebs wird heute von der KI besser erkannt als von Radiologen. Wir haben eine so große Menge an Mammographien, dass das System extrem gut trainiert ist. Aber genau das ist auch das Problem: Wenn das Bild einen Krebs zeigt, der nicht sehr häufig auftritt, oder wenn das System nicht mit genügend Beispielen trainiert wurde, wird die KI ihn wahrscheinlich nicht finden. Die Vielfalt der Bilder ist ebenfalls grundlegend, damit die KI gut funktioniert. Die maximale Zuverlässigkeit hängt von der Anwendung und davon ab, wie der Mensch und die KI trainiert werden. Weder das eine noch das andere ist zu 100 % zuverlässig.
Könnte die Simulation die Bildgebung ersetzen?
Mithilfe von KI können wir die Einschränkungen der physischen Erfassung ausgleichen. Man rekonstruiert Bilder, die besser sind als die von physischen Instrumenten. Bei der Superauflösung zum Beispiel erfasst man räumlich mit einer bestimmten Auflösung, mit KI kann man eine 2, 4 oder sogar 8 Mal feinere Auflösung erreichen. Das System stützt sich auf die wahrscheinlichste Information, die als Nächstes kommt. Selbst wenn es sich um eine Simulation oder Nachahmung handelt, kann man mit genügend Daten eine ziemlich hohe Wahrscheinlichkeit haben, dass um einen Pixel herum, den man erfasst hat, eine bestimmte Information kommen wird.
Man kann also simulieren, um zu sehen, was man mit bildgebenden Verfahren noch nicht sehen kann, aber es besteht eine Gefahr, da es keinen Beweis dafür gibt, dass es richtig ist.
Kann sich die KI komplett irren?
Ganz gewiss nicht. Die KI erstellt eine Nachahmung mit einer hohen Wahrscheinlichkeit, dass sie richtig ist, aber es ist keine physikalische Information - ein solches Bild sollte daher nicht in einer Forschung verwendet werden, die echte physikalische Signale erfassen will. Man könnte die gleiche Art von Fehlern haben, wie sie die Öffentlichkeit bei ChatGPT erlebt. KI funktioniert durch Training: Wenn sie nicht darauf trainiert wurde, eine bestimmte Art von Informationen oder ein bestimmtes Bild zu erkennen, wird sie es nicht finden. Sie ahmt lediglich nach, was sie bereits gesehen hat. Das Problem ist, dass die KI immer ein Bild oder eine Antwort erstellen wird. Sie wird niemals sagen: "Ich weiß es nicht". Je weiter man sich also außerhalb des Bereichs bewegt, desto weniger zuverlässig ist die Antwort des Systems, sei es die Generierung, die Rekonstruktion oder die Analyse.
Die Anwendung von KI auf die wissenschaftliche Bildgebung erfordert Transparenz und Redlichkeit.
Sabine Süsstrunk
Gefährdet die KI die Qualität und Glaubwürdigkeit wissenschaftlicher Veröffentlichungen?
Es ist klar, dass die Bilderzeugung das Fälschen erleichtern kann. Allerdings haben wir nicht auf die KI gewartet, um zu betrügen. Lange Zeit gab es weder Open Science noch die Frage der Reproduzierbarkeit. Hier geht es um die Ethik des Forschers oder der Forscherin.
Wie stellen Sie fest, ob die Ergebnisse zuverlässig sind?
Ich bin misstrauisch, wenn kein Code verfügbar ist und nicht klar ist, welche Art von Daten verwendet werden. Das sind die Kriterien für Reproduzierbarkeit. Im Übrigen glaube ich nicht an die Hälfte der Ergebnisse von Großunternehmen. Ich mache eine Ausnahme bei den Ergebnissen in der Medizin, weil es bei sensiblen Daten nicht immer möglich ist, sie zu veröffentlichen. Selbst wenn es den Code gibt, kann man die Ergebnisse oft nicht reproduzieren. Man findet ein paar Prozentpunkte weniger...
Kann man unbeabsichtigt betrügen, wenn man KI auf seine Daten anwendet?
Die Bildgebung nimmt in den Wissenschaften im Allgemeinen einen immer größeren Stellenwert ein, da die Analysewerkzeuge immer leistungsfähiger und billiger werden. Aber um KI richtig einzusetzen, muss man sich mit der Bildgebung auskennen und die Grenzen des Werkzeugs kennen. Ein Laie kann darauf hereinfallen. Es liegt in seiner beruflichen Verantwortung, sich weiterzubilden. Das Zentrum für Bildgebung der EPFL ist genau dabei auch behilflich, indem es Schulungen und Sommerkurse anbietet.
Bildgebende Verfahren haben das Unsichtbare in allen Größenordnungen sichtbar gemacht, schafft KI mit Deepfakes das Nichtvorhandene?
Es ist eine Frage der Anwendung. Deepfakes an sich sind keine Gefahr, es ist die Art und Weise, wie sie verwendet werden, die eine Gefahr darstellen kann, ähnlich wie die "Viralisierung" von Deepfakes in sozialen Netzwerken. Das Foto hat nicht auf die KI gewartet, um manipuliert zu werden und Bilder von etwas zu erzeugen, das es nicht gibt. Das Foto ist dazu da, um zu gefallen, und alles ist erlaubt. Es muss nur visuell plausibel sein. Wissenschaftliche Bilder hingegen müssen auch physikalisch realistisch sein, da sie dazu dienen, eine physikalische Größe objektiv zu messen oder zu visualisieren. Wissenschaftliche Bilder sollen nicht gefallen, sondern ermöglichen, Wissen in einem Bereich zu vermitteln.
Und schließlich: Kann nur die optische Bildgebung ein wahres Bild erzeugen?
Ja, auch wenn das optische Bild falsch sein kann, wenn man z. B. einen Fehler bei der Datenerfassung macht. Außerdem besteht das Problem des optischen Bildes darin, dass es Rauschen enthält. Man muss also immer eine Rekonstruktion vornehmen, und wenn man diese Rekonstruktion nicht richtig durchführt, kann das optische Bild beschädigt werden. Aber die Zuverlässigkeit des optischen Bildes ist besser als das von der KI erzeugte.
Ist die Rechenleistung ein Hindernis?
Der Aufbau von KI-Modellen ist sehr zeitaufwendig, es gibt Milliarden von Parametern, die trainiert werden müssen, was eine enorme Rechenleistung erfordert. Deshalb können sich das nur Giganten wie OpenAI oder Meta leisten. Die Modelle, die sie verwenden, sind jedoch Stiftungsmodelle (foundation models), die alles erzeugen können: Text, Bilder, Ton, Video.... In der Forschung konzentrieren wir uns jedoch auf Single-Task-Modelle, die z. B. nur Brustkrebs erkennen oder MRT-Bilder rekonstruieren können. Das ist viel weniger schwerfällig. SwissAI wird es uns ermöglichen, solche spezifischen Modelle zu machen.
Wie kann die KI verbessert werden?
Die Notwendigkeit der Annotation von Daten stellt ein echtes Problem dar. Wenn man einem Baby drei Bilder von Katzen gezeigt hat, kann es eine Katze erkennen. Für einen Algorithmus braucht man Tausende von Bildern und der Mensch muss ihm sagen, was das Bild darstellt, damit er zuverlässig lernt. Wenn man heute ein System trainiert, ohne die Daten zu annotieren, ist die Leistung dreimal schlechter als wenn die Daten annotiert sind. Wir brauchen wirklich Fortschritte bei diesem selbstgesteuerten Lernen, denn das schließt viele Anwendungen aus, bei denen man nicht viele Daten hat. Es wird noch eine Weile dauern, aber wir sind auf dem Weg dorthin.
Was bringt die Zukunft?
Wenn ich in die Zukunft blicken könnte, hätte ich bereits mein Start-up-Unternehmen gegründet! KI wird uns helfen, bessere Technologien für die Datenerfassung zu entwickeln. Es ist wirklich dieser iterative Prozess zwischen Technologie und KI: Ein besserer Sensor ermöglicht eine bessere Analyse, eine bessere Analyse ermöglicht eine Verbesserung der Sensoren.... Diese symbiotische Beziehung wird es uns ermöglichen, in allen Dimensionen, sowohl räumlich als auch zeitlich, Fortschritte zu machen. Wenn die Bildgebung voranschreitet, schreitet auch die Wissenschaft voran.