Künstliche Intelligenz und maschinelles Lernen sind Schlüsseltechnologien für Wissenschaft, Wirtschaft und Gesellschaft. Doch wie zuverlässig funktionieren sie? Andreas Krause, Rössler-Preisträger 2021 und Vorsitzender des ETH AI Centers, über die Chancen und Herausforderungen vertrauenswürdiger KI.
Herr Krause, Sie sind einer der führenden Forscher für maschinelles Lernen und künstliche Intelligenz (KI) in Europa. Gibt es Aufgaben, die Sie vor zehn Jahren noch selbst erledigten, heute jedoch an intelligente Computerprogramme delegieren?
Im Hintergrund gibt es tatsächlich schon einige sehr nützliche Technologien, bei denen künstliche Intelligenz und maschinelles Lernen meine tägliche Arbeit erleichtern: Die Literaturrecherche wird massgeblich durch Empfehlungssysteme unterstützt und Sprachverstehen sowie Sprachübersetzung funktionieren heute zu grossen Teilen automatisiert. Das war vor zehn Jahren noch nicht möglich.
Kann eine künstliche Intelligenz auch Probleme verstehen, die ein Mensch selbst noch nicht verstanden hat?
Es ist schwierig zu definieren, was «verstehen» konkret bedeutet. Maschinen sind in der Lage effizient komplexe, statistische Muster aus grossen Datensätzen zu extrahieren und berechnungstechnisch zu verwerten. Das heisst nicht, dass sie diese in irgendeiner Art und Weise «verstehen». Die bestehenden maschinellen Lernverfahren sind dennoch sehr nützlich für spezialisierte Aufgaben. Es ist allerdings nach wie vor eine Eigenheit des Menschen, dass er sein Wissen Übertragen und sehr verschiedene, komplexe Aufgaben schnell lernen und lösen kann. Davon sind wir in der künstlichen Intelligenz weit entfernt.
Sowohl in der Informatik als auch in vielen anderen Disziplinen leisten wir an der ETH exzellente KI-Forschung. Speziell in datenwissenschaftlichen Teilgebieten wie dem Maschinellen Lernen, dem Bildverstehen und dem Sprachverstehen, aber auch in Anwendungen wie dem Gesundheitswesen, der Robotik, etc. Da viele der spannendsten Fragen an den Schnittstellen der Disziplinen entstehen, sehe ich Chancen in der systematischen Zusammenarbeit. Darum haben wir das ETH AI Center fachübergreifend etabliert und uns der europäischen Initiative für maschinelles Lernen ELLIS angeschlossen. Diese Vernetzung ist der Schlüssel. Nur, wer die technologische Leadership hat, kann die Entwicklung der KI massgeblich beeinflussen und sicherstellen, dass europäische Werte in die nächste Generation der KI einfliessen.
Was bedeuten «europäische Werte» im Zusammenhang mit KI?
Dass wir die technologische Entwicklung und ihre Wirkungen auf unsere Wirtschaft und freiheitliche Gesellschaft reflektieren. So hat der Schutz der Privatsphäre beispielsweise in Europa einen hohen Stellenwert. Daraus ergeben sich neue Fragen, wie KI-Technologien zu entwickeln sind. Dabei spielen Zuverlässigkeit, Fairness, und Nachvollziehbarkeit eine zentrale Rolle, denn sie betreffen hochrelevante Fragen der gesellschaftlichen Akzeptanz, der Inklusion und des Vertrauens in die KI.
Was sind aktuell die Herausforderungen auf dem Weg zu einer vertrauenswürdigen KI?
KI und maschinelles Lernen sollen so zuverlässig und beherrschbar sein wie klassische Softwaresysteme, und sie sollen komplexe Anwendungen ermöglichen, denen wir vertrauen können. Aus meiner Sicht besteht eine grosse Herausforderung darin, dass sich Vertrauenswürdigkeit von KI nur im Hinblick auf bestimmte Anwendungen bewerten lassen kann. Spezielle Fragen aus der Medizin lassen sich beispielsweise kaum direkt auf Fragen des Gerichtsoder Versicherungswesens Übertragen. Wir müssen also die konkreten Anforderungen einer Anwendung kennen, um eine vertrauenswürdige und zuverlässige KI zu entwickeln.
Worauf kommt es an, dass intelligente Lernverfahren zuverlässig sind?
Zuverlässigkeit ist ein zentrales Thema für die Akzeptanz der neuen KI-Technologien. Welche konkreten Anforderungen hier bestehen, hängt wiederum sehr von der jeweiligen Anwendung ab. Wenn ein Empfehlungssystem einen Film vorschlägt, der jemandem nicht gefällt, dann haben die Konsequenzen nicht dieselbe Tragweite wie wenn ein medizinisches Unterstützungssystem oder ein selbstfahrendes Auto einen Fehler machen. In diesen Anwendungen sind die Anforderungen an die Zuverlässigkeit und die Sicherheit der Methoden ungleich höher.
Und wenn sich doch Fehler einschleichen?
Indem wir systematisch untersuchen, welche Arten von Fehlern auftreten, können wir sie reduzieren und bestmöglich verhindern. Dabei ist es insbesondere wichtig, dass Lernverfahren kein unerwartetes Fehlverhalten an den Tag legen.
Gibt es Beispiele für unerwartetes Fehlverhalten?
Zum Beispiel gibt es Bilderkennungssysteme für selbstfahrende Autos, die Verkehrszeichen erkennen. Mitunter reicht es bereits, dass jemand einen Sticker über ein Verkehrszeichen klebt und schon funktioniert die maschinelle Erkennung nicht mehr. Dieses Fehlverhalten ist für Menschen, die sich durch Sticker nicht täuschen lassen würden, äusserst unerwartet. Hier muss man neue Methoden finden, die diese Störeinflüsse zuverlässig ausblenden, und robuste Lernverfahren entwickeln.
Zuweilen ist zu lesen, maschinelles Lernen müsse erklärbar sein, damit sich im Nachhinein nachvollziehen lässt, wie und warum ein Verfahren zu einem Ergebnis gekommen ist.
Genau. Auch Erklärbarkeit ist schwer zu definieren, und kann nur im Hinblick auf eine Anwendung konkretisiert werden. Aus meiner Sicht ist es nicht zwingend erforderlich, exakt zu verstehen, wie genau ein lernendes System seine Entscheidung getroffen hat. Wenn wir uns Überlegen, wie wir Menschen entscheiden, dann wissen wir ja auch nicht genau, aus welchen neurobiologischen Gründen ein Mensch eine bestimmte Entscheidung fällt. Aber Menschen haben die Möglichkeit, ihre Entscheidungen nachvollziehbar darzulegen. Diese Fähigkeit müssen wir versuchen, bei maschinellen Lernverfahren nachzubilden. Bei der Klassifikation von Verkehrszeichen kann man beispielsweise versuchen, herauszufinden, ob sich ein Lernmodell an Hintergrundeigenschaften oder nebensächlichen Merkmalen orientiert anstatt an relevanten Eigenschaften der Verkehrszeichen.
Wenn ein Fehler erkannt ist, wird das Lernverfahren angepasst?
Ja. Nur müssen wir in jedem Fall zuerst einmal verstehen, was das Problem ist, damit wir die Lernmodelle so trainieren können, dass die Fehler nicht mehr auftreten.
Ist es für Sie nachvollziehbar, wenn sich jemand bei der künstlichen Intelligenz an Goethes Zauberlehrling erinnert fühlt: «Die ich rief, die Geister Werd ich nun nicht los»
Das ist auch durch Science-Fiction, Hollywoodfilme und Belletristik beeinflusst. Als Forscher mache ich mir eher Sorgen über den blinden Einsatz oder den Missbrauch der bestehenden Technologien, und die möglichen Konsequenzen, die aus mangelnder Zuverlässigkeit oder durch Diskriminierung entstehen können. Es ist aber wichtig, dass wir uns nicht von Éngsten leiten lassen, sondern wir müssen uns den Herausforderungen stellen. Nur so können wir die Technologie proaktiv mitgestalten und zum Wohle der Gesellschaft einsetzen.
Welche Rolle spielen ethischen Fragen?
Bei Lernverfahren, die potenziell Konsequenzen haben für die Menschen, sind hohe ethische Standards zwingend erforderlich, um sicherstellen, dass die Ergebnisse fair sind und niemanden diskriminieren. Dies erfordert die Zusammenarbeit zwischen verschiedenen Fachgebieten. Die Antwort auf eine ethische Frage kann nicht rein technologisch sein. Kein Informatiker kann beispielsweise in einer verallgemeinerten Weise für sich allein Überlegen, wie ein lernendes System zu entwickeln ist, damit es faire Entscheidungen trifft.
Was geben Sie Studierenden mit auf den Weg, die sich mit KI in der Wirtschaft etablieren wollen?
Die Grundlagen, insbesondere in Mathematik und Informatik, sind sehr wichtig. Zugleich sollte man aufgeschlossen sein für neue Fragen und sich auf konkrete Projekte mit Partnern aus verschiedenen Anwendungsbereichen einlassen. Schliesslich gilt es, eine gewisse Gelassenheit zu bewahren in einem Feld, das sich so wahnsinnig schnell entwickelt wie die KI. Besser als dem neusten Trend hinterherzurennen, ist es, sich die Zeit zu nehmen, um weiterzudenken und das Ganze zu reflektieren.
Andreas Krause
Andreas Krause ist Professor für Informatik an der ETH Zürich. Zudem ist er akademischer Co-Direktor des Swiss Data Science Center , Vorsitzender des ETH AI Center und Mitgründer des ETH Spin-offs LatticeFlow. Er war federführend am Aufbau des Masterprogramms Data Science , des DAS Data Science und der meistbesuchten ETH-Vorlesung «Introduction to Machine Learning» beteiligt. 2012 erhielt er eine Goldene Eule der ETH-Studierenden für ausgezeichnete Lehre. Zuletzt gewann er den Rössler-Preis , den höchstdotierten Forschungspreis an der ETH Zürich.
Serie « Auf dem Weg zu einer vertrauenswürdigen KI »
Mit der Gründung des ETH AI Centers im Oktober 2020 hat sich die ETH Zürich die Förderung vertrauenswürdiger, zugänglicher und inklusiver KI-Systeme verschrieben. In einer Serie von Interviews und Porträts beleuchtet ETH-News, was diese Werte für Forscherinnen und Forscher an der ETH bedeuten.
ETH AI Center
Einblick in die neuesten KI-Forschungsergebnisse und ihre möglichen Auswirkungen geben auch die Videos aus der Serie «AI + X» mit Mitgliedern des ETH AI Center.