KI: Der Weg zu einem verantwortungsvollen Modell

- EN- DE - FR- IT
Die generative KI leidet unter verschiedenen Arten von Verzerrungen, die menschliche Fehler widerspiegeln. Wie kann man sich nicht in eine Falle locken lassen?

Was ist eine verantwortungsvolle KI? Bisher wurde noch keine einvernehmliche Definition formuliert oder verabschiedet. DerAI Act der Europäischen Union beschränkt sich bislang auf eine Liste von sieben Prinzipien für ethische KI: menschliche Intervention und Aufsicht; technische Robustheit und Sicherheit; Schutz der Privatsphäre und Datenverwaltung; Transparenz; Vielfalt, Nichtdiskriminierung und Fairness; gesellschaftliches und Ökologisches Wohlergehen und Rechenschaftspflicht.

Die Umsetzung dieser Grundsätze ist eine grosse Herausforderung, insbesondere wenn es um Verzerrungen geht, seien sie ideologischer, politischer, religiöser, sexistischer, rassistischer oder allgemein kognitiver Art. "Biases sind nicht neu, der Mensch hat enorm viele davon", erinnert Olivier Crochat, Direktor des Center for Digital Trust der EPFL (C4DT). "Die generative KI sollte es ermöglichen, dieses Problem sowohl für diejenigen, die die Algorithmen entwickeln, als auch für die Nutzerinnen und Nutzer anzugehen." Ein verzerrtes Ergebnis kann als Trainingsdaten für das Modell dienen und somit diese Verzerrung noch verschärfen. Generative KI-Systeme, die mit verzerrten Daten trainiert werden, reproduzieren also bestehende Ungleichheiten. Ob Einstellungsentscheidungen, Hypothekenkredite oder Gesichtserkennung - Verzerrungen können sich direkt auf das Leben des Einzelnen auswirken. Laut EU-Gesetz muss eine wirklich verantwortungsvolle generative KI daher nicht nur transparent und sicher sein, sondern auch aktiv gestaltet werden, um diese Verzerrungen zu erkennen und zu korrigieren.

Eine der Befürchtungen ist, dass Algorithmen , die mit Fake News, Verschwörungstheorien, Voreingenommenheit, Propaganda oder Zensur gefüttert werden, einen Resonanzboden bilden und zu einer Waffe für massive Desinformation werden. der Algorithmus wird a priori nicht schlechter sein als das, was es bereits gibt", bemerkt Olivier Crochat, "aber wenn er nicht korrigiert wird, wird er das Problem verewigen, und wenn er in grossem Massstab eingesetzt wird, wird dies schädliche Folgen haben." Ein Bericht der Initiative for Media Innovation (IMI), die an der EPFL angesiedelt ist, ist in diesem Sinne beruhigend. Er untersuchte die Wahlen von 2024, dem Jahr, in dem fast die Hälfte der Menschheit an die Urnen gerufen wurde. Die Expertinnen und Experten stellten fest, dass die KI die Wahlergebnisse tatsächlich nicht verändert hat. Ihre Auswirkungen waren also begrenzt. Dennoch hat die Verbreitung von manipulierten Inhalten, die durch Algorithmen verstärkt wurden, zu einer Fragmentierung der Meinungen beigetragen und ein Klima des allgemeinen Misstrauens geschürt.

Der IMI-Bericht betont, dass die digitale Manipulation zu Propagandazwecken nicht neu ist, aber die generative KI hat ihre Fähigkeit vervielfacht. "Wir haben es mit einem Wettlauf zwischen Erstellungs- und Erkennungswerkzeugen zu tun", kommentiert Touradj Ebrahimi, Professor mit Schwerpunkt Multimedia-Signalverarbeitung an der EPFL. Sein Labor entwickelt Werkzeuge zur Nachverfolgung und Erkennung von synthetischen Inhalten. "Es bleibt Informatik und wenn man weiss, was das Problem ist, kann man Lösungen finden, um es zu beheben", fügt der Direktor des C4DT hinzu. Wenn man eine Verzerrung korrigiert, wird sie zudem für Millionen von Nutzerinnen und Nutzern von vornherein verschwinden."

Die Frage der Verantwortlichkeit bleibt dennoch zentral. Die meisten generativen KI-Tools werden von privaten, gewinnorientierten Unternehmen entwickelt und eingesetzt, die die Verantwortung teilweise auf die Nutzer übertragen. Dies wirft ethische und rechtliche Fragen nach der Relevanz moralischer Werte bei der Steuerung von KI auf.

Der Algorithmus wird a priori nicht schlechter sein als das, was bereits vorhanden ist, aber wenn er nicht korrigiert wird, wird er das Problem verewigen, und wenn er in grossem Massstab eingesetzt wird, wird dies schädliche Folgen haben.

Olivier Crochat, Direktor des Center for Digital Trust (C4DT)

Eine geteilte Verantwortung

"Auch wenn die Nutzung von KI letztlich in der Verantwortung der Nutzer liegt, müssen Regulierungsmechanismen geschaffen werden, um absichtlichen oder versehentlichen Missbrauch zu verhindern - wie Sicherheitsschlösser bei Waffen oder sichere Verschlüsse bei Medikamenten", betont Sabine Süsstrunk, Professorin am Labor für Bilder und visuelle Darstellung der EPFL und Präsidentin des Schweizerischen Wissenschaftsrats. "Bewährte Strategien wie Zertifizierung, Regulierung und Bildung sind notwendig, um akzeptable Mindestleistungen zu gewährleisten, Verantwortlichkeiten zu klären und das Bewusstsein der Öffentlichkeit zu schärfen."

Johan Rochel, Dozent für Recht und Ethik der KI an der EPFL und Co-Direktor des ethix Lab for Innovation Ethics, erklärt, dass Verantwortung nicht binär verteilt ist, sondern als Verteilung entlang der gesamten Wertschöpfungskette betrachtet werden muss. Jede Software-Entwicklungsentscheidung beinhaltet ethische Überlegungen und Abwägungen, die lange bevor ihre tatsächlichen Konsequenzen sichtbar werden, antizipiert werden müssen.

Das Mehr ist nicht immer das Bessere

Ein weiterer entscheidender Parameter ist schliesslich die immense Menge an Daten, die zum Trainieren der Modelle der generativen KI verwendet werden. Viele Datenbanken stammen aus dem privaten Sektor, ohne Transparenz über ihre Herkunft. Auf die Frage nach dem geistigen Eigentum oder der Repräsentativität der Daten schieben die grossen Technologieunternehmen ethische Bedenken oft beiseite und argumentieren, dass mehr zu besseren Ergebnissen führt und somit die Leistung der KI verbessert.

"Mehr Daten sind nicht unbedingt besser - was zählt, sind bessere Daten", betont Johan Rochel. Das Argument der Quantität darf nicht über ethischen Erwägungen stehen" Sabine Süsstrunk fügt hinzu: "Wenn die Daten urheberrechtlich geschützt sind, müssen sie lizenziert, gekauft oder einfach nicht verwendet werden. Da die Anwendung der Urheberrechtsgesetze in den verschiedenen Rechtsordnungen widersprüchlich ist, bleibt die derzeitige Situation leider sehr unbefriedigend."

Transparente und verantwortungsvolle Nutzung
Wie viele andere Institutionen, Unternehmen oder Hochschulen hat auch die EPFL Grundsätze für die Nutzung generativer KIs aufgestellt. Während die Hochschule das enorme Potenzial dieser Werkzeuge anerkennt, befürwortet sie deren Nutzung auf informierte, verantwortungsvolle und transparente Weise.
"Informiert" bedeutet insbesondere, dass sich der/die Nutzer/in der Grenzen und Risiken des Werkzeugs bewusst ist und ihm keine persönlichen oder vertraulichen Daten vorlegt.
Verantwortungsbewusster Umgang mit generativen KIs bedeutet, dass der/die Nutzer/in die Richtigkeit, Objektivität, Qualität oder die Einhaltung von Urheberrechten der von ihm/ihr generierten Inhalte überprüfen muss. Letztendlich ist er immer für diese Inhalte verantwortlich. Der Nutzer sollte sich auch der energetischen Auswirkungen des Einsatzes dieser Werkzeuge bewusst sein.
Schliesslich verlangt die Transparenz zum Beispiel, dass man seinem Gesprächspartner oder seinen Gesprächspartnern gegenüber erwähnt, wenn ein Inhalt von der KI generiert wurde.
Die EPFL veröffentlicht und aktualisiert auf ihrer Website ihre Grundsätze zur Nutzung generativer KI , die für ihre verschiedenen Zielgruppen bestimmt sind.

01.
Wie kann man Kriminelle auf Signal oder WhatsApp erkennen?

07.
Kleine KI-Sprachmodelle für mehr Effizienz