Unser Spiegelbild im Spiegel der KI

- EN- DE - FR- IT
Unser Spiegelbild im Spiegel der KI
Es ist nicht neu, Maschinen menschliche Züge zu verleihen, aber mit dem Aufkommen generativer künstlicher Intelligenzen nimmt der Anthropomorphismus eine neue Dimension an. Dieser Trend wirft entscheidende philosophische und ethische Fragen auf und definiert gleichzeitig unsere Beziehung zu Technologien neu.

Haben Sie jemals "Hallo" oder "Danke" zu ChatGPT gesagt? Wenn ja, dann haben Sie Anthropomorphismus betrieben. Dieses kompliziert auszusprechende Wort wird in Gesprächen über Künstliche Intelligenz (KI) immer häufiger verwendet. Aber was bedeutet es? Im Allgemeinen ist es die Tendenz, nichtmenschliche Dinge wie Tiere oder Gegenstände zu vermenschlichen und ihnen menschliche Eigenschaften zu verleihen.

Heute geht der Begriff Anthropomorphismus weit über humanoide Roboter hinaus und wird auch auf Software angewendet, die KI und insbesondere generative Künstliche Intelligenz (GKI) verwendet. Im Gegensatz zu spezialisierten KIs, die für bestimmte Aufgaben wie die Gesichtserkennung eingesetzt werden, sind KIs wie ChatGPT so konzipiert, dass sie Text, Bilder oder andere Formen von Inhalten als Antwort auf eine Vielzahl von Anfragen produzieren.

Auch wenn die Humanisierung der IAG-Tools fast unbemerkt bleiben würde, wirft dieser Trend Fragen über die Definition von Menschlichkeit und Intelligenz sowie über unsere Beziehung zu diesen neuen Technologien auf. Besteht ein Risiko, wenn man eine Maschine auf die gleiche Weise wie einen Menschen betrachtet?

Anthropomorphismus in den Genen der KI

Die Anfänge des technologischen Anthropomorphismus gehen auf das Jahr 1950 zurück. Alan Turing, ein britischer Mathematiker und Informatiker, schlug eine revolutionäre Art und Weise vor, über die Intelligenz von Maschinen nachzudenken. Sein berühmter "Turing-Test", bei dem ein menschlicher Beurteiler anhand eines schriftlichen Gesprächs feststellen muss, welcher Gesprächspartner ein Mensch und welcher eine Maschine ist, ermöglicht es, die Fähigkeit einer Maschine zu beurteilen, eine menschenähnliche Intelligenz zu zeigen.

Diese bahnbrechenden Arbeiten legten den Grundstein für die Debatte über Anthropomorphismus und unterstrichen unsere Tendenz, Maschinen menschliche Eigenschaften zuzuschreiben. "Unsere Erwartung an eine Technologie oder Maschine ist, dass sie präzise ist und eine Aufgabe schneller oder effizienter ausführt als ein Mensch. GUIs erscheinen uns menschlich, weil sie menschliche Eigenschaften besitzen: Sie sind ungenau, passen sich unseren Fragen und Antworten an und können überraschend sein", erklärt Daniel Huttenlocher, Dekan des Schwarzman College of Computing am MIT (Masaschussets Institute of Technology) und Ehrendoktor der EPFL 2024.

Technologien, die uns ähneln

In dem Begriff "künstliche Intelligenz" steckt zwar das Wort Intelligenz, aber vor allem der Begriff künstlich. Dennoch gilt: "Diese Systeme spiegeln große Datensätze und die Lernentscheidungen derjenigen wider, die sie entwerfen", erklärt Johan Rochel, Lehrbeauftragter und Forscher für Ethik und Recht der Innovation an der EPFL. "Sie spiegeln auch ihre Werte, Überzeugungen und Moralvorstellungen wider."

Diese Dimension des Anthropomorphismus entsteht in erster Linie bei der Gestaltung der Benutzeroberfläche dieser Systeme. Wenn die Nutzerinnen und Nutzer die KI vermenschlichen, dann gerade deshalb, weil ihr von ihren Entwicklerinnen und Entwicklern absichtlich mehrere menschliche Eigenschaften zugeschrieben wurden. Amazons Alexa hat zum Beispiel eine warme Stimme - und einen menschlichen Vornamen - und ChatGPT hat eine Höflichkeit und Freundlichkeit, die der eines Menschen nachempfunden ist. Diese Merkmale sollen unter anderem dazu dienen, die Benutzeroberfläche einfach und angenehm zu gestalten. "Die besten digitalen Werkzeuge werden mit dem Nutzer im Hinterkopf durchdacht und gebaut. Je intuitiver und angenehmer sie sein werden, desto eher wird man bereit sein, sie zu benutzen", betont Johan Rochel.

Es ist jedoch nicht so einfach, eine Illusion zu erzeugen. Marcel Salathé, Co-Direktor des KI-Zentrums der EPFL, erklärt: "Es handelt sich um eine echte technische Herausforderung. Damit ein System vollständig von einem Menschen unterscheidbar ist, müsste es die Feinheiten der Sprache perfekt beherrschen, Emotionen erkennen und entsprechend handeln und sich perfekt an die Persönlichkeit und die Bedürfnisse des jeweiligen Nutzers anpassen.

Verbindungen knüpfen

Wenn ChatGPT uns viel Glück für unsere Veranstaltung wünscht, nachdem wir sie nach Namensvorschlägen dafür gefragt haben, schafft er die Illusion einer Beziehung, wodurch die Interaktion verbindlicher und emotionaler wird. Anthropomorphismus wird somit zu einem strategischen Werkzeug bei der Gestaltung von KIs, weil er die Verbindung zwischen der Technologie und ihren Nutzerinnen und Nutzern herstellt.

Laut einer aktuellen Studie von Robert West an der EPFL , kann die Interaktion mit einer KI, die im Rahmen einer Debatte Zugang zu unseren persönlichen Daten hat, unsere Ansichten zu bestimmten Themen tatsächlich verändern. Dies wirft Fragen über die sozialen Auswirkungen solcher Systeme auf, die nicht mehr nur Werkzeuge sind, sondern zu Handelspartnern werden, die unsere Entscheidungen beeinflussen können.

Vertrauenswürdige virtuelle Partner?

Im Gesundheitswesen entstehen immer mehr anthropomorphe Dienstleistungen für Patientinnen und Patienten, sei es in Form von humanoiden Robotern oder Gesprächsrobotern, die für die moralische und emotionale Unterstützung geeignet sind. Die Humanisierung und Personalisierung dieser virtuellen Dienste schafft eine Art Vertrauensverhältnis und ist mehr als nur eine Verbindung.

"Die Nutzer sind zunehmend informiert und aufmerksam im Umgang mit digitalen Werkzeugen. Es gibt eine wachsende Nachfrage danach, dass diese vertrauenswürdig sind. Dieser Wunsch wird übrigens auch durch die Gesetzgebung unterstützt", erklärt Johan Rochel. "Obwohl die Definitionen von Vertrauen unterschiedlich sein können, ist eine der Schlüsselkomponenten, dass es in einer Beziehung von Mensch zu Mensch stattfindet. In diesem Fall haben wir es mit einer Mensch-Maschine-Beziehung zu tun. Alle Parameter, die die Illusion einer menschlichen Interaktion erzeugen, tragen zum Aufbau dieses Vertrauensverhältnisses bei. Dennoch sind diese Parameter nicht immer explizit". Ein perfektes Beispiel dafür ist der Text, der erscheint, während ChatGPT die Antwort auf eine Frage liefert. "Das erweckt den Eindruck, als würde jemand die Antwort schreiben, wie in einer E-Mail-Anwendung. Wir wissen natürlich, dass ChatGPT nicht menschlich ist, aber diese implizite Art, eine Interaktion von Mensch zu Mensch zu simulieren, trägt dazu bei, eine Verbindung herzustellen, eine Art Beziehung zu einer Maschine, die vorgibt, uns ähnlich zu sein."

Diese Illusion einer Beziehung kann über einfache höfliche Interaktionen hinausgehen. Bereits 2013 behandelte der Film HER diese Thematik mit seinem Protagonisten, dem Schauspieler Joaquin Phoenix, der sich in seine von Scarlett Johansson gespielte Sprachassistentin verliebt. Der Film stellt Fragen zu zwischenmenschlichen Beziehungen und dem Einfluss von GAIs auf unser Verhalten. "Eine vertrauensvolle Beziehung kann die Weitergabe von persönlichen und vertraulichen Informationen beinhalten, die in den falschen Händen verheerend sein können. Es gibt also Risiken im Zusammenhang mit der Vertraulichkeit", warnt Marcel Salathé.

Eine Frage der Verantwortlichkeiten und der Sicherheit

Wenn die KI uns gleichgestellt ist, könnte man ihr dann die Schuld für Fehler in unserem Aufsatz geben? Johan Rochel fragt sich: "Das würde bedeuten, dass die KI die gleiche Verantwortung wie ein Mensch übernehmen kann. Dabei wird jedoch vergessen, dass diese Intelligenz nur künstlich ist. Eine Maschine kann niemals verantwortlich sein, da sie nicht autonom ist. Sie ist nicht in der Lage, Entscheidungen über etwas anderes zu treffen als das, wofür sie programmiert wurde. Wir müssen also nach dem verantwortlichen Menschen hinter der Maschine suchen. Wer trägt die Verantwortung? Den Entwicklern oder den Nutzern?

"Ich verwende gerne die Metapher von der Gabel im Toaster", prallt Daniel Huttenlocher ab. "Wenn man sich die ersten Toaster aus den 1900er Jahren ansieht, wird einem schnell klar, dass man leicht einen Stromschlag bekommen konnte, wenn man eine Gabel in den Toaster steckte. Wir haben also Standards gegen falsche Verwendungen eingeführt, um zu verhindern, dass diese falschen Verwendungen selbst zum Standard werden. Dasselbe müssen wir mit der KI tun: Wir müssen Schutzmechanismen gegen Missbrauch einführen, rechtliche Verantwortlichkeiten festlegen und Standards schaffen, die von allen verstanden werden."

"Ein entscheidendes Element in diesen Diskussionen ist die Transparenz. Wenn man daran erinnert, dass es sich nur um eine Maschine handelt und dass sie Fehler machen kann, wird das Risiko eines Missbrauchs sinken", fügt Johan Rochel hinzu.

Die Transparenz und die Erklärbarkeit dieser Systeme stehen im Mittelpunkt der Debatten der Gesetzgeber. Der AI Act der Europäischen Union ist in dieser Hinsicht eindeutig: KI müssen so gestaltet und präsentiert werden, dass kein Zweifel daran besteht, dass sie nicht menschlich sind. Der Nutzer muss sich voll und ganz bewusst sein, dass er mit einer Maschine interagiert.

KI und Menschlichkeit: Eine Partnerschaft, die mit Bedacht aufgebaut werden muss.

"KI hat das Potenzial, uns viel zu lehren. AlphaGo hat Strategien gelernt, von denen die besten Spieler keine Ahnung hatten, und hat damit eine neue Dimension in das Go-Spiel gebracht", erzählt Daniel Huttelocher. "Ich sehe KI als einen Technologiepartner, der die menschlichen Fähigkeiten verbessert und nicht ersetzt."

"Während der Anthropomorphismus der KI die Einführung dieser Technologien erleichtert, wirft er auch tiefgreifende Fragen über den Platz des Menschen in einer Welt auf, in der Maschinen und Menschen zunehmend ununterscheidbar werden. In dem Maße, wie sich die KI weiterentwickelt, wird es entscheidend sein, darauf zu achten, dass diese Interaktionen, so natürlich sie auch erscheinen mögen, uns nicht von dem entfernen, was uns als Menschen ausmacht", bemerkt Marcel Salathé.

Johan Rochel schloss: "Designer, Aktionäre, Gesetzgeber und Nutzer sollten daher zusammenarbeiten, um sicherzustellen, dass diese Technologie ein Werkzeug für den Menschen bleibt und nicht zu einer Kraft wird, die ihn ersetzt oder manipuliert."