Peter G. Kirchschläger, wo liegen Ihrer Meinung nach aktuell die grössten gesellschaftlichen Herausforderungen im Zusammenhang mit Künstlicher Intelligenz und welchen Beitrag kann die Ethik leisten, diese zu bewältigen?
Peter G. Kirchschläger : Die Verletzungen der Menschenrechte - insbesondere der Privatsphäre und des Datenschutzes sowie des Menschenrechts auf politische Mitbestimmung - bilden aktuell die grössten gesellschaftlichen Herausforderungen. Wenn immer möglich, werden von uns Daten gesammelt und dem Meistbietenden verkauft. Dank dieser Unmenge von Daten über uns kennt uns die sogenannte KI besser als wir uns selbst. Damit ist Tür und Tor für eine ökonomische Manipulation von uns als Konsumierende und politische Manipulation von uns als Stimmberechtigte geöffnet. Die sogenannte KI weiss genau, welche Klaviertasten sie sozusagen spielen muss, damit bei uns die Musik erklingt - sprich: damit wir so einkaufen oder politisch so wählen oder abstimmen, wie sie das will. Algorithmen sind nie neutral und objektiv. Ein weiteres Problem stellt die Desinformation von Nutzerinnen und Nutzern dar.
Unsere Aufgabe als Ethikerinnen und Ethiker ist es, die ethischen Chancen und Risiken zu identifizieren und Lösungen aufzuzeigen, wie die Chancen genützt und die Risiken gemeistert oder vermieden werden können.
Statt von «künstlicher Intelligenz» zu sprechen, plädieren Sie eher für die Verwendung des Begriffs «datenbasierte Systeme» - warum?
Die Idee, dass «datenbasierte Systeme (DS)» über echte Intelligenz verfügen, ist ein Mythos. Gewisse Intelligenzbereiche bleiben für Maschinen unerreichbar: emotionale und soziale Intelligenz aufgrund von mangelnder Emotionalität, Moralfähigkeit wegen fehlender Freiheit. Selbst eine grosse Datengrundlage erzeugt nicht echte Gefühle, sondern kann höchstens zur Perfektion der Nachahmung von menschlichen Emotionen beitragen. Umfangreiche Daten vermögen es nicht, bei Maschinen am Fehlen von Freiheit etwas zu ändern, denn - bildlich gesprochen - geht die erste Linie eines Codes immer auf Menschen zurück, sprich: Maschinen bleiben hinsichtlich von ethischen Prinzipien und Normen in der Fremdbestimmung durch den Menschen gefangen. Der Begriff «datenbasierte Systeme (DS)» beschreibt angemessener, was sogenannte «KI» eigentlich ausmacht: Erzeugung, Sammlung, Bearbeitung und Auswertung von Daten, datenbasierte Wahrnehmung, datenbasierte Vorhersagen und datenbasierte Entscheidungen.
Mit dem Aufkommen neuer Technologien, kommen oft auch Ängste auf, die sich schlussendlich nicht oder nicht in dem befürchteten Ausmass bewahrheiten. Würden Sie sagen, das ist beim Aufkommen datenbasierter Systeme anders?
Zunächst erscheint es wichtig, zwischen Ängsten und rational begründeter Kritik zu unterscheiden. Die rational begründete Identifizierung von Risiken ist kein Ausdruck von Angst, sondern eine nüchterne Problemfeststellung. Es ist z. B. im Bereich von DS belegt, dass bei den Präsidentschaftswahlen 2016 in den USA sowie beim Brexit-Entscheid Facebook Datensätze von Nutzerinnen und Nutzern weiterverkauft hat. Totalitäre Regime können auf diese Weise Einfluss auf Wahlen und Abstimmungen in Demokratien nehmen. Manipulation und Desinformation führen zur Unterwanderung und Destabilisierung demokratischer Länder. Dieses Problem muss beim Namen benannt und adressiert werden. Die Fähigkeit des Selbstlernens einiger DS, also dass sich diese ohne oder fast ohne menschlichen Input weiterentwickeln können, verleiht dem Problem besondere Dringlichkeit.
In Ihrem 2021 erschienen Buch «Digital Transformation and Ethics» schlagen Sie eine International Data-Based Systems Agency IDA oder Internationale Agentur für datenbasierte Systeme IDA vor. Was soll diese leisten?
Wie im Bereich der Kerntechnik die Internationale Atomenergiebehörde IAEA Schlimmeres verhindert, soll IDA bei datenbasierten Systemen (DS) ethisch Positives fördern und ethisch Negatives verhindern. IDA soll eine Zulassungsfunktion erfüllen und sicherstellen, dass DS die Menschenrechte einhalten und nachhaltig sind. Ein solcher Zulassungsprozess ist ja z. B. in der Pharmaindustrie eine Selbstverständlichkeit zum Schutz von Menschen und Umwelt. Zudem soll sie eine Aufsichtsfunktion wahrnehmen und sicherstellen, dass DS die Menschenrechte respektieren und zur Verwirklichung der Ziele für nachhaltige Entwicklung der UNO beitragen. Schliesslich soll sie als Plattform für die technische Zusammenarbeit und den globalen Austausch dienen und so Innovation fördern.
Wurde und wird Technologie nicht immer auch zu unethischen Zwecken verwendet?
In der Tat muss diese «dual use»-Problematik stets im Blick sein. Grundsätzlich ist auch zu bedenken, dass nicht jede Innovation automatisch ethisch positiv ist, weil es sich um eine Innovation handelt - denken Sie nur z. B. an die Atombombe. Technisch Machbares ist immer von einem ethischen Standpunkt dahingehend zu Überprüfen, ob wir es auch tun sollen oder nicht. Als besonders bei datenbasierten Systemen erweist sich sicherlich, dass sich in einem noch nie dagewesenen Masse wirtschaftliche und darauf aufbauend politische Macht sowie Wissen über DS in den Händen von ganz wenigen multinationalen Technologiekonzernen konzentriert. Diese wehren sich mit massivem Lobbying und Druckmitteln wie z. B. der inhaltlichen Ausrichtung von Suchmaschinen - was findet man schnell, was findet man auf einer hinteren Seite, auf die fast niemand klickt? - oder Social Media-Plattformen - was erscheint im Newsfeed? - aggressiv gegen jegliche Regulierung. Zudem dominieren sie Bereiche, die eigentlich staatliche Aufgaben darstellen, wie z. B. die Kontrolle über Satelliten, was über den Verlauf von Kriegen und Konflikten entscheiden kann.
Technisch Machbares ist immer von einem ethischen Standpunkt dahingehend zu Überprüfen, ob wir es auch tun sollen oder nicht.
Die EU will bis Ende Jahr ein Gesetz zur Regulierung Künstlicher Intelligenz ausarbeiten. Wie beurteilen Sie diesen Schritt?
Die EU gewichtet mit diesem Schritt Menschen und ihre Rechte höher als wirtschaftliche Interessen von ein paar multinationalen Tech-Konzernen und schränkt staatlichen Missbrauch ein. Angesichts von einigen Geschäftsmodellen, die im Kern Menschenrechtsverletzungen beinhalten, ist dies dringend notwendig. Gleichzeitig müssen die weiteren Verhandlungen noch zu einem besseren Schutz von Menschen auf der Flucht vor technologiebasierten Übergriffen sowie zu geeigneten Beschwerdemöglichkeiten für Menschen gegen eine Beeinträchtigung durch DS führen.
Sam Altmann, CEO von OpenAI, die Anbieterin von ChatGPT, forderte unlängst die Regulierung von «KI-Systemen» und eine Behörde zur Lizenzierung leistungsfähiger «KI-Systeme». Auch Elon Musk und andere Vertreter der «KI-Branche» forderten ein Moratorium für die «KI-Entwicklung» Wie ordnen Sie ein, dass Vertreter grosser Technologiekonzerne Regulierungen fordern?
Es hat sich ein Konsens herausgebildet, der sich auf zwei aus meiner Forschung resultierende konkrete Handlungsvorschläge abstützt, nämlich menschenrechtsbasierte DS und die Schaffung von IDA bei der UNO (s. Box). Die Frage ist nicht mehr, ob wir Regulierung brauchen - wir brauchen sie! Die Frage ist auch nicht mehr, ob wir eine IDA brauchen, welche die Regulierung (vor allem die bestehenden Menschenrechtsstandards) durchsetzt - wir brauchen sie! Und zwar möglichst bald.
Aktuell sind Nutzerinnen und Nutzer in erster Linie «Produkte», deren Daten menschenrechtswidrig weiterverkauft werden können.
Auch vor Forschung und Lehre machen neue Technologien nicht halt. Welchen Umgang empfehlen Sie Studierenden und Dozierenden mit datenbasierten Systemen?
Ich würde Studierenden und Dozierenden einen kritischen und ethisch informierten Umgang mit DS empfehlen, solange diese noch nicht menschenrechtsbasiert designt, entwickelt und produziert werden. Denn aktuell sind Nutzerinnen und Nutzer in erster Linie «Produkte», deren Daten menschenrechtswidrig weiterverkauft werden können. Und die Schürfung der Rohstoffe, die für Technologieprodukte gebraucht werden, sowie die Herstellung datenbasierter Systeme erfolgt unter menschenunwürdigen und sklavereiähnlichen Arbeitsbedingungen und mit Kinderarbeit.
Wer sich eingehender mit dem Thema Ethik und DS auseinandersetzen möchte, kann übrigens auf aktuelle Lehrangebote an der Universität Luzern zurückgreifen. (s. unten)
Benutzen Sie selbst Anwendungen wie z.B. ChatGPT?
ChatGPT nutze ich ganz bewusst nicht, da es sich dabei um nichts anderes als Wiedergekäutes handelt - wie bei einer Kuh. Ob etwas wahr ist oder nicht, bleibt aussen vor. Worte und Gedanken von Menschen werden wiedergekäut und erneut ausgespuckt. Im Zuge dessen werden Urheberrechte, von deren Durchsetzung menschliche Existenzen abhängen, sowie die jahrhundertelang mühsam erkämpften Menschenrechte auf Datenschutz und der Privatsphäre missachtet. Letzteres setzt unsere Freiheit als Menschen aufs Spiel. Ich denke und schreibe lieber selbst.
Idee für «KI»-Agentur bei der UNO gewinnt an Fahrt
In seinem 2021 erschienen Buch «Digital Transformation and Ethics» formuliert Peter G. Kirchschläger Handlungsvorschläge hinsichtlich menschenrechtsbasierter datenbasierter Systeme HRBDS und die Schaffung einer Internationalen Agentur für datenbasierte Systeme IDA bei der UNO. Die Idee einer solcher Agentur ist in jüngster Zeit verstärkt in den Fokus geraten. Neben Stimmen aus Technologie-Branche forderten etwa «The Elders» - eine von Nelson Mandela gegründete unabhängige Gruppe globaler Leader, der unter anderem der ehemalige UNO-Generalsekretär Ban Ki Moon und die erste Präsidentin Irlands, Mary Robinson, angehören -die UNO-Mitgliedstaaten zu entsprechendem Handeln auf. Auch der UNO-Generalsekretär António Guterres hat Mitte Juli im UNO-Sicherheitsrat und der UNO-Hochkommissar Volker Türk im UNO-Menschenrechtsrat die Schaffung einer solchen UNO-Agentur gefordert.Peter G. Kirchschläger
Digital Transformation and Ethics, Ethical Considerations on the Robotization and Automation of Society and the Economy and the Use of Artificial Intelligence
Nomos, Baden-Baden 2021
International Data-Based Systems Agency (IDA)
Plattform mit dem Ziel der Etablierung einer Internationalen Agentur für datenbasierte Systeme IDA bei der UNO.
Aktuelle Lehrveranstaltungen zum Thema Ethik und «KI»