Menschenrechte auf die Neurotechnologie ausweiten

    -     English
Menschenrechte auf die Neurotechnologie ausweiten

Technologien, die mit dem menschlichen Gehirn wechselwirken, stellen uns vor komplett neue ethische Herausforderungen. Um diesen zu begegnen, sollten die Menschenrechte erweitert werden, argumentiert Marcello Ienca.

Es ist längst keine Utopie mehr, eine direkte Verbindung zwischen einem menschlichen Gehirn und einem Computer herzustellen um damit die Hirnaktivität aufzuzeichnen oder sie zu beeinflussen. Wissenschaftler arbeiten schon seit Jahren an der Entwicklung solcher Gehrin-Computer-Schnittstellen. Die jüngsten hochtrabenden Ankündigungen von Elon Musks Firma Neuralink haben dabei wohl die grösste Medienaufmerksamkeit erhalten. Aber auch in zahllosen anderen Forschungsprojekte auf der ganzen Welt entwickeln Wissenschaftlerinnen und Wissenschaftler technische Mittel, um neurologische und psychische Störungen wie Parkinson, Schizophrenie und Depressionen zu behandeln. Letztlich geht es auch darum, das Rätsel des menschlichen Gehirns zu entschlüsseln, eine der grössten wissenschaftlichen Herausforderungen unserer Zeit.

Das diagnostische und therapeutische Potenzial von Gehirn-Computer-Schnittstellen und Neurostimulationstechniken und die Hoffnungen, die betroffene Menschen in sie setzen, sind enorm. Fast ein Viertel der Weltbevölkerung leidet an einer neurologischen oder psychischen Störungen, und solche Neurotechnologien versprechen eine Linderung dieses Leids. Das Missbrauchspotenzial dieser Neurotechnologien ist jedoch ebenso gross, und das wirft noch nie dagewesene ethische Fragen auf.1,2 Für Wissenschaft und Politik ist es eine Herausforderung, sicherzustellen, dass solche dringend benötigten Innovationen nicht missbraucht, sondern zum Wohl der Menschen eingesetzt werden, verantwortungsvoll und im Einklang mit ethischen und gesellschaftlichen Werten.

Zugriff auf die Gehirnaktivität einer Person

Ist es legitim, auf die Hirntätigkeit eines Menschen zuzugreifen oder sie gar zu verändern, und wenn ja, unter welchen Bedingungen? Wenn wir uns als Ethiker mit neuen Technologien befassen, befinden wir uns auf einer heiklen Gratwanderung: Technologische Innovation soll zum Nutzen von Patienten gefördert werden, gleichzeitig aber die Sicherheit dieser Technologien gewährleistet und unerwünschte Folgen verhindert werden. Dies ist nicht einfach. Wenn es um neue Technologien geht, befinden wir uns immer in einem Dilemma: Die sozialen Folgen einer neuen Technologie können nicht vorhergesagt werden, solange die Technologie noch in den Kinderschuhen steckt. Und bis unerwünschte Folgen entdeckt werden, ist die Technologie oft schon so sehr in der Gesellschaft verankert, dass es äusserst schwierig ist, sie noch zu kontrollieren.

Das Dilemma lässt sich am Beispiel der sozialen Medien veranschaulichen. Als die ersten Social-Media-Plattformen Anfang der 2000er Jahre gegründet wurden, waren ihre mittelbis langfristigen ethischen und gesellschaftlichen Auswirkungen noch unbekannt. Mehr als fünfzehn Jahre später verfügen wir nun über umfassende Informationen über mögliche unerwünschten Folgen: Verbreitung von Fake News, Entstehung von Filterblasen, politische Polarisierung und das Risiko von Onlinemanipulation3. Allerdings sind diese Technologien inzwischen so fest in unserer Gesellschaft verankert, dass sie sich jedem Versuch entziehen, sie neu auszurichten, zu verändern, zu regulieren und zu kontrollieren.

Heute stehen wir vor genau demselben Dilemma bei mehreren neuen Technologien, darunter auch Gehirn-Computer-Schnittstellen und andere Neurotechnologien. Anwendungen dieser Technologien beschränken sich nicht mehr auf die Medizin, wo sie strengen Vorschriften und ethischen Richtlinien entsprechen müssen. Vielmehr drängen die Technologien bereits in andere Bereiche vor, darunter den Konsumgütermarkt, den Kommunikationsund Transportsektor sowie sogar in die Strafverfolgung und den militärischen Sektor. Ausserhalb von Kliniken und Forschungslabors befinden sich diese Technologien oft in einem regulatorischen Niemandsland.

Wenn es um Neurotechnologie geht, können wir uns dieses Risiko nicht leisten. Denn das Gehirn ist nicht einfach eine weitere Informationsquelle, welche die digitale Infosphäre berieselt, sondern das Organ, das unseren Geist aufbaut und ihn Überhaupt erst ermöglicht. Alle unsere kognitiven Fähigkeiten, unsere Wahrnehmung, unser Gedächtnis, unsere Vorstellungskraft, unsere Emotionen, unsere Entscheidungen und unser Verhalten sind das Ergebnis der Aktivität von Neuronen, die in Schaltkreisen des Gehirns miteinander verbunden sind.

Auswirkungen auf Identität

Die Neurotechnologie bezweckt, Gehirnaktivität zu lesen und zu schreiben. Zumindest prinzipiell sollte sie eines Tages in der Lage sein, den Inhalt unseres Geistes zu entschlüsseln und zu verändern. Mehr noch: Die Hirnaktivität und der von ihr erzeugte Geisteszustand sind das entscheidende Substrat der persönlichen Identität, der moralischen und rechtlichen Verantwortung. Daher könnte das Ablesen und die Manipulation der neuronalen Aktivität durch Künstliche Intelligenz (KI)-vermittelte neurotechnologische Techniken ungeahnte Auswirkungen auf die persönliche Identität der Menschen haben und als Mittel zur Verschleierung bei der Zuweisung moralischer oder sogar rechtlicher Verantwortung genutzt werden.

Um diese Risiken zu vermeiden, ist eine vorausschauende Regulierung erforderlich. Wir können nicht erst dann auf Neurotechnologien reagieren, wenn diese Technologien dereinst missbraucht werden sollten. Im Gegenteil, wir haben die moralische Verpflichtung, proaktiv zu handeln und die Entwicklung dieser Technologien mit ethischen Grundsätzen und demokratisch vereinbarten gesellschaftlichen Zielen in Einklang zu bringen.

Von der Neuroethik zu den Neurorechten

Um der Vielfalt und Komplexität der Neurotechnologien und den damit verbundenen ethischen, rechtlichen und sozialen Folgen gerecht zu werden, ist ein umfassender Rahmen erforderlich. Gemeinsam mit anderen Wissenschaftlern wie dem Neurowissenschaftler Rafael Yuste vertrete ich die Auffassung, dass die Grundlage dieses Rahmens für die Regulierung von Neurotechnologien auf der Ebene der grundlegenden Menschenrechte angesiedelt sein sollte. Schliesslich sind geistige Prozesse die Quintessenz dessen, was uns zu Menschen macht.

Um das menschliche Gehirn und den menschlichen Geist angemessen zu schützen, müssen die bestehenden Menschenrechte möglicherweise in ihrem Umfang und ihrer Definition erweitert werden. Der Rechtswissenschaftler Roberto Adorno von der Universität Zürich und ich haben diese neuen Menschenrechte als «Neurorechte» bezeichnet.4, 5 Wir haben vier solche Neurorechte vorgeschlagen:

· Das Recht auf kognitive Freiheit schützt das Recht des Einzelnen, freie und kompetente Entscheidungen über die Nutzung der Neurotechnologie zu treffen. Es garantiert dem Einzelnen die Freiheit, sein Gehirn zu Überwachen und zu verändern oder darauf zu verzichten. Mit anderen Worten, es ist ein Recht auf geistige Selbstbestimmung.

· Das Recht auf geistige Privatsphäre schützt den Einzelnen vor dem unbefugten Eindringen Dritter in seine Hirndaten sowie vor der unbefugten Erhebung dieser Daten. Dieses Recht erlaubt es den Menschen, selbst zu bestimmen, wann, wie und in welchem Umfang ihre neuronalen Informationen von anderen eingesehen werden können. Das Recht auf geistige Privatsphäre ist von besonderer Bedeutung, da Hirndaten zunehmend verfügbar sind und diese den gleichen Risiken bezüglich Datenschutz und Datensicherheit unterliegen wie alle anderen Daten.

· Das Recht auf geistige Unversehrtheit , das bereits durch internationales Recht anerkannt ist, zum Bespiel durch die Grundrechtecharta der EU, kann erweitert werden, um auch das Recht von Menschen mit körperlichen und/oder geistigen Behinderungen auf Zugang und Nutzung sicherer und wirksamer Neurotechnologien zu gewährleisten und sie vor unzulässigen und schädlichen Anwendungen zu schützen.

· Das Recht auf psychische Kontinuität schliesslich zielt darauf ab, die persönliche Identität und die Kontinuität des geistigen Lebens von Menschen vor ungewollten Veränderungen durch Dritte zu schützen.

Bereits Realität in der internationalen Politik

Neurorechte sind nicht nur eine abstrakte akademische Idee, sondern ein Grundsatz, der in der nationalen und internationalen Politik angekommen ist: Das chilenische Parlament hat in einer Verfassungsreform die «geistige Unversehrtheit» als grundlegendes Menschenrecht definiert und ein Gesetz verabschiedet, das Hirndaten schützt und die bestehende Medizinethik auf den Einsatz von Neurotechnologien erweitert. Der spanische Staatssekretär für KI veröffentlichte vor Kurzem eine Charta der digitalen Rechte, die Neurorechte als Teil der Bürgerrechte für das neue digitale Zeitalter erwähnt, und die italienische Datenschutzbehörde widmete den Datenschutztag 2021 dem Thema Neurorechte. Das neue französische Gesetz über Bioethik bekräftigt ebenfalls das Recht auf geistige Unversehrtheit. Es erlaubt, schädliche Veränderungen der Hirntätigkeit zu verbieten. Kognitive Freiheit und geistige Privatsphäre werden auch in der OECD-Empfehlung über verantwortungsvolle Innovation in der Neurotechnologie6 erwähnt. Und nicht zuletzt hat der Europarat einen auf fünf Jahre angelegten strategischen Massnahmenplan ins Leben gerufen, der sich mit Menschenrechten und neuen biomedizinischen Technologien, einschliesslich der Neurotechnologie, befasst. Ziel dieses Programms ist es, zu bewerten, ob die ethisch-rechtlichen Fragen, die durch die Neurotechnologie aufgeworfen werden, durch den bestehenden Menschenrechtsrahmen hinreichend abgedeckt sind oder ob es zusätzliche Rechtsnormen braucht.

Um das grosse Potenzial der Neurotechnologien zu nutzen, aber auch um Missbrauch zu vermeiden, ist es wichtig, die ethischen und rechtlichen Fragen zu klären und die Neurotechnologien zum Wohle der Menschen zu regulieren.

Referenzen

1 Yuste R, Goering S, Bi G, Carmena JM, Carter A, Fins JJ, Friesen P, Gallant J, Huggins JE, Illes J: Four ethical priorities for neurotechnologies and AI. Nature 2017, 551: 159, doi: 10.1038/551159a

2 Clausen J, Fetz E, Donoghue J, Ushiba J, Spörhase U, Chandler J, Birbaumer N, Soekadar SR: Help, hope, and hype: Ethical dimensions of neuroprosthetics. Science 2017, 356: 1338, aam7731

3 Ienca M, Vayena E: Cambridge analytica and online manipulation. Scientific American 2018

4 Ienca M, Andorno R: Towards new human rights in the age of neuroscience and neurotechnology. Life Sciences, Society and Policy 13: 5, doi: 10.1186/s40504-017-0050-1

5 Ienca M, Andorno R: A new category of human rights: neurorights. Research in Progress Blog 2017

6 https://www.oecd.org/science/recommendation-on-responsible-innovation-in-neurotechnology.htm

Dr. Marcello Ienca

This site uses cookies and analysis tools to improve the usability of the site. More information. |