Menschenrechte auf die Neurotechnologie ausweiten

Technologien, die mit dem menschlichen Gehirn wechselwirken, stellen uns vor komplett neue ethische Herausforderungen. Um diesen zu begegnen, sollten die Menschenrechte erweitert werden, argumentiert Marcello Ienca.

Marcello Ienca

Es ist längst keine Utopie mehr, eine direkte Verbindung zwischen einem menschlichen Gehirn und einem Computer herzustellen um damit die Hirnaktivität aufzuzeichnen oder sie zu beeinflussen. Wissenschaftler arbeiten schon seit Jahren an der Entwicklung solcher Gehrin-Computer-Schnittstellen. Die jüngsten hochtrabenden Ankündigungen von Elon Musks Firma Neuralink haben dabei wohl die grösste Medienaufmerksamkeit erhalten. Aber auch in zahllosen anderen Forschungsprojekte auf der ganzen Welt entwickeln Wissenschaftlerinnen und Wissenschaftler technische Mittel, um neurologische und psychische Störungen wie Parkinson, Schizophrenie und Depressionen zu behandeln. Letztlich geht es auch darum, das Rätsel des menschlichen Gehirns zu entschlüsseln, eine der grössten wissenschaftlichen Herausforderungen unserer Zeit.

Implantat, welches eine Verbindung zwischen menschlichen Gehirn und Computern herstellt.
Die amerikanische Firma Neuralink entwickelt Implantate, mit denen es eine Verbindung zwischen dem menschlichen Gehirn und Computern herstellen möchte. (Grafik: Shutterstock)

Das diagnostische und therapeutische Potenzial von Gehirn-Computer-Schnittstellen und Neurostimulationstechniken und die Hoffnungen, die betroffene Menschen in sie setzen, sind enorm. Fast ein Viertel der Weltbevölkerung leidet an einer neurologischen oder psychischen Störung, und solche Neurotechnologien versprechen eine Linderung dieses Leids. Das Missbrauchspotenzial dieser Neurotechnologien ist jedoch ebenso gross, und das wirft noch nie dagewesene ethische Fragen auf.1,2 Für Wissenschaft und Politik ist es eine Herausforderung, sicherzustellen, dass solche dringend benötigten Innovationen nicht missbraucht, sondern zum Wohl der Menschen eingesetzt werden, verantwortungsvoll und im Einklang mit ethischen und gesellschaftlichen Werten.

Zugriff auf die Gehirnaktivität einer Person

Ist es legitim, auf die Hirntätigkeit eines Menschen zuzugreifen oder sie gar zu verändern, und wenn ja, unter welchen Bedingungen? Wenn wir uns als Ethiker mit neuen Technologien befassen, befinden wir uns auf einer heiklen Gratwanderung: Technologische Innovation soll zum Nutzen von Patienten gefördert werden, gleichzeitig aber die Sicherheit dieser Technologien gewährleistet und unerwünschte Folgen verhindert werden. Dies ist nicht einfach. Wenn es um neue Technologien geht, befinden wir uns immer in einem Dilemma: Die sozialen Folgen einer neuen Technologie können nicht vorhergesagt werden, solange die Technologie noch in den Kinderschuhen steckt. Und bis unerwünschte Folgen entdeckt werden, ist die Technologie oft schon so sehr in der Gesellschaft verankert, dass es äusserst schwierig ist, sie noch zu kontrollieren.

Das Dilemma lässt sich am Beispiel der sozialen Medien veranschaulichen. Als die ersten Social-Media-Plattformen Anfang der 2000er Jahre gegründet wurden, waren ihre mittel- bis langfristigen ethischen und gesellschaftlichen Auswirkungen noch unbekannt. Mehr als fünfzehn Jahre später verfügen wir nun über umfassende Informationen über mögliche unerwünschten Folgen: Verbreitung von Fake News, Entstehung von Filterblasen, politische Polarisierung und das Risiko von Onlinemanipulation3. Allerdings sind diese Technologien inzwischen so fest in unserer Gesellschaft verankert, dass sie sich jedem Versuch entziehen, sie neu auszurichten, zu verändern, zu regulieren und zu kontrollieren.

«Wenn es um Neurotechnologie geht, können wir uns dieses Risiko nicht leisten».Marcello Ienca

Heute stehen wir vor genau demselben Dilemma bei mehreren neuen Technologien, darunter auch Gehirn-Computer-Schnittstellen und andere Neurotechnologien. Anwendungen dieser Technologien beschränken sich nicht mehr auf die Medizin, wo sie strengen Vorschriften und ethischen Richtlinien entsprechen müssen. Vielmehr drängen die Technologien bereits in andere Bereiche vor, darunter den Konsumgütermarkt, den Kommunikations- und Transportsektor sowie sogar in die Strafverfolgung und den militärischen Sektor. Ausserhalb von Kliniken und Forschungslabors befinden sich diese Technologien oft in einem regulatorischen Niemandsland.

Wenn es um Neurotechnologie geht, können wir uns dieses Risiko nicht leisten. Denn das Gehirn ist nicht einfach eine weitere Informationsquelle, welche die digitale Infosphäre berieselt, sondern das Organ, das unseren Geist aufbaut und ihn überhaupt erst ermöglicht. Alle unsere kognitiven Fähigkeiten, unsere Wahrnehmung, unser Gedächtnis, unsere Vorstellungskraft, unsere Emotionen, unsere Entscheidungen und unser Verhalten sind das Ergebnis der Aktivität von Neuronen, die in Schaltkreisen des Gehirns miteinander verbunden sind.

Auswirkungen auf Identität

Die Neurotechnologie bezweckt, Gehirnaktivität zu lesen und zu schreiben. Zumindest prinzipiell sollte sie eines Tages in der Lage sein, den Inhalt unseres Geistes zu entschlüsseln und zu verändern. Mehr noch: Die Hirnaktivität und der von ihr erzeugte Geisteszustand sind das entscheidende Substrat der persönlichen Identität, der moralischen und rechtlichen Verantwortung. Daher könnte das Ablesen und die Manipulation der neuronalen Aktivität durch Künstliche Intelligenz (KI)-vermittelte neurotechnologische Techniken ungeahnte Auswirkungen auf die persönliche Identität der Menschen haben und als Mittel zur Verschleierung bei der Zuweisung moralischer oder sogar rechtlicher Verantwortung genutzt werden.

Um diese Risiken zu vermeiden, ist eine vorausschauende Regulierung erforderlich. Wir können nicht erst dann auf Neurotechnologien reagieren, wenn diese Technologien dereinst missbraucht werden sollten. Im Gegenteil, wir haben die moralische Verpflichtung, proaktiv zu handeln und die Entwicklung dieser Technologien mit ethischen Grundsätzen und demokratisch vereinbarten gesellschaftlichen Zielen in Einklang zu bringen.

Von der Neuroethik zu den Neurorechten

Um der Vielfalt und Komplexität der Neurotechnologien und den damit verbundenen ethischen, rechtlichen und sozialen Folgen gerecht zu werden, ist ein umfassender Rahmen erforderlich. Gemeinsam mit anderen Wissenschaftlern wie dem Neurowissenschaftler Rafael Yuste vertrete ich die Auffassung, dass die Grundlage dieses Rahmens für die Regulierung von Neurotechnologien auf der Ebene der grundlegenden Menschenrechte angesiedelt sein sollte. Schliesslich sind geistige Prozesse die Quintessenz dessen, was uns zu Menschen macht.

Um das menschliche Gehirn und den menschlichen Geist angemessen zu schützen, müssen die bestehenden Menschenrechte möglicherweise in ihrem Umfang und ihrer Definition erweitert werden. Der Rechtswissenschaftler Roberto Adorno von der Universität Zürich und ich haben diese neuen Menschenrechte als «Neurorechte» bezeichnet.4, 5 Wir haben vier solche Neurorechte vorgeschlagen:

  • Das Recht auf kognitive Freiheit schützt das Recht des Einzelnen, freie und kompetente Entscheidungen über die Nutzung der Neurotechnologie zu treffen. Es garantiert dem Einzelnen die Freiheit, sein Gehirn zu überwachen und zu verändern oder darauf zu verzichten. Mit anderen Worten, es ist ein Recht auf geistige Selbstbestimmung.
  • Das Recht auf geistige Privatsphäre schützt den Einzelnen vor dem unbefugten Eindringen Dritter in seine Hirndaten sowie vor der unbefugten Erhebung dieser Daten. Dieses Recht erlaubt es den Menschen, selbst zu bestimmen, wann, wie und in welchem Umfang ihre neuronalen Informationen von anderen eingesehen werden können. Das Recht auf geistige Privatsphäre ist von besonderer Bedeutung, da Hirndaten zunehmend verfügbar sind und diese den gleichen Risiken bezüglich Datenschutz und Datensicherheit unterliegen wie alle anderen Daten.
  • Das Recht auf geistige Unversehrtheit, das bereits durch internationales Recht anerkannt ist, zum Beispiel durch die Grundrechtecharta der EU, kann erweitert werden, um auch das Recht von Menschen mit körperlichen und/oder geistigen Behinderungen auf Zugang und Nutzung sicherer und wirksamer Neurotechnologien zu gewährleisten und sie vor unzulässigen und schädlichen Anwendungen zu schützen.
  • Das Recht auf psychische Kontinuität schliesslich zielt darauf ab, die persönliche Identität und die Kontinuität des geistigen Lebens von Menschen vor ungewollten Veränderungen durch Dritte zu schützen.

Bereits Realität in der internationalen Politik

Neurorechte sind nicht nur eine abstrakte akademische Idee, sondern ein Grundsatz, der in der nationalen und internationalen Politik angekommen ist: Das chilenische Parlament hat in einer Verfassungsreform die «geistige Unversehrtheit» als grundlegendes Menschenrecht definiert und ein Gesetz verabschiedet, das Hirndaten schützt und die bestehende Medizinethik auf den Einsatz von Neurotechnologien erweitert. Der spanische Staatssekretär für KI veröffentlichte vor Kurzem eine Charta der digitalen Rechte, die Neurorechte als Teil der Bürgerrechte für das neue digitale Zeitalter erwähnt, und die italienische Datenschutzbehörde widmete den Datenschutztag 2021 dem Thema Neurorechte. Das neue französische Gesetz über Bioethik bekräftigt ebenfalls das Recht auf geistige Unversehrtheit. Es erlaubt, schädliche Veränderungen der Hirntätigkeit zu verbieten. Kognitive Freiheit und geistige Privatsphäre werden auch in der OECD-Empfehlung über verantwortungsvolle Innovation in der Neurotechnologie6 erwähnt. Und nicht zuletzt hat der Europarat einen auf fünf Jahre angelegten strategischen Massnahmenplan ins Leben gerufen, der sich mit Menschenrechten und neuen biomedizinischen Technologien, einschliesslich der Neurotechnologie, befasst. Ziel dieses Programms ist es, zu bewerten, ob die ethisch-rechtlichen Fragen, die durch die Neurotechnologie aufgeworfen werden, durch den bestehenden Menschenrechtsrahmen hinreichend abgedeckt sind oder ob es zusätzliche Rechtsnormen braucht.

Um das grosse Potenzial der Neurotechnologien zu nutzen, aber auch um Missbrauch zu vermeiden, ist es wichtig, die ethischen und rechtlichen Fragen zu klären und die Neurotechnologien zum Wohle der Menschen zu regulieren.

Referenzen

1 Yuste R, Goering S, Bi G, Carmena JM, Carter A, Fins JJ, Friesen P, Gallant J, Huggins JE, Illes J: Four ethical priorities for neurotechnologies and AI. Nature 2017, 551: 159, doi: externe Seite 10.1038/551159a

2 Clausen J, Fetz E, Donoghue J, Ushiba J, Spörhase U, Chandler J, Birbaumer N, Soekadar SR: Help, hope, and hype: Ethical dimensions of neuroprosthetics. Science 2017, 356: 1338, doi: externe Seite 10.1126/science.aam7731

3 Ienca M, Vayena E: Cambridge analytica and online manipulation. Scientific American 2018

4 Ienca M, Andorno R: Towards new human rights in the age of neuroscience and neurotechnology. Life Sciences, Society and Policy 13: 5, doi: externe Seite 10.1186/s40504-017-0050-1

5 Ienca M, Andorno R: externe Seite A new category of human rights: neurorights. Research in Progress Blog 2017

6 https://www.oecd.org/science/recommendation-on-responsible-innovation-in-neurotechnology.htm

Kommentare

Kommentar schreiben

Kommentar schreiben

Wir freuen uns, wenn Sie an dieser Stelle Artikel aus den ETH-Newskanälen kommentieren, Fragen stellen oder auch auf Kommentare anderer Leserinnen und Leser reagieren. Bitte beachten Sie dabei unsere Kommentarregeln.

8 Kommentare

  • Hans-Christian Hürlimann03.11.2021 15:04

    Ich finde es erfrischend wenn aus einer technischen Disziplin eine ethische Grundsatzfrage kommt. Neurotechnologie ist in der Lage die Wahrnehmung eines Menschen zu beeinflussen. Im Prinzip haben wir diesen Zustand schon längst erreicht. Wenn ich an Medien und Algorithmen denke: Medieninhalte werden gefiltert und sortiert, es scheint praktisch zu sein aber es entzieht der Gesellschaft Kompetenzen bei der Auswahl von Inhalten. Ich empfinde die voranschreitende Spaltung und Polarisierung der Gesellschaft bei politischen Meinungen als eine direkte Konsequenz dieser Algorithmen. Programmierte Echokammern radikalisieren immer grössere Teile der Gesellschaft. Verbote werden nichts bringen, könnte man diese nicht durch Transparenzpflicht ersetzen? Erst wenn neue Errungenschaften hinreichend verstanden werden kann man sie auch richtig anbieten und falls notwendig regulieren.

     
       
    • Martin Holzherr15.10.2021 06:22

      Ein wichtiger Hinweis: Fast aller medizinischer Fortschritt beginnt/begann mit Tierexperimenten. Das gilt auch für die Neurotechnologie. Daher mein ethischer Appell: Ja, Schimpansen darf man zu Forschungszwecken Elektroden ins Hirn implantieren, aber nein, Menschen darf man das nur zu therapeutischen Zwecken, nicht zu Forschungszwecken.

       
         
      • Marcello Ienca13.10.2021 12:34

        Wenn wir also die nichtmedizinische Neurotechnologie verbieten, opfern wir möglicherweise auch den künftigen medizinischen Nutzen für Millionen von neurologischen und psychiatrischen Patienten weltweit. Aus diesem Grund halte ich einen ausgewogenen Ansatz, der sowohl den wissenschaftlichen Fortschritt als auch die Regulierung der Technologie einbezieht, für den ethisch vertretbarsten Standpunkt.

         
           
        • Sonja Glasbrenner09.10.2021 20:57

          Die meisten neuen Technologien wurden im militärischen Sektor getestet und angewendet. Ich bin mir sicher, dass sie auch heute schon vielfach angewendet werden. Darum erübrigt sich auch meiner Sicht die Frage, ob sie erlaubt sind oder nicht - die Praxis ist immer voraus. Wenn wir Normalbürger davon erfahren, ist alles für die Forscher und Eliten schon kalter Kaffee.

           
             
          • Martin Holzherr07.10.2021 07:28

            Die einfachste - und zugleich restriktivste - Form der Regulierung von Neurotechnologien würde diese Technologien für nichtmedizinische Anwendungen verbieten. In diesem Beitrag von Dr. Marcello Ienca wird diese Hürde - die Grenze zwischen medizinischen und nichtmedizinischen Anwendungen - in einem einzigen Satz übersprungen, Zitat: „Vielmehr drängen die Technologien bereits in andere Bereiche vor, darunter den Konsumgütermarkt, den Kommunikations-​ und Transportsektor sowie sogar in die Strafverfolgung und den militärischen Sektor.“ Mir scheint: externe Ableitungen von Hirnströmen etwa in Form des EEG könnte man noch erlauben, doch invasive Prozeduren, die Chips ins Hirn implantieren nur um ein Videospiel besser spielen zu können oder um die Hirnaktivität eines Straftäter zu überwachen oder gar zu verändern, das sollte man vorerst - das heisst in den nächsten 20 Jahren - nicht erlauben. Dieser Beitrag von Dr. Marcello Ienca kommt so unschuldig und scheinbar ethisch besorgt daher. Dabei öffnet er die Tür für nicht-medizinische Anwendungen von Hirnimplantaten. Das zu regulieren ist gar nicht nötig. Man kann es schlicht und einfach verbieten.

             
            • Marcello Ienca13.10.2021 12:33

              Vielen Dank für Ihre Kommentare. Die Befürwortung eines weltweiten Verbots oder Moratoriums für nichtmedizinische Neurotechnologie ist eine legitime Position. Um jedoch eine ethisch vertretbare Position zu vertreten, müssten wir sicher sein, dass die Vorteile eines Verbots die negativen Auswirkungen überwiegen. Ich bin skeptisch, dass dies der Fall ist. Dafür gibt es zwei Gründe. Erstens ist der nichtmedizinische Bereich in der Regel ein wichtiger Motor für technologische Innovationen. Es ist sehr wahrscheinlich, dass wir durch ein Verbot der nichtmedizinischen Neurotechnologie den Fortschritt in diesem Bereich verlangsamen werden. Wir können nicht verstehen, was wir nicht messen können. Daher müssen wir in der Lage sein, die Hirnaktivität in größerem Massstab und in der realen Welt (nicht nur im experimentellen Rahmen) zu messen, um das Gehirn besser zu verstehen und die Hindernisse zu überwinden, die den Fortschritt in den Neurowissenschaften derzeit begrenzen. Zweitens haben sich viele technologische Innovationen, die für nichtmedizinische Zwecke entwickelt wurden, später als sehr nützlich für die Medizin erwiesen (z. B. KI oder Mobiltechnologie).

               
               
            • Simon Kramis08.10.2021 15:00

              Der Schaden im Falle eines Verbots dürfte für die Allgemeinheit gering, für diesen Forscher und die potentielle Vermarktung jedoch schwer wiegen. Nicht alles, was technisch machbar erscheint, muss auch realisiert werden (vgl. Atombombe).

               
               
            • Max Blatter07.10.2021 15:41

              Verbote sind immer am "einfachsten". Die Welt ist aber nicht einfach.