Étendre les droits de l'homme à la neurotechnologie

Les technologies qui interagissent avec le cerveau humain nous placent face à des défis éthiques entièrement nouveaux. Pour y faire face, les droits de l'homme devraient être étendus, argumente Marcello Ienca.

Marcello Ienca

Établir une connexion directe entre un cerveau humain et un ordinateur afin d'enregistrer l'activité cérébrale ou de l'influencer n'est plus une utopie depuis longtemps. Les scientifiques travaillent depuis des années au développement de telles interfaces cerveau-ordinateur. Les annonces récentes de l'entreprise Neuralink d'Elon Musk ont sans doute attiré le plus l'attention des médias. Mais d'innombrables autres projets de recherche dans le monde entier permettent aux scientifiques de développer des moyens techniques pour traiter des troubles neurologiques et psychiques tels que la maladie de Parkinson, la schizophrénie et la dépression. En fin de compte, il s'agit aussi de percer l'énigme du cerveau humain, l'un des plus grands défis scientifiques de notre époque.

Implant qui établit une connexion entre le cerveau humain et les ordinateurs.
L'entreprise américaine Neuralink développe des implants avec lesquels elle souhaite établir une connexion entre le cerveau humain et les ordinateurs. (Graphique : Shutterstock)

Le potentiel diagnostique et thérapeutique des interfaces cerveau-ordinateur et des techniques de neurostimulation, ainsi que les espoirs que les personnes concernées placent en elles, sont énormes. Près d'un quart de la population mondiale souffre d'un trouble neurologique ou psychique, et de telles neurotechnologies promettent de soulager cette souffrance. Mais le potentiel d'abus de ces neurotechnologies est tout aussi important, ce qui soulève des questions éthiques sans précédent.1,2 Pour la science et la politique, le défi consiste à s'assurer que de telles innovations, dont le besoin est urgent, ne soient pas utilisées à mauvais escient, mais pour le bien de l'humanité, de manière responsable et en accord avec les valeurs éthiques et sociétales.

Accès à l'activité cérébrale d'une personne

Est-il légitime d'accéder à l'activité cérébrale d'une personne, voire de la modifier, et si oui, à quelles conditions ? Lorsque nous nous occupons de nouvelles technologies en tant qu'éthiciens, nous nous trouvons sur une ligne de crête délicate : l'innovation technologique doit être encouragée au profit des patients, tout en garantissant la sécurité de ces technologies et en évitant les effets indésirables. Ce n'est pas facile. Lorsqu'il s'agit de nouvelles technologies, nous sommes toujours confrontés à un dilemme : les conséquences sociales d'une nouvelle technologie ne peuvent pas être prédites tant que la technologie n'en est qu'à ses débuts. Et jusqu'à ce que des conséquences indésirables soient découvertes, la technologie est souvent déjà tellement ancrée dans la société qu'il est extrêmement difficile de la contrôler.

L'exemple des médias sociaux permet d'illustrer ce dilemme. Lorsque les premières plates-formes de médias sociaux ont été créées au début des années 2000, leurs conséquences éthiques et sociales à moyen et long terme étaient encore inconnues. Plus de quinze ans plus tard, nous disposons désormais d'informations complètes sur les éventuelles conséquences indésirables : La propagation de fausses nouvelles, l'apparition de bulles de filtres, la polarisation politique et le risque de manipulation en ligne.3. Toutefois, ces technologies sont désormais si bien ancrées dans notre société qu'elles échappent à toute tentative de les réorienter, de les modifier, de les réglementer et de les contrôler.

"Quand il s'agit de neurotechnologie, nous ne pouvons pas nous permettre de prendre ce risque".Marcello Ienca

Aujourd'hui, nous sommes confrontés exactement au même dilemme avec plusieurs nouvelles technologies, dont les interfaces cerveau-ordinateur et autres neurotechnologies. Les applications de ces technologies ne se limitent plus à la médecine, où elles doivent répondre à des réglementations strictes et à des directives éthiques. Au contraire, ces technologies pénètrent déjà dans d'autres domaines, dont le marché des biens de consommation, le secteur des communications et des transports, et même l'application de la loi et le secteur militaire. En dehors des cliniques et des laboratoires de recherche, ces technologies se trouvent souvent dans un no man's land réglementaire.

En matière de neurotechnologie, nous ne pouvons pas nous permettre de prendre ce risque. Car le cerveau n'est pas simplement une autre source d'information qui irrigue l'infosphère numérique, mais l'organe qui construit notre esprit et qui le rend possible en premier lieu. Toutes nos capacités cognitives, notre perception, notre mémoire, notre imagination, nos émotions, nos décisions et notre comportement sont le résultat de l'activité de neurones reliés entre eux dans des circuits du cerveau.

Impact sur l'identité

La neurotechnologie a pour but de lire et d'écrire l'activité cérébrale. En principe du moins, elle devrait un jour être en mesure de décrypter et de modifier le contenu de notre esprit. Plus encore : l'activité cérébrale et l'état d'esprit qu'elle génère sont le substrat décisif de l'identité personnelle, de la responsabilité morale et juridique. Par conséquent, la lecture et la manipulation de l'activité neuronale par des techniques neurotechnologiques médiatisées par l'intelligence artificielle (IA) pourraient avoir des conséquences insoupçonnées sur l'identité personnelle des individus et être utilisées comme moyen de dissimulation dans l'attribution de responsabilités morales, voire juridiques.

Pour éviter ces risques, une réglementation prévoyante est nécessaire. Nous ne pouvons pas attendre pour réagir aux neurotechnologies que ces technologies soient un jour utilisées à mauvais escient. Au contraire, nous avons l'obligation morale d'agir de manière proactive et d'harmoniser le développement de ces technologies avec les principes éthiques et les objectifs sociétaux convenus démocratiquement.

De la neuroéthique aux neurodroits

Pour faire face à la diversité et à la complexité des neurotechnologies et aux conséquences éthiques, juridiques et sociales qui en découlent, un cadre global est nécessaire. Avec d'autres scientifiques comme le neuroscientifique Rafael Yuste, je défends l'idée que la base de ce cadre pour la réglementation des neurotechnologies devrait se situer au niveau des droits humains fondamentaux. Après tout, les processus mentaux sont la quintessence de ce qui fait de nous des êtres humains.

Pour protéger de manière adéquate le cerveau et l'esprit humains, il se peut que les droits de l'homme existants doivent être élargis dans leur portée et leur définition. Le juriste Roberto Adorno de l'Université de Zurich et moi-même avons qualifié ces nouveaux droits de l'homme de "neurodroits".4, 5 Nous avons proposé quatre droits neurologiques de ce type :

  • Le droit à liberté cognitive protège le droit des individus à prendre des décisions libres et compétentes sur l'utilisation de la neurotechnologie. Il garantit à l'individu la liberté de surveiller et de modifier son cerveau ou d'y renoncer. En d'autres termes, c'est un droit à l'autodétermination mentale.
  • Le droit à vie privée intellectuelle protège les individus contre l'intrusion non autorisée de tiers dans leurs données cérébrales ainsi que contre la collecte non autorisée de ces données. Ce droit permet aux individus de déterminer eux-mêmes quand, comment et dans quelle mesure leurs informations neuronales peuvent être consultées par d'autres. Le droit à la vie privée intellectuelle revêt une importance particulière étant donné que les données cérébrales sont de plus en plus disponibles et qu'elles sont soumises aux mêmes risques en matière de protection et de sécurité des données que toutes les autres données.
  • Le droit à Intégrité mentale,Le droit d'accès aux neurotechnologies, déjà reconnu par le droit international, par exemple par la Charte des droits fondamentaux de l'UE, peut être étendu afin de garantir également le droit des personnes souffrant d'un handicap physique et/ou mental d'accéder à des neurotechnologies sûres et efficaces, de les utiliser et d'être protégées contre des applications non autorisées et nuisibles.
  • Le droit à continuité psychique enfin, vise à protéger l'identité personnelle et la continuité de la vie intellectuelle des personnes contre des modifications non souhaitées par des tiers.

Déjà une réalité dans la politique internationale

Les neurodroits ne sont pas seulement une idée académique abstraite, mais un principe qui a fait son chemin dans la politique nationale et internationale : dans une réforme constitutionnelle, le Parlement chilien a défini "l'intégrité mentale" comme un droit humain fondamental et a adopté une loi qui protège les données cérébrales et étend l'éthique médicale existante à l'utilisation des neurotechnologies. Le secrétaire d'État espagnol à l'IA a récemment publié une charte des droits numériques qui mentionne les neurodroits comme faisant partie des droits civils pour la nouvelle ère numérique, et l'autorité italienne de protection des données a consacré la journée de la protection des données 2021 aux neurodroits. La nouvelle loi française sur la bioéthique réaffirme également le droit à l'intégrité mentale. Elle permet d'interdire les modifications néfastes de l'activité cérébrale. La liberté cognitive et l'intimité intellectuelle sont également mentionnées dans la Recommandation de l'OCDE sur l'innovation responsable en matière de neurotechnologies.6 mentionnés. Enfin, le Conseil de l'Europe a lancé un plan d'action stratégique quinquennal consacré aux droits de l'homme et aux nouvelles technologies biomédicales, y compris la neurotechnologie. L'objectif de ce programme est d'évaluer si les questions éthiques et juridiques soulevées par les neurotechnologies sont suffisamment couvertes par le cadre existant des droits de l'homme ou si des normes juridiques supplémentaires sont nécessaires.

Afin d'exploiter le grand potentiel des neurotechnologies, mais aussi d'éviter les abus, il est important de clarifier les aspects éthiques et légaux et de réglementer les neurotechnologies pour le bien de l'humanité.

Références

1 Yuste R, Goering S, Bi G, Carmena JM, Carter A, Fins JJ, Friesen P, Gallant J, Huggins JE, Illes J : Four ethical priorities for neurotechnologies and AI. Nature 2017, 551 : 159, doi : page externe10.1038/551159a

2 Clausen J, Fetz E, Donoghue J, Ushiba J, Spörhase U, Chandler J, Birbaumer N, Soekadar SR : Help, hope, and hype : Ethical dimensions of neuroprosthetics. Science 2017, 356 : 1338, doi : page externe10.1126/science.aam7731

3 Ienca M, Vayena E : Cambridge analytica et la manipulation en ligne. Scientific American 2018

4 Ienca M, Andorno R : Vers de nouveaux droits de l'homme à l'ère des neurosciences et des neurotechnologies. Life Sciences, Society and Policy 13 : 5, doi : page externe10.1186/s40504-017-0050-1

5 Ienca M, Andorno R : page externeUne nouvelle catégorie de droits humains : les neurorights. Blog Research in Progress 2017

6 https://www.oecd.org/science/recommendation-on-responsible-innovation-in-neurotechnology.htm

JavaScript a été désactivé sur votre navigateur