Par le Dr Laure TABOUY
PhD. Neuroscientifique et éthicienne, Équipe Éthique et épistémologie,
CESP-INSERM U1018, Espace éthique de l’APHP de l’Île-de-France,
Université de Paris-Saclay

La période que nous vivons actuellement en 2023 est palpitante. Si l’innovation technologique apparait comme un nouvel eldorado, l’éthique est en train de se faire une place au cœur des stratégies de l’innovation, des entreprises et des recherches. Le défi est d’apprendre à surfer sur la vague de l’innovation et de la technologie, et de créer des opportunités qui changeront notre vie quotidienne, tout en admettant qu’il faille anticiper les dérives de leurs usages. L’accélération des innovations rend indispensable une réflexion sur les enjeux sociétaux, éthiques et juridiques liés à leurs conceptions et leurs élaborations, à leurs usages, leurs finalités et leurs conséquences. La conception de garde-fous interdisciplinaires, de systèmes d’évaluation et de suivi, mais également de systèmes d’encadrement et de répressions, ainsi que la définition d’une gouvernance adaptée aux valeurs sociologiques, éthiques et juridiques des différents pays, émergent actuellement
en France, en Europe et dans le monde entier. Mais dans toutes ces initiatives et réflexions, la pièce maitresse qui tient l’ensemble est, à mon sens, la place que prend l’éthique dans ce puzzle, car elle va permettre une meilleure acceptabilité des interfaces numériques, tout en invitant toutes les parties prenantes et tous les acteurs, des inventeurs jusqu’aux utilisateurs, à se positionner eux-mêmes face à ces innovations.

Quelles problématiques
les innovations et interfaces numériques
posent-elles aujourd’hui ?

La période que nous vivons actuellement en 2023 est palpitante, excitante par les possibilités et progrès qu’elle ouvre, mais aussi peut désarçonner et quelque peu inquiéter, comme le montrent les derniers avis, cris d’alarmes et recommandations de l’ONU, de l’UNESCO et de l’OCDE depuis 2019. Il est tout de même raisonnable de reconnaitre que la transformation numérique et l’arrivée d’innovations d’IA offrent aux entreprises de nouvelles opportunités de marché et des avantages certains. Comme développer son
activité professionnelle, augmenter la rentabilité de l’entreprise, favoriser une expérience utilisateur d’une plus grande qualité par l’exploitation des données collectées, encourager les collaborations ou encore améliorer les communications en ciblant directement le public concerné.

Mais à l’heure du metaverse et des réalités virtuelles et augmentées qui s’immiscent dans notre vie quotidienne personnelle et professionnelle, à l’heure des robots humanoïdes et d’une nouvelle version d’intelligence artificielle (IA) conversationnelle comme ChatGPT, encore plus performante que celle de novembre 2022, à l’heure des neurotechnologies non invasives et des algorithmes de plus en plus puissants, qui va prendre le pouvoir sur l’homme ? Cette question quelque peu décalée et osée reflète pourtant l’ampleur des questionnements sous-jacents aux innovations et aux interfaces numériques. Car la vitesse à laquelle ces innovations se déploient maintenant représente un risque pour la démocratie, pour de nombreux emplois, et pourrait aggraver les inégalités entre les individus, les pays et les cultures.

Il devient évident que le monde d’après, que nous imaginions en mars 2020, lors du premier confinement de la crise sanitaire de la Covid-19, sera celui de la data, de l’IA, des neurosciences et des neurotechnologies, donc de l’innovation numérique et technologique. Mais ce monde d’après gardera-t-il une âme humaine ? Quel impact cela aura-t-il sur l’espèce humaine, sur chacun des êtres humains ? Que signifie être « un être humain » au temps des interfaces numériques, des neurosciences et de l’IA ?

Dans un contexte international sous haute tension, l’OCDE a adopté, en mars 2023, une recommandation sur les enjeux de l’identité numérique (OECD, 2023), reconnaissant que ce système pourrait simplifier les interactions, permettre la personnalisation des services, et réduire le risque d’erreur et de fraude. Ce positionnement d’ouverture est intéressant, car il oblige à se poser d’autres questions mettant l’éthique au centre de tout le système.

Comment construire un monde respectueux de la vie humaine et de l’être humain, alors que les nouvelles technologies investissent massivement tous les champs de nos vies ? Quelles questions éthiques aussi vastes qu’exigeantes, les entreprises, les chercheurs, les dirigeants, les citoyens vont-ils être amenés à se poser, les invitant immédiatement à réfléchir aux enjeux de responsabilité, d’intégrité et de dignité humaine, d’autonomie, de bienfaisance ?

Le développement d’outils numériques très miniaturisés et plus puissants, facilite l’émergence de l’intelligence artificielle, l’expansion d’algorithmes, et leur convergence avec les progrès des neurosciences. Miniaturiser ces technologies ouvre des possibilités d’innovations, permettant à l’IA de prendre l’ampleur. Ces interfaces numériques et technologiques offrent un champ des possibles quant aux usages dans tous les domaines de la société : comme la recherche, la médecine et la santé humaine (Silva, 2018 ; Rainey et
Erden, 2020 ; Surianarayanan et al., 2023), mais aussi les jeux, la défense, le monde du travail, le recrutement, la finance, le marketing et le commerce, le luxe et le bien-être.

Les recherches progressent à une vitesse si vertigineuse, qu’elles rendent indispensables les réflexions sur les enjeux sociétaux, éthiques et légaux qu’elles soulèvent, ainsi que sur la conception interdisciplinaire de certifications, de normes, d’autorisations, de systèmes d’évaluation, de surveillance et de cadres de gouvernance qui soient adaptés aux valeurs sociologiques, éthiques et juridiques de la France et de l’Europe.

Le metaverse (Fernandez et Hui, 2022), les interfaces numériques (Tsamados et al., 2021 ; Marcello Ienca, 2020), les neurotechnologies (Salles et al., 2019), les réalités virtuelles et augmentées (Slater et al., 2020 ; Meske et Amojo, 2020) mettent en tension les conceptions de ce qu’est l’être humain en tant que personne autonome, libre et responsable, et les conséquences de leurs utilisations sur l’identité humaine et la société. Ils transforment la conception que nous avons de notre identité, notre perception du monde, de nous-même
et de notre relation aux autres. Leurs développements appellent à une « vigilance éthique face au risque d’atteinte à l’intégrité psychique et d’entrave à la liberté de pensée » (By-sa, 2020).

Il est également intéressant de souligner que la place de l’imaginaire et de la science-fiction est centrale dans leurs élaborations et leurs développements, posant l’inévitable question de quel monde voulons-nous et construisons-nous pour demain. Le philosophe Hans Jonas avait déjà verbalisé cette inquiétude en 1984, dans son livre Le principe de responsabilité1 (Jonas, 1984). Inquiétude que nous pouvons poser par ces simples questions : quel monde allons-nous transmettre aux générations futures ? Est-ce que c’est prendre soin de ce futur que de se jeter dans l’innovation sans réfléchir aux conséquences ?

Ll’éthique peut-elle être
la pierre angulaire de tous ces défis ?
et d’ailleurs, qu’est-ce que l’éthique ?

Cela n’a échappé à personne que l’éthique est en train de devenir, en 2023, au cœur des stratégies de l’innovation, des entreprises et des recherches.

Pour qu’une innovation soit acceptée et crédible sur la scène nationale et internationale de l’économie de marché, et pour qu’elle puisse se faire une place au cœur de ce « TGV en ultra grande vitesse » mondialisé des innovations numériques et technologiques, elle se doit d’être fiable, rigoureuse, responsable, transparente et de confiance.

De plus, pour que ces interfaces numériques puissent accélérer la transition vers une société plus responsable et plus durable, il est essentiel de diffuser une culture éthique au sein de chaque département et de chaque service des entreprises, qui soit en accord avec les valeurs que celles-ci veulent incarner et défendre. Cette juste protection des innovations permet aux entreprises et aux acteurs des parties prenantes de continuer à être, sur le plan national et international, des acteurs influents majeurs de la valorisation et du transfert vers la société des innovations dans toutes leurs dimensions. Il en va de la confiance que nos concitoyens accordent et vont continuer à accorder aux entreprises, à l’État, aux chercheurs, mais aussi de la souveraineté qu’a la France dans l’écosystème des innovations au niveau international.

Le défi est donc d’apprendre à surfer sur la vague de l’innovation et de la technologie tout en admettant qu’il faille anticiper les dérives de leurs usages. Mais pour cela, il faut comprendre ce qu’est véritablement l’éthique et quelle place va-t-on lui donner dans l’entreprise et dans l’innovation. Car il est évident qu’en 2023, cette discipline n’est pas encore suffisamment formalisée dans les gouvernances de toutes les entreprises.

Elle doit s’appliquer sur et s’impliquer dans toutes les chaines de valeur de l’entreprise, et devenir une partie prenante à part entière pouvant intervenir dans l’ensemble des processus, de l’élaboration jusqu’à la commercialisation en passant par le développement, la gestion et la coordination de la mise en œuvre du projet.

Or, pour que l’éthique puisse prendre toute sa place, il faut au préalable clarifier les termes, car une confusion trop importante avec la morale, ne lui permet pas d’être ce qu’elle est véritablement. L’éthique et la morale renvoient toutes les deux à l’idée de mœurs, l’une provenant du latin mores, l’autre, du grec ethos. Elles renvoient à une dimension importante des actions humaines, visible dans des situations de la vie courante. En français, on utilise le mot ethos pour parler d’une façon d’agir propre à un groupe d’individus, d’un
code de conduite qu’il ne serait pas même nécessaire de transcrire car manifeste (Ricoeur, 1990).

Si l’on veut les distinguer, la morale se réfère à un ensemble de valeurs et de principes qui permettent de différencier le bien du mal, le juste de l’injuste, l’acceptable de l’inacceptable, et auxquels il faudrait se conformer. C’est l’ensemble des principes de jugement et de conduite qui s’imposent à la conscience individuelle ou collective, comme fondés sur les impératifs du bien.

Alors que l’éthique n’est pas un ensemble de valeurs ni de principes en particulier, comme l’est la morale. Il s’agit d’une réflexion argumentée en vue du bien-agir, partant de la culture commune d’une entreprise, d’un pays ou d’un peuple. Elle va proposer de s’interroger sur les valeurs morales et les principes moraux qui devraient orienter nos actions, dans des situations singulières provoquant des questions liées à un conflit de valeurs à un moment précis, dans le but d’agir conformément à ceux-ci.

Or l’éthique et la morale vont se répondre et dialoguer, lorsque l’une ou l’autre est en tension, c’est la sagesse pratique selon Paul Ricoeur (Svandra, 2016). Une visée éthique est selon lui « le mouvement même de la liberté qui cherche une vie bonne, dans la sollicitude envers autrui et dans un juste usage des institutions sociales ».

Donc réfléchir sur les enjeux éthiques du numérique, des innovations, de l’IA, des données, des neurotechnologies nécessite de s’interroger et de s’ouvrir à la démarche du questionnement de nos actions. Une telle réflexion permet alors de poser factuellement les choses, et peut se faire à différents niveaux, certains plus fondamentaux et d’autres plus pratiques et opérationnels.

Penser éthique, c’est pouvoir se poser, impliquant une prise de recul. C’est entrer dans les méandres des dilemmes qui s’imposent à nous, pour essayer de « tricoter et détricoter » et peser les arguments du plus juste positionnement. Une telle réflexion est essentielle à l’innovation responsable qui requiert un temps de réflexion pour que sa concrétisation dans la société soit sûre et respectueuse des valeurs universelles des droits de l’homme, des principes de dignité, de bienfaisance, d’autonomie, de responsabilité, de liberté de
penser et de choix, et ce en prenant appui sur l’engagement volontaire des entreprises et des utilisateurs pour en assurer sa réussite.

Pour créer une technologie,
une innovation de confiance,
quelle place pour le respect de la vie privée,
de la personne humaine, de la dignité
et de la vulnérabilité humaine ?

Les neurosciences modifient nos conceptions philosophiques et éthiques traditionnelles construites à partir de la base biologique de notre comportement, en apportant des informations sur le fondement biologique de notre comportement moral, nos pensées, nos décisions, nos goûts, nos positions, nos fragilités et nos prédispositions.

Elles mettent en question le concept juridique du libre arbitre, donc de la base de la responsabilité juridique, et interrogent sur la notion de consentement et les finalités des recherches, mais également sur la vulnérabilité, l’intérêt et la sécurité de la personne et de la nation, qui doivent être au cœur de ces questionnements éthiques du numérique.

La vulnérabilité nous permet d’entrer en relation avec autrui. C’est une leçon d’humilité, la comprendre permet de prendre soin de l’autre dans une juste relation d’interdépendance, en assumant une autonomie relationnelle. Ce qui est en jeu, c’est la confidentialité de ce que nous sommes en tant qu’être humain singulier qui doit être et rester au centre des enjeux éthiques du numérique et des données.

Donc le défi pour la société, les entreprises, la recherche, est vertigineux. Il est de faire une place significative à l’éthique au sein des organisations, des directions, et en amont des projets et des investissements, afin qu’elle puisse les accompagner jusqu’à leurs termes, diminuant ainsi les risques de contentieux légaux et sociétaux. Le défi est de rendre opérationnelle l’éthique, tout en lui laissant ce qui la caractérise qui est la place à la réflexion, à l’échange, à la discussion, à la controverse, au doute. C’est finalement envisager l’éthique comme pivot réflexif entre l’intégrité scientifique, donc une démarche normative, et la responsabilité sociale, qui est une démarche sociétale et politique (Coutellec et Weil-Dubuc, 2019 ; Coutellec, 2019).

Pour cela, il faut réunir les conditions d’un questionnement ensemble, de telle sorte que cela permettre à chacun de : 1) déplacer son regard, 2) de faire un pas de côté, 3) de prendre de la hauteur et du recul, 4) de relire, 5) de s’approprier et se réapproprier sa capacité de penser et d’analyse, son esprit critique, 6) d’avoir l’envie d’agir dans le sens qui lui semble juste.

Pour résumer, l’éthique va donc favoriser une démarche d’intelligence collective, rendant possible la composition des savoirs et des perspectives de tous projets, en considérant leurs spécificités et leurs singularités. Cette démarche a un potentiel vertueux et structurant, en invitant à la réflexion et à l’échange, afin d’améliorer les processus, les pratiques et les approches responsables des projets d’innovation, car avec le numérique, il va être de plus en plus difficile d’être dans la réactivité face à un problème éthique. Les problématiques éthiques et juridiques vont devenir insolubles si on ne les traite pas en amont de la conception des technologies numériques. L’éthique va permettre d’être proactifs et d’accompagner de manière positive l’innovation, et non pas de brimer ses potentiels ni de la freiner.

Finalement, ce qui est enthousiasmant, c’est que le numérique ouvre de nouveaux champs d’action de l’éthique, en la dirigeant vers une éthique de l’usage, une éthique appliquée, embarquée, impliquée, citoyenne et de terrain, faisant le lien avec la réflexion et la philosophie, qui ouvre un éventail de plus en plus large et diversifié aux actions humaines pour qu’elles soient en cohérence avec les libertés et droits fondamentaux.

L’« éthique by design » (Fischer, 2019) qui se dessine au cœur des organisations est l’approche d’une éthique appliquée et embarquée dans la réalité du terrain des entreprises dès la conception et l’élaboration des innovations et des projets afin qu’ils intègrent des dimensions responsables et respectueuses de l’intégrité et de la dignité de l’être humaine et de l’espèce humaine. Sa spécificité est qu’elle s’insère dans le concret des
projets, en tant que partie prenante de ce dernier, dès le départ, complétant et travaillant ainsi avec la “privacy by design”. Car l’arrivée du numérique fait émerger des questions éthiques sans précédent en lien avec des questions juridiques, puisqu’il génère à lui seul un appareil normatif qui peut avoir un impact aussi considérable qu’une loi d’un pays, voire davantage lorsqu’il est mondial. Le but est donc d’intégrer des valeurs et des principes similaires à ceux des êtres humains dès la conception des interfaces numériques
et technologiques. Cela se traduit par une réflexion éthique, qui se concrétise ensuite techniquement.

Image générée à l’aide du logiciel Midjourney par Laure Tabouy (D. R.).

Opérationnaliser l’éthique demande donc d’être imaginatif et créatif dans la mise en œuvre de cette problématique en l’intégrant dans le concret de l’entreprise et qui sera empreinte des valeurs et de la culture de chacune d’entre elle et des pays où elle implantée. Un des exemples est la mise en œuvre des recommandations de l’OCDE de 2019 sur les neurotechnologies en France par l’inauguration d’une charte nationale des neurotechnologies responsables le 17 novembre 2022. Cette charte propose d’accompagner l’innovation sans être une contrainte pour les entreprises et la recherche. Elle est un exemple concret d’application de l’éthique dans le domaine du numérique.

L’éthique de l’anticipation à travers
l’exemple des neurotechnologies

Favoriser l’usage du numérique et des interfaces numériques, le partage et la réutilisation des données, s’interroger sur les modèles économiques de valorisation de celles-ci, faire confiance à l’innovation sont des enjeux cruciaux, dont l’attractivité de la France dépend. L’intérêt suscité par le numérique et les investissements qui y sont consacrés a conduit à la naissance de nombreuses entreprises et à de nombreux projets de recherche français, européens et internationaux visant à faire progresser la connaissance.

C’est le cas de la recherche en neurosciences. Lire dans les pensées, décrypter les rêves, communiquer et écrire par les pensées, télécharger le cerveau dans un ordinateur… Ce monde, qui relève de la science-fiction, est à nos portes. Il est même déjà là, et il m’interroge. Est-ce qu’il est souhaitable que nos pensées et nos intentions soient à la portée de tous ?

Par la convergence des approches moléculaires et cellulaires avec des recherches neuro- physiologiques et cognitives plus intégrées et l’informatique, l’IA, les recherches qui visent à comprendre la structure et le fonctionnement du cerveau sont accompagnées du développement d’innovations numériques et de techniques d’exploration du cerveau : les neurotechnologies ou interfaces cerveau-machine.

La charte française des neurotechnologies responsables2 (MESRI et al., 2022), inaugurée en 2022 et l’OCDE à travers sa recommandation n°0457 de 2019 (OCDE, 2019) ont défini les neurotechnologies comme « des dispositifs et des procédures utilisés pour accéder au fonctionnement ou à la structure des systèmes neuronaux de personnes naturelles et permettant de les étudier, de les évaluer, de les modéliser, d’exercer sur eux une surveillance ou d’intervenir sur leur activité ». Elles permettent de réaliser des interventions
d’une grande précision, de moduler les circuits neuronaux associés aux facultés cognitives et comportementales afin d’agir ou de contrôler l’une ou l’autre de ces facultés. Elles sont développées au sein de laboratoires académiques et d’entreprises, et déjà commercialisées auprès d’un public en bonne santé.

À la vue de la progression à une vitesse vertigineuse des innovations, c’est autour de la nécessité de s’accorder sur une éthique appliquée et embarquée aux neurotechnologies et à l’IA que se construit la neuroéthique, ou une neuroethics by design. Ces recherches permettent aujourd’hui de modéliser la notion d’intelligence au cœur même de la notion d’humanité. Ce qui m’interroge, car l’utilisation d’une sémantique empruntée aux neuro-sciences entretient dans la société le fantasme d’une IA véritablement intelligente, à la
hauteur de l’intelligence humaine. À l’heure où bon nombre annoncent que ces innovations sont sur le point d’acquérir une conscience, pourraient être capables de raisonnements, d’adaptabilité et de ressentir des émotions, certains posent la question d’accorder des droits aux innovations technologiques similaires aux humains. À l’heure actuelle, les machines n’ont pas les capacités d’adaptation des êtres humains. Il est donc encore possible de distinguer l’intelligence humaine de l’intelligence artificielle, mais pour combien de temps?

Est-ce éthiquement justifié de leur accorder de tels droits ? Qu’appelle-t-on une machine consciente et intelligente ? Qu’en est-il de la responsabilité qu’elles pourraient endosser ? Quels risques d’abus possible qui pourraient être juridiquement sanctionnables ? Quelle distinction entre la conscience et l’intelligence humaine et artificielle ? Comment les définir ?

Dans une société où la nécessité économique domine, ces machines sont porteuses d’espoir, mais leur capacité à influencer ou manipuler les personnes est inquiétante. Une frontière très poreuse entre les utilisations médicales et non médicales, comme le bien- être, les jeux, le travail, le neuromarketing, le luxe, les RH, les finances, interroge, avec des objectifs et des investissements différents.

Le perfectionnement des technologies sur le marché mondial et la convergence de l’IA et des neurosciences favorisent le développement de neurotechnologies plus miniaturisées, plus efficaces et plus puissantes, l’arrivée de plateformes collaboratives, et la mise en place de cloud international. Cette convergence rend de plus en plus possible le développement d’innovations proches de celles imaginées dans la littérature de science-fiction. Effectivement, des algorithmes, de l’IA et l’apprentissage automatique permettent de
traiter les données cérébrales capturées. Ils convertissent les ondes cérébrales en signaux numériques qui peuvent ensuite être utilisés pour du neurofeedback. Quels sont les enjeux de cette convergence ? Les informations générées par les algorithmes sur l’activité cérébrale et la manière dont ils produisent des connaissances et des idées exploitables interpellent.

La mise en lumière des potentiels et des limites des neurotechnologies remet au centre des préoccupations l’éthique de l’anticipation de celles-ci. En s’interrogeant sur le champ des possibles, à l’aide de la philosophie et la littérature de science-fiction, il est intéressant de penser et de comprendre comment prendre soin du présent et du futur, sans contraindre la promesse d’une innovation utile et prometteuse3 (Coutellec et Weil-Dubuc, 2019).

Anticiper les futurs, c’est davantage s’interroger sur le champ de possibilités qui s’ouvre lorsque l’on se défait de certains tropismes technologiques. Prises dans l’anticipation projective de la compréhension du cerveau pour enrichir les capacités cognitives et émotionnelles des machines, quelles questions éthiques émergent de la science-fiction et des technologies en cours ?

Cette question met un coup de projecteur sur la place de l’anticipation et de la prédiction, qui sont centrales dans l’élaboration des neurotechnologies et des interfaces numériques. Les recommandations de l’OCDE de 2019, de l’UNESCO en 2021 (Unesco, 2022) et 2023 (Unesco, 2023), mais aussi la charte française des neurotechnologies, inaugurée le 17 novembre 2022, ouvrent d’ailleurs la porte à ces questionnements.

La littérature, depuis Jules Verne, les films et aussi les jeux vidéo regorgent d’idées pour de futures utilisations des interfaces numériques. Il est donc indispensable de se pencher sur leur pouvoir de création en analysant les scénarios. Car la question de l’opérationnalisation de l’éthique se pose pour que ces innovations soient adaptées aux valeurs sociologiques, éthiques et juridiques de la France et de l’Europe. Et la science-fiction reflète parfois ces valeurs.

En perspective, il faut privilégier la liberté d’innover en intégrant dans le processus dès la conception des innovations l’éthique, en faisant d’elle une alliée et une partie prenante de tous projets et de toutes innovations.

« C’est prendre soin de la santé du présent et de notre façon d’y être attentif sans contraindre l’espérance d’un futur meilleur. C’est finalement remettre au centre des préoccupations une éthique de l’anticipation comprise comme éthique de notre façon de prendre soin du futur » (Coutellec et Weil-Dubuc, 2019).
Et vous, chers lecteurs, après ce petit intermède sur l’éthique, comment ces sujets, ces innovations, ces questionnements, ces réflexions vous parlent et viennent vous chatouiller, vous titiller, vous toucher, vous bousculer ou vous engager ?

Bibliographie

BY-SA C.C. (2020), « Les neurotechnologies sous l’œil de la nouvelle loi de bioéthique »,
pp. 1-6.
COUTELLEC L. (2019), « Penser l’indissociabilité de l’éthique de la recherche, de l’inté-
grité scientifique et de la responsabilité sociale des sciences », Revue d’anthropologie des
connaissances 13(2), pp. 381-398.
COUTELLEC L. & WEIL-DUBUC P.-L. (2019), « Des antidotes pour une éthique de
l’innovation », Soins, 64(837), pp. 56-59.
FERNANDEZ C. B. & HUI P. (2022), “Life, the metaverse and everything: An overview
of privacy, ethics, and governance in metaverse”, Proceedings – 2022 IEEE 42nd Int Conf
Distrib Comput Syst Work ICDCSW 2022:272–277.
FISCHER F. (2019), « L’éthique by design du numérique : généalogie d’un concept », Sci
du Des, n°10, pp. 61-67.
JONAS H. (1984), The Imperative of Responsibility. In Search of an Ethics for the
Technological Age, University of Chicago Press.
MARCELLO I. & IGNATIADIS K. (2020), “Artificial intelligence in clinical neuroscience:
Methodological and ethical challenges”, AJOB Neurosci, 11, pp. 77-87. Available at:
https://doi.org/10.1080/21507740.2020.1740352
MESKE C. & AMOJO I. J. (2020), “Ethical guidelines for the construction of digital
nudges”, arXiv 3:3928–3937.
MESRI, CCNE & OCDE (2022), « Charte de développement responsable des
neurotechnologies ».
OECD (2019), “Recommendation on responsible innovation in neurotechnology”, Oecd/
Legal/0457:10.
OECD (2023), “Draft recommendation on the governance of digital identity”, pp. 1-9.

RAINEY S. & ERDEN Y. J. (2020), “Correcting the brain? The convergence of neuros-
cience, neurotechnology, psychiatry, and artificial intelligence”, Sci Eng Ethics, 26,
pp. 2439-2454.
RICOEUR P. (1990), Éthique et morale, pp. 1-9.
SALLES A., EVERS K. & FARISCO M. (2019), “Neuroethics and philosophy in respon-
sible research and innovation: The case of the human brain project”, Neuroethics, 12,
pp. 201-211.
SILVA G. A. (2018), “A new frontier: The convergence of nanotechnology, brain machine
interfaces, and artificial intelligence”, Front Neurosci, 12, pp. 1-8.
SLATER M., GONZALEZ-LIENCRES C., HAGGARD P., VINKERS C., GREGORY-
CLARKE R., JELLEY S., WATSON Z., BREEN G., SCHWARZ R., STEPTOE W.,
SZOSTAK D., HALAN S., FOX D. & SILVER J. (2020), “The ethics of realism in virtual
and augmented reality”, Front Virtual Real, 1, pp. 1-13.
SURIANARAYANAN C., LAWRENCE J.J., CHELLIAH P.R., PRAKASH E. & HEWAGE
C. (2023), “Convergence of artificial intelligence and neuroscience towards the diagnosis
of neurological disorders – A scoping review”, pp. 1-29.
SVANDRA P. (2016), Repenser l’éthique avec Paul Ricœur.
TSAMADOS A., AGGARWAL N., COWLS J., MORLEY J., ROBERTS H., TADDEO M.
& FLORIDI L. (2021), “The ethics of algorithms: Key problems and solutions”, AI Soc.
Available at: https://doi.org/10.1007/s00146-021-01154-8.
UNESCO (2022), “Ethical issues of neurotechnologies”.
UNESCO (2023), “The risks and challenges of neurotechnologies for human rights”.

Retour en haut