Entre fascination et inquiétude, cet article explore l’impact de l’intelligence artificielle (IA) sur notre compréhension de l’humain et des technologies. En mêlant analyse éthique et perspectives théologiques, il interroge le rôle de l’IA comme miroir de notre propre condition, ses enjeux pour la société, et les défis liés à la définition même de l’autonomie et de la subjectivité.
«Is this the real life? Is this just fantasy? Caught in a landslide, no escape from reality.» Queen, Bohemian Rhapsody[1]
« Il est mort par aliénation au monde et parce qu'il n'a pas su changer ses conditions de vie, qui étaient devenues destructrices pour lui. » Walter Benjamin, Zum Bilde Prousts[2]
L'intelligence artificielle (IA) est passée depuis longtemps de l’état de science-fiction à celui de phénomène quotidien. L'IA s'immisce plus ou moins discrètement, silencieusement et en douceur dans nos vies. Comme pour toute nouvelle grande technologie, les changements espérés ou redoutés qui en découlent peuvent être salués avec enthousiasme, diabolisés à outrance, analysés de manière prospective ou ignorés désespérément. Ce qui est nouveau, en revanche, c'est que les justifications qui accompagnent l'une ou l'autre attitude pourraient bientôt venir de la technologie elle-même (chatbots, large language models, LLM ; natural language processing, NLP). L'IA est aujourd'hui étroitement liée à cinq entreprises tech d'envergure mondiale. L'une d'entre elles est à l'origine du matériel sur lequel ce texte a été écrit à l'aide du logiciel d'un autre, et pour la recherche duquel on a eu recours au programme et aux services de deux autres. Ce sont mes pensées, que j'ai écrites moi-même – mais que signifient « mes » et « moi-même » lorsque quatre des cinq grands géants de la technologie ont participé à la création de ce texte ? Quelles sont les implications et les conséquences d’un texte écrit au sujet de l'IA avec le soutien de l'IA ?
Il est certain que le résultat aurait été différent sans l'utilisation de cette technologie. Ce qui reste en revanche ouvert, c'est en quoi auraient consisté la différence et ce qui aurait influencé la production du texte dans un sens ou dans l'autre. L'idée de l’auteur semble toujours indispensable pour faire sens de ce processus au cours duquel une feuille de papier blanche est successivement noircie de symboles linguistiques. Je peux être convaincu que je ne fais qu’utiliser mon ordinateur portable comme une machine à écrire. Mais cette conviction ne dépend pas du fait que l’ordinateur portable fait la même chose avec moi qu'une machine à écrire. Cette conviction peut reposer sur un simple présupposé. Néanmoins, elle a un poids considérable, par exemple pour la clarification juridique des questions complexes de droits d'auteur et de copyright ou pour la conception anthropologique et politique de la liberté au sens de la « liberté de la plume » d'Emmanuel Kant comme « seul gage du salut (palladium) des droits du peuple »[3]. De la même manière, je ne peux pas renoncer à ce présupposé lorsque je me reconnais moi-même dans la glace, lorsque j’essaie de défendre et de faire valoir mes propres positions, lorsque je considère ma vie sous l’angle de ma biographie, lorsque je veux que les autres me reconnaissent pour la personne que je suis. Une description générale du problème pourrait être la suivante : Les systèmes de pensée traditionnels, qui constituent la condition et la base de légitimation de nos pratiques et modes de vie établis, sont des tours Jenga savamment équilibrées, et il semble que l'IA, ou plus précisément notre réflexion à leur sujet, mène à en retirer les fondations.
Mais cette perspective menaçante peut aussi être inversée : « Ce qui est formidable dans le débat actuel [...], c'est que le grand public a soudain pris conscience du statut et de la position de l'être humain. Jamais auparavant il n'avait été possible de discuter de manière aussi directe et immédiate du problème central, à savoir l'’être humain’ lui-même. L'intelligence artificielle est un miroir de nous, les humains, et la question de savoir si les robots nous remplacent ou s'ils ne font ‘que’ nous assister ne vient qu'en second lieu. En effet, nous devons d'abord nous pencher sur qui et ce que nous sommes, nous les humains »[4].L’imaginaire lié à l'IA sert de miroir dans lequel les personnes et les sociétés peuvent se contempler. Les images présentées ne sont ni uniquement technologiques ni uniquement anthropologiques, mais proviennent d'un mélange diffus des deux. Ainsi, l'opposition entre l'intelligence artificielle d'une part et l'intelligence humaine, naturelle, basée sur le carbone… n'est pas si claire. L’intelligence comme critère qui permettait de distinguer homo sapiens rendait superflue toute réflexion sur le rapport, ou la délimitation par rapport à d'autres êtres et formes d'intelligence. Et on ne se trouve pas à la hauteur du défi lorsque l’on se contente de l’argument (justifié !) que l’être humain est bien plus qu'un agrégat neurocognitif.
Les discussions sur l'IA font penser à un numéro de funambule, où l'IA est placée à une extrémité de la barre et les images que l’on se fait de l’être humain à l'autre, sans que l’on sache vraiment qui se tient en équilibre sur la corde, la barre dans les mains. Cette perspective des débats sur l'IA en est une parmi d’autres. Mais elle présente trois avantages par rapport aux nombreuses discussions qui ont cours actuellement : (1) elle ne se limite pas aux questions d'application techniques et juridiques ; (2) elle évite une attitude anthropocentrique et apologétique ; (3) elle peut être rattachée aux discours théologiques et éthiques. Les questions sur l'IA, l’interrogation quant à ces sujets qui « interagissent » entre eux et sur les conséquences individuelles et sociétales de cette interaction renvoient à différents niveaux d’enjeu. Il n'est pas possible d'y répondre uniquement par la description, l'analyse et la normalisation des technologies, ni par le renvoi à des exigences politiques, juridiques et éthiques vis-à-vis des technologies et de leurs applications. Jusqu’à présent, la réglementation juridique de l’IA se fait sur le même mode que pour d’autres technologies, car le droit ne connaît pas de voie alternative. La condition préalable pour un traitement alternatif serait une description et une analyse minutieuses des constellations qui résultent de l'implémentation de l'IA dans la société.
C'est ici qu'interviennent les réflexions suivantes. Comment parler de l'IA ? À quels discours peut-on se référer ? Où se trouvent les points de convergence et où la reprise des perspectives et arguments que l’on utilise habituellement dans l’approche des technologies se heurte-t-elle à des limites ? Cette introduction générale vise un traitement de la thématique dans des contributions ultérieures.
Aucun GPS, aucun robot ménager ou thermostat ne peut se passer de l'IA. Les smartphones ont fait de nous des addictes de l'IA. Nous sommes stressés lorsque l'appareil est introuvable ou que sa batterie est à plat. Nous réagissons comme si nous avions perdu une partie de nous-mêmes lorsqu’il disparaît. La dépendance est évidente. « Les publicités que vous voyez en ligne, les recommandations d'achat, de visionnage et d'écoute qui vous sont faites sur Amazon, Netflix, YouTube ou Spotify sont déterminées par une IA. De nombreux messages que vous lisez ont été rédigés par une IA. Et souvent, les IA contribuent à déterminer si vous serez reçus ou non pour un entretien d'embauche, à combien s'élèvent vos cotisations d'assurance et comment vous serez traité si vous êtes malade. Cette liste pourrait être si longue que seule une IA aurait la patience de la lire jusqu'au bout »[5]. Personne n’échappe aujourd’hui aux « GAFAM », les 5 poids lourds de la Tech :
Le pouvoir de ces entreprises internationales est indissociable des technologies qui ont fait leur succès. Leurs stratégies sont aussi impénétrables que les technologies qu'elles proposent, que nous utilisons et auxquelles nous confions de plus en plus d'aspects de notre vie.
L'IA est à la fois quelque chose de familier, qui fait désormais partie intégrante de notre quotidien, et quelque chose de largement inconnu, qu'il est difficile de conceptualiser et de décrire avec les catégories que nous utilisons habituellement. C'est pourquoi on a recours à un langage métaphorique et anthropomorphique : Le matériel et les algorithmes « interagissent », « pensent par eux-mêmes », « prennent des décisions » ou ont un statut « autonome », ce qui suggère la revendication de « droits » propres. Ce sont des attributs qui étaient auparavant attribués aux seules personnes et à certains animaux. De toutes les technologies, l'IA est celle qui se rapproche le plus de la compréhension que nous avons de nous-mêmes. Elle fascine autant qu’elle suscite de la méfiance et des craintes. Selon le récit que nous entretenons au sujet de l’IA, nous ne connaissons rien de comparable qui nous ressemble autant et qui soit en même temps si mystérieusement étranger et différent de nous.
Le Dartmouth Summer Research Project on Artificial Intelligence, mené par John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon durant l'été 1956, est considéré comme l'acte de naissance de l'IA. L'idée en est formulée dans la description du projet : « Le séminaire doit partir de l'hypothèse qu'en principe tous les aspects de l'apprentissage et d'autres caractéristiques de l'intelligence peuvent être décrits avec suffisamment de précision pour qu'une machine puisse être construite pour simuler ces processus. Il s'agira d'essayer de découvrir comment les machines peuvent être amenées à utiliser le langage, à faire des abstractions et à développer des concepts, à résoudre des problèmes du type de ceux qui sont actuellement réservés aux humains, et à s'améliorer encore ».[7] L'IA est comprise ici comme une technologie qui simule des capacités cognitives humaines. En raison de l'énorme expansion des capacités informatiques depuis 2015, le focus sur la simulation des capacités cognitives a été progressivement remplacé par les concepts de systèmes d'apprentissage. « Les systèmes d'apprentissage sont des machines, des robots et des systèmes logiciels qui exécutent de manière autonome des tâches décrites de manière abstraite à partir de données qui leur servent de base d'apprentissage, sans que chaque étape ne fasse l'objet d'une programmation spécifique »[8]. On les rencontre aujourd'hui dans les domaines de la traduction, de la production de texte, de la reconnaissance vocale et visuelle, des robots (care robots, sex robots), de la conduite autonome, des systèmes d'armes autonomes (lethal autonomous weapons systems, LAWS) et de la virtualisation ( réalité virtuelle et augmentée), par exemple dans les jeux vidéos, les programmes d'apprentissage, ou dans l’analyse prévisionnelle (predictive analytics). Toutes ces applications reposent sur les technologies de base du traitement des données et le développement d'algorithmes. En gros, on peut faire la distinction entre les IA fermées et ouvertes. Alors que les systèmes fermés remplissent des fonctions bien définies (systèmes basés sur une connaissance définie servant à l'analyse de données), les systèmes ouverts se caractérisent par le fait qu'ils remplissent des tâches de manière créative et autonome (systèmes d'apprentissage ; deep learning).
En Suisse, le débat sur l'IA est bien établi dans les milieux politiques et scientifiques. En 2018, le Conseil fédéral a mis en place un groupe de travail interdépartemental dans le cadre de la « Stratégie “Suisse numérique” », qui a présenté fin 2019 un rapport sur Les défis de l'intelligence artificielle et en 2020 des Lignes directrices pour la gestion de l'intelligence artificielle dans l'administration fédérale[9]. De nombreuses institutions, à l'exemple de l'Académie suisse des sciences techniques (SATW), s'engagent à améliorer le cadre juridique et politique de l'IA[10]. En 2018, la Suisse était le leader mondial des start-ups d'IA et de la recherche en IA mesurée par le score citation impact. La même année, le Fonds national suisse (FNS) a lancé le PNR 77 « Transformation numérique », qui comprend 64 projets. En 2020, la fondation nationale TA-Swiss a publié une étude sur les opportunités et les risques de l'IA dans les domaines du travail, de l'éducation, des médias, de la consommation et de l'administration[11]. Depuis 2015, la coopérative à but non lucratif MINDATA gère une plateforme de données pour laquelle elle agit en tant que gestionnaire des dossiers de données personnelles qui y sont déposés. Le centre de compétence Digital Society Initiative (DSI) de l'Université de Zurich a mené un projet sur l’utilisation de l’IA en médecine qui portait sur l'utilité pour la santé des « digital twins » – des images numériques de personnes[12]. Lors d'une enquête menée auprès de la population durant l'été 2023, 62% des quelque 1500 personnes interrogées se sont prononcées en faveur de l'utilisation d'un tel jumeau numérique par les professionnels de la santé. Les personnes interrogées ont exprimé une nette méfiance à l'égard de la transmission de données anonymisées à des entreprises privées (secteur pharmaceutique, entreprises tech et caisses-maladie), mais avaient plutôt confiance si elles étaient transmises aux hautes écoles, aux hôpitaux publics et aux offices fédéraux. En ce qui concerne le cadre légal, le Conseil fédéral a adopté fin 2022 une motion pour une loi-cadre sur la réutilisation des données.
« Is this the real life? Is this just fantasy? / Caught in a landslide, no escape from reality ». Les premières lignes de la chanson Bohemian Rhapsody de Queen soulèvent la question ancestrale de la réalité des sujets pensants et connaissants et de la réalité des objets de connaissance : quel est le point de vue du sujet pensant et connaissant et où se situe ce qui est pensé et connu ? On considère généralement que la réalité existe indépendamment du fait qu'elle soit perçue et expérimentée ou non. Cependant, d'un point de vue épistémologique, il est extrêmement difficile de donner des bases à cette conviction, car nous ne pouvons pas dire décrire les objets de notre expérience en dehors et indépendamment de notre expérience. Ce problème épistémologique se pose en philosophie depuis la célèbre allégorie de la caverne de Platon, mais il est devenu un problème pratique avec la production de mondes virtuels par l'IA[13].
De l'Antiquité à l'époque moderne, les êtres humains avaient– pour autant que nous puissions le reconstituer – un sens précis des écarts entre bonheur et malheur. Mais ils étaient loin de l'idée qu’ils pourraient prendre leur destin et main, et n’avaient de toute manière pas la possibilité de le faire. L’idée de forger son propre bonheur était inimaginable et inaccessible pendant la plus longue partie de l'histoire de l'humanité. Ce n'est qu'avec les développements scientifiques et techniques modernes que cette idée s’impose. Les changements fondamentaux survenus depuis l'époque moderne se manifestent le plus clairement dans le fait que les expériences de vie ne sont plus simplement acceptées et interprétées comme un destin (provoqué par une main étrangère), mais sont vécues comme une triple « vexation »[14] : la terre n’est pas le centre de l'univers (Copernic – vexation cosmologique) ; l'espèce humaine est issue du monde animal (Darwin – vexation biologique) ; « le moi n’est soit pas maître dans sa propre maison »[15] (Freud – vexation psychologique). À cette triade pourrait s'ajouter aujourd'hui, comme quatrième désillusion, une vexation épistémique, celle qui s'attaque à la vision de l’être humain comme seul animal doué de raison (zoon logon echon en grec ; animal rationale en latin)[16]. Bien sûr, toutes ces vexations sont restées sans grandes conséquences et ont plutôt conduit à ce que l’on compense par la technique les points qui s’étaient affaiblis. Le philosophe Günther Anders décrit la quatrième vexation comme la « honte prométhéenne », qui consiste à reconnaître qu’« en termes de force, de vitesse et de précision, l'homme est inférieur aux appareils qu’il a inventés ; que même ses performances intellectuelles sont mauvaises comparées à celles de ses ‘computing machines’ ».[17] Les hommes ne peuvent plus suivre le rythme de leur propre civilisation, ils deviennent les victimes de leur propre réussite : « Et nous ? Et notre corps ? Au quotidien, rien n’en change [...] Il est morphologiquement constant ; moralement parlant : non-libre, récalcitrant et obstiné ; du point de vue des appareils le corps est conservateur, ne progresse pas, archaïque, irrévocable, un poids mort dans l'ascension des appareils. En bref : les sujets de la liberté et de la non-liberté sont intervertis. Les choses sont libres : l’être humain ne l’est pas »[18]. La vexation épistémique ou prométhéenne et ses conséquences peuvent bien sûr être interprétées de manière très différente. On peut en retenir trois :
Dans la perspective neutre de l’observateur, Yuval Noah Harari présente une perspective évolutionniste, détendue : « Il n'y a pourtant aucune raison de paniquer. Du moins pas tout de suite. L'ascension de Sapiens sera un processus historique graduel et non une apocalypse hollywoodienne. Homo sapiens ne sera pas anéanti par une révolte de robots. Il est plutôt probable qu'il se hissera progressivement à un niveau supérieur, fusionnant avec les robots et les ordinateurs, jusqu'à ce que nos descendants réalisent rétrospectivement qu'ils ne sont plus le genre d'êtres vivants qui ont rédigé la Bible, construit la Grande Muraille de Chine et qui ont ri aux facéties de Charlie Chaplin ».24 Cette perspective serait compatible avec la promesse divine « Voici l’alliance que j’établis avec vous : jamais plus le déluge ne supprimera la vie sur terre ; il n'y aura plus de déluge pour ravager la terre. ». (Genèse 9,11) La promesse s'adresse à l'ensemble de la création, pas à une espèce en particulier, encore moins à l'espèce humaine. Le statut privilégié de l'être humain, que l’on tire de nombreux passage biblique, est une invention théologique de l’Église.
Les idées trans- et post-humanistes d'optimisation ou de dépassement de l'homme (enhancement, cyborgization, mind uploading) ont quitté les départements de science-fiction et d'ésotérisme pour envahir le domaine des sciences. Derrière les mots-clés de trans- et post-humanisme se cachent des approches très hétérogènes qui vont de l'amélioration médicale et biotechnologique (neuroenhancement, protétique, biohacking, cryonie) à l'immortalité individuelle (transformation de l'existence basée sur le carbone à l'existence basée sur le silicone) en passant par les cultures posthégémoniques et écologiques.[19] Les approches trans- et posthumanistes visent de différentes une émancipation des caractéristiques biologiques de l'homo sapiens – jugées déficientes, limitatives, non viables ou « mauvaises » (« homme 1.0 »). La condition humaine n’est plus considérée comme une condition donnée et incontournable de l'existence humaine : « Cet humain [humaniste] n'était pas, comme il s'est avéré, un canon universel, doté de proportions parfaites exprimant un idéal fondé sur la loi naturelle, mais une construction historique, liée à des valeurs et à un lieu. L'individualisme n'est pas une composante de la ‘nature humaine’, comme les penseurs libéraux sont enclins à le croire, mais une construction d’un discours spécifique, lié à une histoire et une culture – une construction qui, de surcroît, devient de plus en plus problématique ».[20] Alors que le transhumanisme vise un perfectionnement technologique du corps humain, la prolongation de la vie biologique et l'immortalité de l'esprit (whole brain emulation), le posthumanisme aspire au dépassement du corps humain et donc à un dépassement de type catégorique de la perspective ou de l'existence anthropocentrique. Un posthumanisme critique vis-à-vis de la version technologique (Braidotti : « Antihumanissme ») déclare que le projet humaniste portée par les Lumières a échoué : « Qu'est-ce qui permettrait encore de dompter l’humain, si l’école de l'humanisme a échoué à le faire ? Qu'est-ce qui permettrait de dompter l’humain si les efforts déployés jusqu'ici pour nous dompter nous-mêmes n'ont abouti qu'à une prise de pouvoir sur tout ce qui existe ? Qu'est-ce qui permettrait de dompter l’humain si, après toutes les expériences menées jusqu'à présent, on ne sait toujours pas qui ou qu’est-ce qui éduque les éducateurs et dans quel but elle le fait ? »[21] La critique de la culture, mais aussi l'idée de la transformation et du dépassement du « vieil homme » génèrent une attraction mutuelle entre la théologie, le trans- et le posthumanisme.[22]
L’abolition, le perfectionnement ou le dépassement d'homo sapiens se rencontrent certes dans de nombreuses voix critiques, mais ne peuvent pas être sérieusement affirmés comme des visées de l'IA. Le roman d'Alexandre Dumas Les Trois Mousquetaires peut ici servir de base à un autre récit sur la relation entre l'humanité et l'IA.[23] Le titre du roman ne mentionne que trois mousquetaires du roi. Il s'agit d'Athos, le noble, d'Aramis, le religieux, et de Porthos, le bourgeois. En tant que représentants des trois classes de la société française, la triade ne pouvait pas être complétée par un quatrième mousquetaire (car il n'y avait pas de quatrième classe).[24] Mais c'est justement d'Artagnan, en surnuméraire, qui formulera alors le fameux serment des quatre amis : « les quatre amis répétèrent d'une seule voix la formule dictée par d'Artagnan : ‘Tous pour un, un pour tous.’ ».[25] « La triade est complète, mais elle ne se maintient que par l'adjonction d'un quatrième élément »[26]. On peut filer l’analogie : les trois vexations ne mènent pas à abolir (Harari) l’humanité, ou à développer de stratégies visant son perfectionnement ou son dépassement (transhumanisme et posthumanisme). C’est plutôt que grâce à la quatrième vexation l’humanité se trouve allégée et gagne en viabilité – du fait de l’IA, les capacités cognitives de l’humanité se trouvent décentrées et potentialisées. Soyons clairs : je ne propose pas ici une définition ou une description de l'IA, mais d’une interprétation possible de son fonctionnement pour la perception de soi humaine. L'impulsion critique à l’égard de l'anthropocentrisme présente des recoupements avec l'« antihumanisme » de Braidotti, dont l'accent mis sur l'« existence nomade » est théologiquement attractif[27] : « Le projet sur les sujets nomades [...] sert d'outil analytique pour considérer trois classes d'objets. Premièrement, les mutations culturelles, ce que j'appelle la cartographie culturelle : Qu'advient-il des corps, des identités, des appartenances, dans un monde qui est médiatisé par la technologie, mixte sur le plan ethnique et qui est soumet à des changements rapides. Deuxièmement, il en résulte un projet politique : pouvons-nous trouver d'autres moyens d'être mondialisés, de devenir planétaire, ou sommes-nous coincés dans le modèle néolibéral ? Existe-t-il une autre manière de repenser nos interdépendances ? Et enfin, la question éthique : quelles sont les valeurs de sujets qui ne sont pas uniformes, mais divisés, complexes et nomades ? »[28]
*
Ces trois récits constituent des pistes de discussion alternatives pour l'IA, qui orientent notre attention sur le sujet : comment penser et communiquer sur(/avec) l'IA au sujet de l’influence qu’elle a sur nous et sur nos modes de vie ? « Si le libéralisme, le nationalisme, l'Islam ou toute autre croyance nouvelle veut façonner le monde de 2050, il devra non seulement expliquer l'intelligence artificielle, les algorithmes qui traitent le big data et la bio-ingénierie, mais il devra aussi pouvoir les intégrer dans un nouveau narratif qui fait sens ».[29]
L'humanité réside dans la capacité à faire de la détresse propre à son espèce une vertu. Dans la déficience biologique de l'homo sapiens se trouve la chance d'une plasticité transformative. « Nu, déchaussé, découvert, désarmé », comme le constate Platon dans le dialogue Protagoras (321c), l’humain est un « être déficient » (Johann Gottfried Herder) qui, pour sa propre survie, doit apprendre à utiliser « sa main et sa parole » (André Leroi-Gourhan) de manière créative et utile. L'avantage de l'animal doué de raison – « zoon logon echon » (Aristote) – par rapport au reste de la nature réside dans le fait qu'il n'est pas limité à sa propre nature. L'animal « humain » n'est pas seulement le résultat de l’évolution : il peut aussi se développer lui-même en tenant compte de ses propres besoins et intérêts. Avec le feu de Prométhée entre ses mains, le destin de l’humain en tant que « Homo faber » (Max Scheler), en tant que créateur et fabricateur, qui invente et utilise des techniques pour « soulager ses organes » (marteau, machine à café), « les renforcer » (perceuse, voiture) et « les remplacer » (appareil à rayons X, avion) (Arnold Gehlen). Au cours de son histoire, homo sapiens se révèle être, grâce à sa construction flexible, un « homo compensator » (Odo Marquard), un génie de la compensation des déficiences. Un génie qui parvient de plus en plus à déjouer ses limites naturelles.
L'idée de pouvoir transformer le destin (des dangers) en une série de problèmes techniques (des risques), de les thématiser et de les traiter en tant que tels, y est liée : « En réalité, les gens ne meurent pas parce qu'une silhouette sombre les saisit par l'épaule, parce que Dieu l'a décidé ou parce que la mortalité est une partie importante d'un grand plan cosmique. Les gens meurent toujours à cause d'un problème technique quelconque. Le cœur cesse de pomper le sang dans le corps. L'artère principale est obstruée par des dépôts de graisse. Des cellules cancéreuses se propagent dans le foie. Les germes se multiplient dans les poumons. Et qu'est-ce qui est responsable de tous ces problèmes techniques ? D'autres problèmes techniques. Le cœur s'arrête de battre parce que le muscle cardiaque n'est plus suffisamment alimenté en oxygène. Des cellules cancéreuses prolifèrent parce qu'une mutation génétique aléatoire a modifié leur code. Des germes se sont déposés dans mes poumons parce que quelqu'un a éternué dans le métro. Il n'y a rien de métaphysique dans tout cela. Ce ne sont que des problèmes techniques. Et pour chaque problème technique, il y a une solution technique »[30].
Contre l'euphorie civilisationnelle, les idées de progrès et de perfectionnement, Friedrich Nietzsche avait déjà attiré l'attention sur la dialectique anthropologique de la solution et du problème : « [L]e fait que l’être humain ait remporté sa victoire dans la lutte avec les animaux a en même temps entraîné le développement pathologique difficile et dangereux de l’humain. Il est l'animal qui n’est pas encore fixé »[31]. Dans la vie, la chance qu’est la non-détermination humaine devient toujours un problème lorsqu’apparaissent à l’horizon des possibilités qui semblent sans commune mesure avec les conceptions que l’être humain se fait de lui-même. Comme le montrent les discussions sur l'utilisation militaire et civile de la fission nucléaire, sur le génie génétique et actuellement sur l'IA, la question se pose de savoir si les humains se dépasseraient eux-mêmes et mettraient leur propre espèce en péril avec les prochaines étapes technologiques qu’ils vont engager. Dans l'histoire de la technique, on rencontre souvent de telles limites imaginaires. Avec leur aide on mettait en garde contre la prochaine étape technologique. Mais ces limites tombaient régulièrement une fois que l'étape avait quand même été franchie. Cette conséquence ne confirme pas nécessairement l'inadéquation et la marge d'erreur des avertissements portant sur les limites. Elle peut aussi être considérée, avec de bonnes raisons, comme une preuve envers la capacité d'adaptation pragmatique de la partie de la population terrestre qui a profité de ce dépassement et de l'impuissance totale de l'autre partie de la population terrestre qui a dû en payer le prix.
La transgression des limites suppose qu’il y a des limites à franchir : (1.) les limites de la nature (causalité, lois de la nature) ; (2.) les limites morales et (3.) les limites juridiques. Tout ce qui n'est pas arrêté par ces limites constitue une possibilité (légale et légitime). La causalité naturelle est inéluctable, les normes morales et juridiques sont des créations humaines et peuvent donc être abrogées ou révisées. D’un point de vue matériel, la transgression des limites précède leur délimitation. Un comportement doit être perçu comme choquant et insupportable pour pouvoir être sanctionné et punit. Ce n'est qu'à ce moment-là qu'un comportement qui, auparavant, n’était « que » inacceptable en vient à violer des limites interdite et sanctionnée. Les limites normatives sont ambivalentes, car elles protègent par le fait d’empêcher quelque chose. Cela vaut pour les intentions et les actions mauvaises et inacceptables comme pour les actions bonnes et désirables. Plus encore, dans une perspective anthropologique, philosophique culturelle et théologique, les transgressions sont constitutives de l'homo sapiens. « Les transgressions [...] sont connotées positivement, comme antidote contre l'immobilisme et les espoirs attachés à ce qui est déjà passé, à ce qui est proche et à ce qui nous est propre : transculturel, transnational, transéconomique, mais aussi transcendance, ou [...] transsexualité ».[32] La vie humaine est orientée vers l'avenir. Elle est motivée par la perception du caractère contingent de la souffrance, de la vulnérabilité, de l’injustice et de la fragilité. Ces transgressions acquièrent leur poids et leur urgence sur fond d'utopies, d'espoirs et d'attentes opposés à ces contingences : santé, globalité, salut, immortalité.[33] Dans la perspective du bien et du juste, les expériences du mal et du faux ne peuvent être acceptées comme un destin sans alternatives. La plainte de Job n’aurait été notée que comme un fait divers regrettable s'il n'avait pas dénoncé sa misère comme une injustice flagrante dans le contexte de sa propre vie, où il avait pu expérimenter une forme de plénitude.
En raison de ses potentiels imaginés et réels, l'IA a une forte affinité avec la pensée utopique. Là où les potentialités humaines semblent épuisées, celles du numérique sont loin de l’être. Lorsque les progrès de la civilisation ne reposent plus (uniquement) sur la créativité humaine, mais (également) sur la créativité technologique, il est logique de penser que l'histoire du progrès peut se poursuivre en changeant de niveau, en recommençant à zéro. Trois perspectives se laissent identifier ici.
(1) L’IA comme outil. L'IA est conçue comme un perfectionnement de l'action technologique. En dépit de sa puissance et de son efficacité, elle reste fondamentalement attachée au paradigme instrumental, outil ou machine de la technologie. Bien qu'elles offrent des options qui dépassent les possibilités humaines, elles ne sont comprises que comme des moyens pour une mise en œuvre optimisée des capacités humaines – par analogie avec le vol, qui, certes n’appartient pas à la constitution humaine, mais ne représente qu'une forme plus efficace de sa capacité de déplacement. Ainsi comprises, les technologies produisent certes de « meilleurs » résultats, en prenant d’autres chemins, mais elles ne « font » rien que les humains ne puissent faire eux-mêmes, même s’ils le font « moins bien » ou de manière moins efficace. Inversement, la finalité de la technologie est d'accomplir le plus précisément possible ce pour quoi les humains l'utilisent.
(2) L’IA comme sujet autonome. Dans cette perspective, l'IA change de camp et occupe la position exclusivement réservée aux sujets humains dans la perspective précédente. Elle fixe elle-même les objectifs qu'elle poursuit avec ses moyens et devient le sujet de ses propres technologies, qu'elle utilise à des fins « propres ». La conception de l'IA comme sujet technologique autonome est discutée selon deux variantes : soit l'IA assume ce rôle par simulation, en étant programmée pour se comporter « comme un sujet (humain) ». Soit elle développe de manière autonome (deep learning) un rôle de sujet et se constitue ainsi elle-même en tant que sujet autonome. Il est important ici de faire la distinction entre la construction technologique de la subjectivité (l'IA n'a pas besoin de connaissances sur la subjectivité) et les catégories que nous utilisons pour décrire et comprendre les processus technologiques.
(3) L’interaction avec l‘IA. Entre la perspective instrumentale et la perspective de l’IA comme sujet autonome, il existe une vision intermédiaire qui peut être présentée comme celle qui considère qu’il y a une subjectivité partagée entre homo sapiens et l'IA. La prémisse forte selon laquelle des « sujets » « interagissent » effectivement dans une relation hiérarchique ou d'égal à égal y est contestée. La constellation spécifique humain/technologie ne concerne pas seulement – comme dans les interfaces humain/machine connues – des fonctions de commande et de contrôle, mais « l’humain » et « la machine » « agissent » leurs compétences ensemble. Ce point de vue est celui qui se rapproche le plus de la réalité actuelle, dans laquelle on distingue quatre degrés d'autonomie de l'IA et de la robotique : (1.) l'IA en tant que support technologique (corresponds à la perspective instrumentale) ; (2.) l'autonomie de l'IA par rapport aux tâches (human-in-the-loop) : elle exécute des tâches de manière contrôlée ; (3.) l'autonomie conditionnelle de l'IA (human-on-the-loop) : elle donne des recommandations, mais ne décide pas, et (4.) l'autonomie forte de l'IA (human-out-of-the-loop; corresponds à la perspective de l'autonomie de l’IA) : elle décide et opère de manière indépendante.
Les défis éthiques varient en fonction de la définition de l'IA. La protection, la sécurité, la prévention des dommages et la réduction des risques pour des personnes impliquées et concernées se trouvent au centre de la réflexion éthique. Ses visées ne diffèrent pas des normes connues de Technology Assessment. En 2019, un groupe d'experts indépendants de haut niveau sur l'intelligence artificielle, mise en place par la Commission européenne, a publié Ethics Guidelines for Trustworthy AI.[34] « Nous pensons que, dans le contexte de l'évolution rapide des technologies, il est indispensable que la confiance reste l'élément qui lie les sociétés, les communautés, les espaces économiques et le développement durable. C'est pourquoi nous définissons le développement d’une IA de confiance comme notre ambition fondamentale, car les personnes et les communautés ne peuvent avoir confiance dans le développement et l'application des technologies que s'il existe un cadre clair et complet qui garantit la confiance ».[35] Les auteurs du guide soulignent trois composantes pour qu’une IA soit digne de confiance : « 1. elle devrait être légale et donc respecter le droit en vigueur et toutes les dispositions légales ; 2. elle devrait être éthique et donc garantir le respect des principes et valeurs éthiques ; et 3. elle devrait être robuste, tant d'un point de vue technique que social, car les systèmes d'IA peuvent causer des dommages involontaires, même s'ils sont animés de bonnes intentions ».[36]
Le groupe d'experts en IA décrit sa propre base normative comme une « ‘approche centrée sur l’humain’, dans laquelle l’humain occupe une place morale unique et inaliénable dans les domaines de la société civile, de la politique, de l'économie et du social ».[37] Il en résulte quatre principes directeurs de l'éthique de l'IA : « (i) le respect de l'autonomie humaine ; (ii) la prévention des dommages ; (iii) l'équité et (iv) l'explicabilité ».[38] Les principes sont fondés sur la Charte des droits fondamentaux de l'Union européenne : « Le respect de l'autonomie humaine est étroitement lié au droit à la dignité et à la liberté humaines (énoncés aux articles 1 et 6 de la Charte). La prévention des dommages est étroitement liée à la protection de l'intégrité physique ou mentale (inscrite à l'article 3). L'équité est étroitement liée au droit à la non-discrimination, à la solidarité et à la justice (consacré aux articles 21 et suivants). L'explicabilité et la responsabilité sont liées aux droits associés à la justice (inscrite à l’article 47) »[39].
Le point de vue européen correspond largement aux normes internationales relatives à l'utilisation et à la gestion de l'IA. La transparence (transparency) est le plus souvent citée comme critère d'explicabilité des résultats produits par l’IA ; la justice et l'équité (justice & fairness) sont posées comme des exigences de suppression des biais là où apparaissent des distorsions exponentielles et incontrôlables – qui peuvent être dues à des erreurs contextuelles dans les données, lors de leur saisie ou de la programmation (« garbage in, garbage out ») – ainsi que le renforcement des valeurs sociales discriminatoires ; la non-malfaisance (non-maleficence) en tant qu'exigences relatives à la sécurité et à la protection à l’encontre d’actions manipulatrices (nudging, fake news) ; la responsabilité (responsibility) en tant que condition préalable à l’imputabilité juridique, dans un contexte où l’on voit une tendance à la diffusion systémique de la responsabilité et où se développent les réglementations des fournisseurs de technologie privés et des réglementations étatiques ; la vie privée (privacy) renvoie en particulier à la souveraineté des données, c'est-à-dire la souveraineté et le contrôle sur ses propres données personnelles, leur utilisation et leur transmission (dans le cadre des smart systems, de la smart governance et des smart cities) et aux problèmes liés au contrôle des logiciels privés, au piratage et à la réidentification des données anonymisées ; la liberté et l'autodétermination (freedom & autonomy), portent notamment sur le consentement éclairé et la liberté de choix, ainsi que sur la confiance dans la fiabilité et la légitimité de l'utilisation et de la transmission des données.[40]
La structure des directives sur l'IA suit essentiellement les quatre principes bioéthiques bien connus de Tom L. Beauchamp et James F. Childress.[41] Les axiomes étaient à l'origine (dans la première édition de 1979) dirigés contre des conduites problématiques dans la recherche biomédicale et visaient la protection et l'autodétermination des sujets de recherche : Autonomie (autonomy), non-malfaisance(non-maleficence), bienfaisance (beneficence) et justice(justice). L’analogie est évidente au vu de la croissance exponentielle de l'utilisation de technologies de pointe dans le diagnostic et la thérapie médicaux et de l'importance croissante de l'IA et de la robotique dans le travail médical. Parallèlement, la question se pose de savoir si la relation (médecin-patient) présupposée par Beauchamp et Childress peut être transposée directement ou indirectement à l'IA : Qui a le rôle de patient et de médecin dans l'IA, quelle autonomie doit être protégée, qui sont les sujets de responsabilité, de quoi doivent-ils et peuvent-ils être tenus responsables et quelles sont finalement les instances ou les sujets qui doivent se porter garants d'une IA basée sur la confiance ?
D'une part, l'IA est plus proche de l'homo sapiens que toute autre technologie et, d'autre part, elle est plus impénétrable et incontrôlable pour l'homo sapiens que toute autre technologie. Le problème de la similitude réside dans l'équivalence fonctionnelle des capacités artificielles et des capacités humaines :
L'équivalence fonctionnelle de capacités et de performances, qui ont été et sont toujours traditionnellement posées comme des caractéristiques particulières ou uniques de l'espèce humaine par rapport à toutes les autres espèces, soulèvent la question de savoir si une équivalence de statut et de reconnaissance ne devrait pas également découler de ces similitudes ou de ces similarités. Cela vaut tout particulièrement pour les technologies auxquelles on attribue une « autonomie ».[43] Une distinction est faite entre (a) une autonomie humaine et personnelle, pour laquelle le statut juridique de « personne » et le statut moral de « sujet responsable » sont constitutifs, et (b) une autonomie technologique, comprise comme disposant d’une indépendance graduelle ou s’autonomisant par rapport au pouvoir humain de décision et de contrôle, sans qu'un transfert de responsabilité à la technologie y soit lié. L'IA peut ainsi être intégrée dans les systèmes juridiques existants, les discours sur l'éthique, les risques et la sécurité (Technology Assessment).
Lorsque des systèmes d'IA prennent des décisions sur la base de leurs propres analyses de données et d'algorithmes auto-apprenants, celles-ci peuvent certes toujours être évaluées par des spécialistes compétents, mais la question se pose de savoir sur quoi peut se baser la pondération de l’approbation de l’analyse ou de son refus, si l'on suppose que l'IA peut analyser et évaluer de manière beaucoup plus précise et fiable des quantités de données beaucoup plus importantes, en tenant compte d'un nombre de variables incomparablement plus élevé. L'argument selon lequel les experts sont tenus de rendre des comptes au sens juridique et moral ne tient que tant qu'il peut être démontré que la base de connaissances de celles et ceux qui doivent décider, plus limitée que celle de l'IA, ne conduit pas à des résultats moins favorables, voir négatifs. Dans l’autre sens, la possibilité de comparer ces résultats dépend à son tour de la possibilité de retracer, d'expliquer et de contrôler l'expertise de l'IA.
C'est à ce défi que se rattachent les discussions controversées sur l'opacité et les biais de l’IA. Les systèmes d'auto-apprentissage sont opaques, c'est-à-dire qu'il s'agit de boîtes noires dont même les experts ne savent pas comment reconstruire le chemin qui a mené aux résultats obtenus. Le caractère problématique de cet état de fait, notamment en ce qui concerne les biais, est particulièrement vif dans le cadre de l’analyse prévisionnelle et des décisions qui en découlent. Ces dernières vont des recommandations de restaurants en fonction des préférences individuelles aux prévisions comportementales dans le cadre de la prévision policière, en passant par les prévisions médicales, les décisions concernant l'émission d'une carte de crédit et l'attribution d'un organe lors d’une transplantation.[44] L'IA peut éliminer les préjugés en collectant et en traitant les données de manière « neutre ». Elle peut tout aussi bien renforcer les préjugés, car les données que l'IA utilise et à partir desquelles elle apprend ont été collectées, préparées, saisies et programmées par des humains. Les distorsions qui y sont liées – données non représentatives ou sous-représentatives, erronées, incomplètes, discriminatoires, racistes ou sexistes – sont intégrées par le système d'IA et constituent la base du traitement des données et du deep learning. Les « biais historiques » et « statistiques » qui caractérisent nos propres jugements et prises des décisions, sont renforcés par la technologie, mais plus loin, il apparaît que nous ne pouvons guère ou pas du tout identifier les conséquences numériques de ces biais, encore moins les contrôler ou les corriger par la suite. En principe, nous faisons plus confiance à nos propres capacités d'information, de réflexion et de correction de soi-même qu'aux technologies numériques.
Le débat sur l'existence d'« actants »[45] moraux artificiels (artificial moral agents) – qui disposent de droits et assument des responsabilités – se heurte à des obstacles fondamentaux.[46] Le biochimiste Isaac Asimov avait déjà publié en 1942 un récit dans lequel il présentait trois règles d'éthique robotique et expliquait les problèmes liés à leur application à l'aide d'exemples fictifs : « Premièrement, un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger. [...] Deuxièmement [...], un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi. [...] Troisièmement, un robot doit protéger sa propre existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième Loi ».[47] Dans le débat actuel, on distingue différents degrés d'actants artificiels sur le plan éthique, allant de l’exécution de certaines tâches par l'IA à des agents moraux à part entière, qui portent des jugements éthiques explicites et sont capables de les justifier par voie de raisonnement.[48] Dans une perspective d'équivalence fonctionnelle, l'éthique artificielle ou mécanique se développe là où des technologies réalisent des activités qui, si elles étaient réalisées par des êtres humains, les identifieraient comme des agents moraux, leur conférant ainsi un statut de sujet éthique.[49]
Il sera intéressant de voir non seulement comment le discours va évoluer, mais aussi d’identifier ce qui nous irrite, pour quelles intuitions et raisons, dans ces discussions sur les actants moraux artificiels. Comment le montre de manière exemplaire la distinction conceptuelle entre « acteur » / « actrice » et « actant », nous sommes confrontés à des phénomènes qui sont perçus et décrits de manière similaire et qui, en même temps, sont (doivent être) considérés comme relevant de catégories différentes. Du fait que l'IA effectue certaines tâches de manière beaucoup plus précise, efficace et performante que nous, il est beaucoup plus difficile de ne pas endéduire qu’elle pourrait nous être supérieure dans un sens qualitatif, contrairement à toute autre technologie. Cette supériorité n’est pas ici l’indice d’une force supérieure face à laquelle les humains sont impuissants, comme l’est un tremblement de terre ou le crash d’une centrale nucléaire. La perte de contrôle lors de catastrophes naturelles ou face aux accidents des super-générateurs est d'une autre qualité que l’incapacité humaine à contrôler l'IA « autonome ». Mais si l’on pouvait un temps observer que pour la civilisation humaine le « risque calculable » avait remplacé ce qui relevait pour elle du « destin », ce dernier semble revenir par la porte arrière avec les développements technologiques actuels, car ils amènent avec eux une nouvelle forme de perte de contrôle, d'impuissance ou d'indisponibilité. Il ne s'agit toutefois là que du côté objectif de ces développements. S’y s'oppose le côté « social » et interactif de l'IA, pour la description duquel les termes et les catégories nous font encore largement défaut. Et le théologique se mêle incessamment à ces vas-et-viens. Ce n’est pas un hasard si les auteurs intervenant dans le débat sur l'IA, le transhumanisme et le posthumanisme font souvent appel à des récits et des motifs théologiques pour construire leurs argumentations. En même temps, il faut dire que ce sont le même genre de récit et de motifs qui sont utilisés par des théologien·ne·s pour s’opposer aux développements techniques et aux idéologies qui les accompagnement.[50]
Dans l'ensemble, on constate une grande sensibilité à la mutation numérique de la société, qui correspond à une grande attention portée à la protection de la personne (humaine). En revanche, un débat public différencié sur la question évidente de la transformation numérique de la personne (humaine) elle-même n'a lieu que de manière marginale, voire pas du tout. Les défis juridiques et éthiques liés à la mise en œuvre et à l'utilisation des technologies de l'information et de la communication (TIC) sont au cœur des débats. Les défis juridiques et éthiques liés à la mise en œuvre et à l'utilisation de l'« IA centrée sur l'humain » font l'objet d'un large consensus. Mais même sans s'aventurer sur le terrain glissant du transhumanisme et du posthumanisme, des questions conceptuelles de grande ampleur se posent d'un point de vue éthique. Trois thèmes importants sont (1.) les déplacements possibles des catégories constitutives du discours (2.) l’affaissement de l’opposition binaire entre « personne » et « chose » et (3.) les effets des discussions sur l'IA sur nos conceptions de l’être humain et notre réflexivité. Ce dernier point n’est globalement guère pris en compte. En voici deux exemples : (1.) Si l’exposition de l’intimité trouve depuis longtemps son public (à l’exemple du succès des peintures de Ferdinand Hodler qui documentent le cancer et la mort de sa bien-aimée, Valentine Godé-Darle) aujourd'hui, l'envie de pouvoir entrer dans la vie d’autrui lutte de plus en plus avec un sentiment de honte. Car dans un monde numérique, chacun expérimente dans sa propre chair ce que signifie être l'objet impuissant du regard d'un tiers. Dans les deux cas – la peinture de Hodler, le monde numérique – l’on a affaire à l'utilisation d’un média et du calibrage de la relation entre sujet et objet. (2) L'accès public aux chatbots (ChatGPT, Google Bard, Open Assistant) ne soulève pas seulement de vastes questions de droits d'auteur et de copyright, mais s'attaque aussi aux modèles qui sous-tendent l’évaluation de nos performances personnelles et de nos succès. Car les applications numériques nous permettent de générer « nos » propres textes sans que nous les ayons rédigés nous-mêmes. On rejette facilement cette perspective, car on la considère comme une attaque directe contre notre propre performance. Mais on peut aussi l‘interpréter à l'inverse comme une remise en question critique d’une idée centrale pour le capitalisme. La « performance personnelle » se dévoile alors comme « mythe du ‘self-made man’ », incapable de « considérer nos propres talents comme des dons pour lesquels nous devons être reconnaissants, plutôt que de les considérer comme des succès que nous avons nous-mêmes réalisés ».[51] Indépendamment de ce que l'IA peut apporter d'autre, elle ouvre un regard approfondi et peut-être de nouvelles facettes sur nous-mêmes. Paraphrasant Marx : « Si nous voulons comprendre l'IA, nous devons nous comprendre nous-mêmes ; et si nous voulons nous comprendre nous-mêmes, nous devons comprendre l'IA ! »[52]
*
La première version de cet article a été rédigée par Frank Mathwig en octobre 2023. Le corps du texte a été entièrement traduit en Français par Elio Jaillet en novembre 2024 avec l’aide de l’outil de traduction DeepL. Les références citées en notes sont celles du texte original en allemand.
Cet article fait partie d'une série d’articles du Centre de Compétence pour la Théologie et l’Éthique de l’EERS sur les enjeux liés à l’intelligence artificielle et au développement de la sphère digitale.
[1] Queen, Bohemian Rhapsody: Queen, A Night at the Opera, 1975 EMI/UK.
[2] Walter Benjamin, Zum Bilde Prousts. GS II/1, Frankfurt/M. 1980, 322 (Benjamin zitiert Jacques Rivière
[3] Kant, Über den Gemeinspruch : Das mag in der Theorie richtig sein, taugt aber nicht für die Praxis. Ed. Weischedel, vol. VI, Darmstadt 1983, A 265.
[4] Gerfried Stocker, Von künstlicher Intelligenz zur sozialen Intelligenz: Severin J. Lederhilger (Ed.), Gott und die digitale Revolution. Regensburg 2019, 73–96 (73f.).
[5] Jens Kipper, Künstliche Intelligenz – Fluch oder Segen?, Berlin 2020, 3.
[6] https://growthrocks.com/blog/big-five-tech-companies-acquisitions/ (21.10.2023).
[7] John McCarthy/Marvin Minsky/Nathaniel Rochester/Claude E. Shannon, A proposal for the Dartmouth summer research project on artificial intelligence: https://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html (29.10.2023): «The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it. An attempt will be made to find how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves.»
[8] https://www.plattform-lernende-systeme.de/selbstverstaendnis.html (29.10.2023).
[9] Cf. Staatssekretariat für Bildung, Forschung und Innovation SBFI, Herausforderungen der künstlichen Intelligenz. Bericht der interdepartementalen Arbeitsgruppe «Künstliche Intelligenz» an den Bundesrat, Bern 2019; Bundesrat, Leitlinien «Künstliche Intelligenz» für den Bund. Orientierungsrahmen für den Umgang mit künstlicher Intelligenz in der Bundesverwaltung, Bern 2020.
[10] Cf. SATW, Recommendations for an AI Strategy in Switzerland. A white paper organised by the SATW topical platform on Artificial Intelligence, Zürich 2019; SATW, Diskussionspapier: Künstliche Intelligenz und die techni- sche Souveränität der Schweiz, Zürich, Juli 2023.
[11] Cf. Markus Christen et al., Wenn Algorithmen für uns entscheiden: Chancen und Risiken der künstlichen Intelligenz, Zürich 2020.
[12] Cf. Nikola Biller-Andorno et al., Künstliche Intelligenz in der Medizin – Zielvorstellungen für die verantwortliche Nutzung digitaler Zwillinge. Digital Society Initiative, Positionspapier: Künstliche Intelligenz in der Medizin, Juni 2023.
[13] Cf. David J. Chalmers, Realität+. Virtuelle Welten und die Probleme der Philosophie, Berlin 2023, 29–48.
[14] Cf. Sigmund Freud, Eine Schwierigkeit der Psychoanalyse: Imago V.1/1917, 1–7.
[15] Freud, Schwierigkeit, 7.
[16] Cf. Oliver R. Scholz, Die Idee einer vierten Kränkung der Menschheit: Sind uns Computer geistig überlegen?: Marius Backmann/Jan G. Michel (Ed.), Physikalismus, Willensfreiheit, Künstliche Intelligenz, Paderborn 2009, 199–208.
[17] Günther Anders, Die Antiquiertheit des Menschen, Bd. 1: Über die Seele des Menschen im Zeitalter der zweiten industriellen Revolution, München 61983, 33.
[18] Anders, Antiquiertheit, 33.
[19] Cf. en introduction Janina Loh, Trans- und Posthumanismus zur Einführung, Hamburg 2018; Stefan Lorenz Sorg- ner, Transhumanismus. «Die gefährlichste Idee der Welt», Freiburg/Br. 2016; Benedikt Paul Göcke/Frank Meier-Hamidi (Ed.), Designobjekt Mensch. Die Agenda des Transhumanismus auf dem Prüfstand, Freiburg/Br. 2018; Donna Haraway, Ein Manifest für Cyborgs. Feminismus im Streit mit den Technowissenschaften: dies., Die Neuerfindung der Natur. Primaten, Cyborgs und Frauen, Frankfurt/M., New York 1985, 33–72; Rosi Braidotti, Posthumanismus. Leben jenseits des Menschen, Frankfurt/M., New York 2014; Id./Maria Hlavajova (Ed.), Posthuman Glossary, London, New York 2018; Max More/Natasha Vita-More (Ed.), The Transhumanist Reader. Classical and Contemporary Essays on the Science, Technology, and Philosophy of the Human Future, Malden MA, London 2013.
[20] Braidotti, Posthumanismus, 29.
[21] Peter Sloterdijk, Regeln für den Menschenpark. Ein Antwortschreiben zu Heideggers Brief über den Humanismus, Frankfurt/M. 122014, 31f.
[22] Pour une aperçu de la discussion théologique, cf. Ron Cole-Turner, Von der Theologie zum Transhumanismus und zurück; Johannes Gössl, Verbesserung oder Zerstörung der menschlichen Natur? Eine theologische Evaluation des Transhumanismus; Jennifer Jeanine Thweatt, Cyborg-Christus: Transhumanismus und die Heiligkeit des Körpers: alle in Benedkt Paul Göcke/Frank Meier-Hamidi (Ed.), Designobjekt Mensch. Die Agenda des Transhu- manismus auf dem Prüfstand, Freiburg/Br. 2018; Christopher Coenen, Verbesserung des Menschen durch kon- vergierende Technologien? Christliche und posthumanistische Stimmen in einer aktuellen Technikdebatte: Hartmut Böhm/Konrad Ott (Ed.), Bioethik – Menschliche Identität in Grenzbereichen, Leipzig 2009, 41–123; Mathias Wirth, Doketisch, pelagianisch, sarkisch? Transhumanismus und technologische Modifikationen des Körpers in einer theologischen Perspektive: NZSth 60/2018, 142–167; Thorsten Moos, Reduced Heritage. How Transhumanism Secularizes and Desecularizes Religious Visions: J. Benjamin Hurlbut/ Hava Tirosh-Samuel- son (Ed.), Perfecting Human Futures. Transhuman Visions and Technological Imaginations, Wiesbaden 2016, 159–178; Frederike van Oorschot, Theologische Positionen zu Transhumanismus und KI – ein Überblick: ZPT 75/2023, 139—151; dies./Selina Fucker (Ed.), Framing KI. Narrative, Metaphern und Frames in Debatten über Künstliche Intelligenz, Heidelberg 2022; Oliver Dürr, Homo Novus. Vollendlichkeit im Zeitalter des Transhumanismus. Beiträge zu einer Techniktheologie, Münster, 2019; Lukas Ohly, Ethik der Robotik und der Künstlichen Intelligenz. Berlin u.a. 2019; Id./Catharina Wellhöfer, Ethik im Cyberspace, Frankfurt/M. 2017; Calvin Mercer, Bodies and Persons: Theological Reflections on Transhumanism: Dialog: A Journal of Theology, Vol. 54/2015 (Spring), 27--33; Id./Tracy J. Trothen, Religion and the Technological Future. An Introduction to Biohacking, Artificial Intelligence, and Transhumanism, Cham 2021.
[23] Cf. Alexandre Dumas, Die drei Musketiere, Frankfurt/M. 2011.
[24] Cf. Reinhard Brandt, D’Artagnan und die Urteilstafel. Über das Ordnungsprinzip der europäischen Kulturge- schichte 1, 2, 3/4, München 1998, 77–80.
[25] Zit. n. Brandt, D’Artagnan, 79.
[26] Brandt, D’Artagnan, 77.
[27] Voir aussi, d’un point de vue chrétien, le concept de la limilaité chez Christian Strecker, Die liminale Theologie des Paulus. Zugänge zur paulinischen Theologie aus kulturanthropologischer Perspektive, Göttingen 1999.
[28] On Nomadism. Interview by Sara Saleri with Rosi Braidotti: European Alternatives. https://georgema- ciunas.com/exhibitions/fluxus-as-architecture-2/fluxhousefluxcity-prefabricatedmodular-building-sys- tem/fluxhouse-fluxcities/essays-2/european-alternatives-on-nomadism-interview-with-rosi-braidotti/ (24.10.2023); cf. Rosi Braidotti, Nomadic Theory: The Portable Rosi Braidotti, New York Chichester, West Sussex 2011.
[29] Yuval Noah Harari, 21 Lektionen für das 21. Jahrhundert, München 2018, I: Die technologische Herausforde- rung, 1: Desillusionierung, Der liberale Phönix.
[30] Harari, Homo Deus, 37.
[31] Friedrich Nietzsche, Nachgelassene Fragmente Frühjahr 1884, 25: Id., KStA, Bd. 11, München 32009, 125.
[32] Wirth, Transhumanismus, 143.
[33] Voir à ce sujet, d'un point de vue théologique, Matthias Felder, Christliches Leben und die Verbesserung des Menschen. Enhancement and sanctification in Calvin, Berlin, Boston 2022.
[34] Cf. High-Level Expert Group on Artificial Intelligence, Ethics Guidelines for Trustworthy AI. European Commission, Brussels, 8 April 2019; Übersetzung: https://demographie-netzwerk.de/site/assets/files/4421/ethik-leitli- nien_fur_eine_vertrauenswurdige_ki_1.pdf (30.10.2023).
[35] Expert Group, Guidelines, Ziff. 11.
[36] Expert Group, Guidelines, Ziff. 15.
[37] Expert Group, Guidelines, Ziff. 38.
[38] Expert Group, Guidelines, Ziff. 48.
[39] Expert Group, Guidelines, Fussnote 25.
[40] Cf. Anna Jobin/Marcello Ienca/Effy Vayena, The global landscape of AI ethics guidelines: Nature Machine Intelligence, Vol 1, septembre 2019, 389–399: https://doi.org/10.1038/s42256-019-0088-2; Kathleen Murphy et al., Artificial intelligence for good health. A scoping review of the ethics literature BMC Med Ethics (2021): https://doi.org/10.1186/12910-021-00577-8.
[41] Cf. Tom L. Beauchamp/James F. Childress, Principles of Biomedical Ethics, 8th edition, Oxford 2019.
[42] Cf. Bernhard G. Humm/Peter Buxmann/Jan C. Schmidt, Grundlagen und Anwendungen von AI: Carl Friedrich Gethmann et al., Künstliche Intelligenz in der Forschung. Neue Möglichkeiten und Herausforderungen für die Wissenschaft, Berlin 2022, 13–42 (16f.).
[43] Cf. Vincent C. Müller, Ethics of artificial intelligence and robotics: Edward N. Zalta (Ed.), Stanford Encyclopedia of Philosophy, Palo Alto: https://plato.stanford.edu/entries/ethics-ai/ (cp. 2.5).
[44] Cf. Müller, Ethics, cp. 2.2.2.
[45] Ce néologisme vient de Bruno Latour, On actor-network theory. A few clarifications: Soziale Welt 47/1996, 369–381; Id., Das Parlament der Dinge. Für eine politische Ökologie, Frankfurt/M. 2001.
[46] Cf. Vincent C. Müller, Is it time for robot rights? Moral status in artificial entities: Ethics and Information Tech- nology (17. May 2021): https://doi.org/10.1007/s10676-021-09596-w; James H. Moor, The Nature, Importance, and Difficulty of Machine Ethics: IEEE Intelligent Systems, 21/2006 (4), 18–21; Jens Kersten, Menschen und Maschinen. Rechtliche Konturen instrumenteller, symbiotischer und autonomer Konstellationen: JZ 70/2015, 1– 8; Nadja Braun Binder et al., Künstliche Intelligenz: Handlungsbedarf im Schweizer Recht: Jusletter 28. Juni 2021; Simone Kuhlmann et al. (Ed.), Transparency or Opacity. A Legal Analysis of the Organization of Informa- tion in the Digital World, Baden-Baden 2023; Dan Verständig et al. (Ed.), Algorithmen und Autonomie. Interdis- ziplinäre Perspektiven auf das Verhältnis von Selbstbestimmung und Datenpraktiken, Opladen, Berlin, Toronto 2022; Luciano Floridi (Ed.), Ethics, Governance, and Policies in Artificial Intelligence, Cham 2021.
[47] Isaac Asimov, Runaround: Astounding. Science Fiction Vol. XXIX, No. 1 (March 1942), 194–103 (100).
[48] Cf. Moor, Nature, 20.
[49] Cf. Müller, Ethics, cp. 2.9.
[50] Cf. Peter Dabrock, «Prüft aber alles und das Gute behaltet!»: Theologisches und Ethisches zu Künstlicher Intelligenz: ThLZ 147/2022, 635–650, van Oorschot, Positionen; Dürr, Homo; Ohly/Wellhöfer, Ethik.
[51] Michael J. Sandel, Plädoyer gegen Perfektion. Ethik im Zeitalter der genetischen Technik, Berlin 2008, 108.
[52] Vincent C. Müller, Philosophy of AI: A Structured Overview. Final Draf, 24th Juli, 2023, forthcoming in Nathalie Smuha (Ed.), Cambridge Handbook on the Law. Ethics and Policy of Artificial Intelligence, Cambridge 2024, (4).
WordPress multilingue avec WPML