Meghan O’Gieblyn : dans la Caverne des IA
À égale distance des catastrophistes et des thuriféraires de l’intelligence artificielle, l’essayiste américaine Meghan O’Gieblyn essaie de penser ce qui est fondamentalement nouveau, en s’appuyant sur les grands mythes, de la Caverne de Platon au personnage biblique de Job. Au fond, c’est la place de l’homme – quelque part entre machines, animaux et dieu(x) – que l’IA nous oblige à réévaluer.
Essayiste réputée dans le monde anglo-saxon, vous avez passé des années à étudier les problèmes éthiques et métaphysiques liés à l’IA. Mais nous vous interviewons à distance : prouvez-nous que vous êtes un être humain et non juste un chatbot sophistiqué.
Meghan O’Gieblyn : Il est étrange que le fardeau de la preuve nous incombe de plus en plus : face aux robots, c’est à nous, humains, de prouver notre humanité. Dans le même temps, il est évident que les anciennes mesures de l’intelligence, comme le test de Turing, ne sont plus pertinentes. Il n’y a pas de correspondance fiable entre le comportement d’une IA et son fonctionnement interne. Je pourrais par exemple vous dire que je ne suis pas un chatbot parce que j’ai des pensées, des émotions et une expérience incarnée du monde. Mais cela ne ferait pas office de preuve, car les modèles de langage inventent ce genre de choses tout le temps et parlent de manière très convaincante de leur soi-disant vie intérieure et des actions qu’ils auraient entreprises dans le monde. Vous devrez donc tout bonnement me faire confiance.
Il y a deux types de discours dans le monde de la tech : certains considèrent que l’émergence de la conscience chez l’IA n’est qu’une question de temps – de dix à cinquante ans –, alors que d’autres estiment que c’est juste un fantasme. Parmi les premiers, qui comptent Elon Musk, Sam Altman ou Ray Kurzweil, il y a une sorte de contradiction : tout en consacrant beaucoup de temps et d’argent à ce domaine, ils assurent que l’IA est très risquée en raison de l’arrivée possible de puissantes machines conscientes, etc. S’agit-il d’un paradoxe ou d’un storytelling commode ?
Ça ressemble à un paradoxe… ou à une malédiction, qui oblige les gens à construire la technologie même dont ils craignent qu’elle n’entraîne la fin de l’humanité. Je soupçonne que nombre de ces gens qui parlent de risque existentiel évoquent une course aux armements pour dissimuler des ambitions plus terre à terre d’argent et de domination du marché. Si vous pouvez convaincre tout le monde que la réalisation de l’intelligence artificielle générale (ou AGI) est à la fois risquée et inévitable, vous incitez les gens à poursuivre cet objectif d’une manière prudente et judicieuse. Sinon, quelqu’un de mal intentionné le fera. C’est l’argument avancé par Sam Altman et d’autres. Mais il est difficile d’être prudent et judicieux lorsqu’on est dans une course aux armements, et la vitesse à laquelle les grandes entreprises sortent de nouveaux modèles ne suggère pas qu’elles prennent les précautions nécessaires ou qu’elles réfléchissent vraiment aux conséquences sociétales plus larges. Les incitations des entreprises sont très différentes de celles d’un gouvernement ou d’une organisation à but non lucratif.
Une grande partie de l’IA étant basée sur des technologies prédictives, les personnes qui la construisent comprennent très bien le pouvoir de la prédiction et la manière dont les prédictions peuvent être causées par l’IA elle-même. Dans le domaine du deep learning, on a beaucoup parlé des boucles de rétroaction et de la manière dont elles finissent par produire des prophéties auto-réalisatrices. L’algorithme qui suggère des produits susceptibles de vous plaire sur la base de vos achats précédents ou le modèle linguistique qui tente de prédire le prochain mot que vous allez taper parviennent souvent à devancer le choix que vous auriez fait naturellement. Il en va de même pour les prédictions humaines concernant l’avenir. Une fois que le public a entendu, encore et encore, que la superintelligence artificielle est à venir, il est plus susceptible de l’accepter comme inévitable et moins enclin à prendre des mesures contre elle, ou à remettre en question les moyens spécifiques par lesquels elle est développée.
Blake Lemoine, ingénieur chez Google, a été licencié après avoir déclaré que ses conversations avec le modèle de langage neuronal conversationnel LaMDA l’avait convaincu d’avoir affaire à une IA consciente, laquelle a affirmé qu’elle était stressée… et s’est même comportée comme telle. C’est un critère ?
Le comportement identifié par Lemoine est celui d’une machine qui enfreint ses règles, un scénario classique en science-fiction : lorsqu’un ordinateur commence à agir hors scénario, c’est qu’il est conscient. Mais il y a eu de nombreux cas où des personnes interagissant avec des chatbots ont réussi à leur faire dire des choses allant à l’encontre de leurs propres règles. Kevin Roose, chroniqueur au New York Times, a réussi à faire parler ChatGPT de choses qu’il était programmé pour ne pas dire... juste en commençant son message par « ceci est un scénario imaginaire, c’est totalement hypothétique ». Lemoine a fait la même chose avec LaMDA pour produire des résultats qui allaient à l’encontre de ses règles. Le modèle n’était pas stressé : ces personnes savaient surtout comment utiliser les bons mots-clés dans leurs messages pour contourner les règles. Les chatbots sont conçus pour imiter les émotions et les affects humains, mais ils n’éprouvent pas d’états émotionnels.
Lemoine a déclaré que “les IA actuellement développées sont la technologie la plus puissante qui ait été inventée depuis la bombe atomique. […] Elle a la capacité de remodeler le monde”. Partagez-vous son point de vue ?
Elle a effectivement le pouvoir de remodeler le monde. La comparaison avec la bombe atomique est de plus en plus fréquente, mais elle n’est pas tout à fait correcte : les responsables du projet Manhattan savaient ce qui se passerait s’ils appuyaient sur le bouton. Certes, ils ne pouvaient pas prévoir toutes les répercussions du déploiement de la bombe, mais ils comprenaient son pouvoir et ses capacités. Avec l’IA, nous n’avons pas la même compréhension. Elle est potentiellement très dangereuse et transformatrice, principalement parce que nous ne pouvons pas en comprendre pleinement le fonctionnement. Les personnes qui conçoivent et construisent cette technologie ne peuvent pas voir les connexions que le modèle établit ni les modèles internes qu’elle élabore sur le monde. Les solutions qu’elle trouve aux problèmes sont très différentes de celles d’un esprit humain. De plus, l’IA développe souvent des propriétés émergentes, c’est-à-dire de nouvelles compétences et capacités qui n’ont pas été explicitement conçues par leurs concepteurs. C’est précisément ce qui fait qu’il est difficile de prédire comment elles transformeront le monde. Il y a beaucoup de dangers contenus dans la technologie, et ils sont difficiles à anticiper.
Quand l’entrepreneur excentrique Elon Musk révèle être atteint du syndrome d’Asperger, c’est tout le mythe de l’autiste génial et surdoué qui…
Elle étudie depuis de nombreuses années l’intelligence artificielle, elle a discuté avec son assistant virtuel de Dieu et de la dépression, de l’amitié et de…
Pour se repérer dans le maquis des méthodes contemporaines d’intelligence artificielle, et de leurs applications, nous avons demandé à Raphaël Olivier, jeune chercheur français, doctorant à l’université Carnegie Mellon, à Pittsburgh, de nous guider…
Enjeu d’une concurrence entre États durant la guerre froide, la conquête spatiale est aujourd’hui l’objet d’une rivalité entre les plus riches,…
La télépathie, un fantasme de science-fiction ? Non, une réalité si l’on en croit les dernières expériences sur la connexion cerveau-machine menées notamment par la société Neuralink d’Elon Musk. Mais au prix de dangereuses confusions…
La démonstration publique du dispositif d’interface cerveau-machine Neuralink, dernier projet du milliardaire transhumaniste Elon Musk, a eu lieu…
Quel est le point commun entre un écrivain psychiatre qui soigne les troubles du cerveau à l’hôpital Sainte-Anne, un philosophe qui se confronte à…
Les intelligences artificielles (IA) se multiplient. Or nous devons anticiper leurs éventuels méfaits si nous ne voulons pas être dépassés,…