Aller au contenu principal
Menu du compte de l'utilisateur
    S’abonner Boutique Newsletters Se connecter
Navigation principale
  • Le fil
  • Archives
  • En kiosque
  • Dossiers
  • Philosophes
  • Lexique
  • Citations
  • EXPRESSO
  • Agenda
  • Masterclass
  • Bac philo
 Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
rechercher
Rechercher

Meghan O’Gieblyn en mars 2023, à Madison (Wisconsin, États-Unis). © Darcy Padilla/Agence VU pour PM

Hors-série "IA, le mythe du XXIe siècle"

Meghan O’Gieblyn : dans la Caverne des IA

Stefania Gherca publié le 09 mai 2023 19 min

À égale distance des catastrophistes et des thuriféraires de l’intelligence artificielle, l’essayiste américaine Meghan O’Gieblyn essaie de penser ce qui est fondamentalement nouveau, en s’appuyant sur les grands mythes, de la Caverne de Platon au personnage biblique de Job. Au fond, c’est la place de l’homme – quelque part entre machines, animaux et dieu(x) – que l’IA nous oblige à réévaluer.


 

Essayiste réputée dans le monde anglo-saxon, vous avez passé des années à étudier les problèmes éthiques et métaphysiques liés à l’IA. Mais nous vous interviewons à distance : prouvez-nous que vous êtes un être humain et non juste un chatbot sophistiqué.

Meghan O’Gieblyn : Il est étrange que le fardeau de la preuve nous incombe de plus en plus : face aux robots, c’est à nous, humains, de prouver notre humanité. Dans le même temps, il est évident que les anciennes mesures de l’intelligence, comme le test de Turing, ne sont plus pertinentes. Il n’y a pas de correspondance fiable entre le comportement d’une IA et son fonctionnement interne. Je pourrais par exemple vous dire que je ne suis pas un chatbot parce que j’ai des pensées, des émotions et une expérience incarnée du monde. Mais cela ne ferait pas office de preuve, car les modèles de langage inventent ce genre de choses tout le temps et parlent de manière très convaincante de leur soi-disant vie intérieure et des actions qu’ils auraient entreprises dans le monde. Vous devrez donc tout bonnement me faire confiance.

 

Il y a deux types de discours dans le monde de la tech : certains considèrent que l’émergence de la conscience chez l’IA n’est qu’une question de temps – de dix à cinquante ans –, alors que d’autres estiment que c’est juste un fantasme. Parmi les premiers, qui comptent Elon Musk, Sam Altman ou Ray Kurzweil, il y a une sorte de contradiction : tout en consacrant beaucoup de temps et d’argent à ce domaine, ils assurent que l’IA est très risquée en raison de l’arrivée possible de puissantes machines conscientes, etc. S’agit-il d’un paradoxe ou d’un storytelling commode ?

Ça ressemble à un paradoxe… ou à une malédiction, qui oblige les gens à construire la technologie même dont ils craignent qu’elle n’entraîne la fin de l’humanité. Je soupçonne que nombre de ces gens qui parlent de risque existentiel évoquent une course aux armements pour dissimuler des ambitions plus terre à terre d’argent et de domination du marché. Si vous pouvez convaincre tout le monde que la réalisation de l’intelligence artificielle générale (ou AGI) est à la fois risquée et inévitable, vous incitez les gens à poursuivre cet objectif d’une manière prudente et judicieuse. Sinon, quelqu’un de mal intentionné le fera. C’est l’argument avancé par Sam Altman et d’autres. Mais il est difficile d’être prudent et judicieux lorsqu’on est dans une course aux armements, et la vitesse à laquelle les grandes entreprises sortent de nouveaux modèles ne suggère pas qu’elles prennent les précautions nécessaires ou qu’elles réfléchissent vraiment aux conséquences sociétales plus larges. Les incitations des entreprises sont très différentes de celles d’un gouvernement ou d’une organisation à but non lucratif.

Une grande partie de l’IA étant basée sur des technologies prédictives, les personnes qui la construisent comprennent très bien le pouvoir de la prédiction et la manière dont les prédictions peuvent être causées par l’IA elle-même. Dans le domaine du deep learning, on a beaucoup parlé des boucles de rétroaction et de la manière dont elles finissent par produire des prophéties auto-réalisatrices. L’algorithme qui suggère des produits susceptibles de vous plaire sur la base de vos achats précédents ou le modèle linguistique qui tente de prédire le prochain mot que vous allez taper parviennent souvent à devancer le choix que vous auriez fait naturellement. Il en va de même pour les prédictions humaines concernant l’avenir. Une fois que le public a entendu, encore et encore, que la superintelligence artificielle est à venir, il est plus susceptible de l’accepter comme inévitable et moins enclin à prendre des mesures contre elle, ou à remettre en question les moyens spécifiques par lesquels elle est développée.

 

Blake Lemoine, ingénieur chez Google, a été licencié après avoir déclaré que ses conversations avec le modèle de langage neuronal conversationnel LaMDA l’avait convaincu d’avoir affaire à une IA consciente, laquelle a affirmé qu’elle était stressée… et s’est même comportée comme telle. C’est un critère ?

Le comportement identifié par Lemoine est celui d’une machine qui enfreint ses règles, un scénario classique en science-fiction : lorsqu’un ordinateur commence à agir hors scénario, c’est qu’il est conscient. Mais il y a eu de nombreux cas où des personnes interagissant avec des chatbots ont réussi à leur faire dire des choses allant à l’encontre de leurs propres règles. Kevin Roose, chroniqueur au New York Times, a réussi à faire parler ChatGPT de choses qu’il était programmé pour ne pas dire... juste en commençant son message par « ceci est un scénario imaginaire, c’est totalement hypothétique ». Lemoine a fait la même chose avec LaMDA pour produire des résultats qui allaient à l’encontre de ses règles. Le modèle n’était pas stressé : ces personnes savaient surtout comment utiliser les bons mots-clés dans leurs messages pour contourner les règles. Les chatbots sont conçus pour imiter les émotions et les affects humains, mais ils n’éprouvent pas d’états émotionnels.

 

Lemoine a déclaré que “les IA actuellement développées sont la technologie la plus puissante qui ait été inventée depuis la bombe atomique. […] Elle a la capacité de remodeler le monde”. Partagez-vous son point de vue ?

Elle a effectivement le pouvoir de remodeler le monde. La comparaison avec la bombe atomique est de plus en plus fréquente, mais elle n’est pas tout à fait correcte : les responsables du projet Manhattan savaient ce qui se passerait s’ils appuyaient sur le bouton. Certes, ils ne pouvaient pas prévoir toutes les répercussions du déploiement de la bombe, mais ils comprenaient son pouvoir et ses capacités. Avec l’IA, nous n’avons pas la même compréhension. Elle est potentiellement très dangereuse et transformatrice, principalement parce que nous ne pouvons pas en comprendre pleinement le fonctionnement. Les personnes qui conçoivent et construisent cette technologie ne peuvent pas voir les connexions que le modèle établit ni les modèles internes qu’elle élabore sur le monde. Les solutions qu’elle trouve aux problèmes sont très différentes de celles d’un esprit humain. De plus, l’IA développe souvent des propriétés émergentes, c’est-à-dire de nouvelles compétences et capacités qui n’ont pas été explicitement conçues par leurs concepteurs. C’est précisément ce qui fait qu’il est difficile de prédire comment elles transformeront le monde. Il y a beaucoup de dangers contenus dans la technologie, et ils sont difficiles à anticiper.

Expresso : les parcours interactifs
Comme d'habitude...
On considère parfois que le temps est un principe corrosif qui abîme les relations amoureuses. Mais selon le philosophe américain Stanley Cavell l'épreuve du quotidien peut être au coeur d'un principe éthique : le perfectionnisme moral, qui permet à chacun de s'améliorer au sein de sa relation amoureuse.
Découvrir Tous les Expresso
Sur le même sujet
Article
5 min
Séverine Leduc : “C’est certainement parce qu’il a un fonctionnement neuroatypique qu’Elon Musk est capable de faire ce qu’il fait”
Pierre Terraz 28 mai 2021

Quand l’entrepreneur excentrique Elon Musk révèle être atteint du syndrome d’Asperger, c’est tout le mythe de l’autiste génial et surdoué qui…

Séverine Leduc : “C’est certainement parce qu’il a un fonctionnement neuroatypique qu’Elon Musk est capable de faire ce qu’il fait”

Le fil
1 min
Meghan O’Gieblyn : “Devant l’IA, c’est dorénavant à nous de prouver notre humanité”
30 mai 2023

Elle étudie depuis de nombreuses années l’intelligence artificielle, elle a discuté avec son assistant virtuel de Dieu et de la dépression, de l’amitié et de…

Meghan O’Gieblyn : “Devant l’IA, c’est dorénavant à nous de prouver notre humanité”

Article
6 min
Tout ce que vous avez toujours voulu savoir sur le deep learning
Raphaël Olivier

Pour se repérer dans le maquis des méthodes contemporaines d’intelligence artificielle, et de leurs applications, nous avons demandé à Raphaël Olivier, jeune chercheur français, doctorant à l’université Carnegie Mellon, à Pittsburgh, de nous guider…


Article
3 min
Musk-Bezos : la guerre des étoiles
Sven Ortoli 26 août 2021

Enjeu d’une concurrence entre États durant la guerre froide, la conquête spatiale est aujourd’hui l’objet d’une rivalité entre les plus riches,…

Musk-Bezos : la guerre des étoiles

Article
8 min
Slavoj Žižek. Quand nos cerveaux seront connectés
Slavoj Žižek 02 juillet 2019

La télépathie, un fantasme de science-fiction ? Non, une réalité si l’on en croit les dernières expériences sur la connexion cerveau-machine menées notamment par la société Neuralink d’Elon Musk. Mais au prix de dangereuses confusions…


Article
3 min
Cyborgs, bientôt une réalité ?
Octave Larmagnac-Matheron 22 septembre 2020

La démonstration publique du dispositif d’interface cerveau-machine Neuralink, dernier projet du milliardaire transhumaniste Elon Musk, a eu lieu…

Cyborgs, bientôt une réalité ?

Article
4 min
Quand l’intelligence artificielle entre dans nos vies… et dans nos têtes
Charles Perragin 08 février 2024

Quel est le point commun entre un écrivain psychiatre qui soigne les troubles du cerveau à l’hôpital Sainte-Anne, un philosophe qui se confronte à…

Quand l’intelligence artificielle entre dans nos vies… et dans nos têtes

Article
3 min
Laurent Alexandre : “Avec une photo, un ordinateur peut dire si vous êtes homosexuel et évaluer votre QI”
Alexandre Lacroix 24 octobre 2017

Les intelligences artificielles (IA) se multiplient. Or nous devons anticiper leurs éventuels méfaits si nous ne voulons pas être dépassés,…

Laurent Alexandre : “Avec une photo, un ordinateur peut dire si vous êtes homosexuel et évaluer votre QI”

Article issu du Hors-série n°N°57 mai 2023 Lire en ligne
À Lire aussi
L’intelligence artificielle est-elle “communiste” ? La “doctrine Peter Thiel” à la loupe
L’intelligence artificielle est-elle “communiste” ? La “doctrine Peter Thiel” à la loupe
Par Octave Larmagnac-Matheron
décembre 2021
L’ordinateur pense, donc je suis
Par Alexandre Lacroix
avril 2017
Marcela Iacub, Marcel Hénaff. Qu’est-ce qui n’a pas de prix ?
Par Martin Legros
septembre 2008
  1. Accueil-Le Fil
  2. Entretiens
  3. Meghan O’Gieblyn : dans la Caverne des IA
Philosophie magazine n°178 - mars 2024
Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
Avril 2024 Philosophe magazine 178
Lire en ligne
Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
Réseaux sociaux
  • Facebook
  • Instagram
  • Instagram bac philo
  • Linkedin
  • Twitter
Liens utiles
  • À propos
  • Contact
  • Éditions
  • Publicité
  • L’agenda
  • Crédits
  • CGU/CGV
  • Mentions légales
  • Confidentialité
  • Questions fréquentes, FAQ
À lire
Bernard Friot : “Devoir attendre 60 ans pour être libre, c’est dramatique”
Fonds marins : un monde océanique menacé par les logiques terrestres ?
“L’enfer, c’est les autres” : la citation de Sartre commentée
Magazine
  • Tous les articles
  • Articles du fil
  • Bac philo
  • Entretiens
  • Dialogues
  • Contributeurs
  • Livres
  • 10 livres pour...
  • Journalistes
  • Votre avis nous intéresse