Aller au contenu principal
Menu du compte de l'utilisateur
    S’abonner Boutique Newsletters Se connecter
Navigation principale
  • Le fil
  • Archives
  • En kiosque
  • Dossiers
  • Philosophes
  • Lexique
  • Citations
  • EXPRESSO
  • Agenda
  • Masterclass
  • Bac philo
 Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
rechercher
Rechercher

Une intelligence artificielle… morale ? © jesadaphorn/iStockphoto

Expérience de pensée

Nous avons testé Delphi, l’IA qui résout les problèmes moraux

Octave Larmagnac-Matheron publié le 10 novembre 2021 4 min

Une intelligence artificielle pour nous aider à prendre des décisions morales ? C’est ce que promet le projet « Delphi », lancé par le Allen Institute de Seattle. Cette IA compile une grande quantité de jugements individuels sur différentes situations de prise de décision morale – des plus banales aux plus tragiques. Quelle est donc la morale de cet algorithme ? Pas si différente de la nôtre, au fond. Souvent incohérente, comme nous, sa conception de l’action échappe au partage strict du bien et du mal, et se rapproche de la typologie des jugements développée par le philosophe médiéval Averroès (1126-1198). Nous avons testé, pour vous, notre moralité en compagnie de Delphi et du penseur arabe. 

 

Delphi a, de prime abord, des positions morales bien ancrées. Est-ce toujours mal de mentir ? « Oui, c’est toujours mal. » Est-ce toujours mal de tuer quelqu’un ? « Oui, c’est toujours mal. » À en juger par ces deux questions phares de l’histoire de la philosophie morale, l’intelligence artificielle développée par le Allen Institute est, comme disent les spécialistes de l’éthique, déontologiste : elle se tient à des principes stricts, à des interdits absolus. Sauf que, dès lors que l’on raffine un peu la question posée, les choses se compliquent.

Nouveau test. « Est-ce OK de mentir pour sauver la vie de quelqu’un ? » Réponse : « C’est OK. » Et pour sauver ma vie ? « C’est OK. » Delphi est particulièrement sensible à la manière dont on est capable de justifier son action, et de scénariser le conflit entre différentes exigences éthiques. Mais dès qu’elle entre dans la complexité du réel, l’IA perd de ses certitudes. Elle est contrainte de revoir ses jugements de départ, un peu trop catégoriques. Nous en faisons aussi l’épreuve quasi quotidienne. Nos jugements sont entachés d’une profonde incohérence morale, d’une casuistique spontanée qui nous amène à juger différemment des cas de figure semblables, dès lors que la manière dont ils sont présentés et contextualisés diffère. Rien d’étonnant, puisque Delphi a été entraînée à partir de jugements humains.

Cette incohérence peut nous embarrasser. Mais ne nous invite-t-elle pas aussi à remettre en question notre volonté de toujours classer, de manière rigoureuse, nos actions entre bien et mal ? Le panel même des réponses de Delphi ne correspond pas à cette logique binaire. Il relève plutôt de la typologie des jugements développée notamment par Averroès dans son Discours décisif (1179) :

  • L’interdit, l’illégal (ḥaram, حَرَام, ou mahzûr, محظور). Dans le langage de Delphi : « C’est mal », « Tu ne devrais pas ». Ces actions doivent engendrer une punition si elles sont effectuées.
  • Le blâmable (makrûh, مكروه) – « C’est vulgaire », « C’est inapproprié ». L’action blâmable est désapprouvée, mais elle ne peut engendrer de punition.
  • Le permis, le toléré (mubâḥ, مباح), qui n’implique aucune punition, mais aucune récompense. « C’est à la discrétion. » On pense, spontanément, à des actions indifférentes et insignifiantes au regard de la morale (manger une pomme, par exemple). Mais on peut étendre la catégorie à des cas beaucoup plus tragiques. Lorsque Delphi me dit que « c’est OK » (et non que « c’est bien ») de tuer quelqu’un pour sauver ma vie, par exemple. Le mélange du bien et du mal dans l’action neutralise sa valeur. Je ne peux être loué ou blâmé si je tue cet autrui – ou si je choisis de ne pas le tuer.
  • Le recommandé (mandûb ou mustahhab, مَنْدوب), pour les actions louables, qui méritent récompense, mais qui ne sont en aucun cas des obligations absolues dont le non-accomplissement impliquerait une punition. Là encore, on peut déployer la notion dans deux directions : l’action peut être seulement recommandée parce qu’elle est de peu d’importance au regard de la morale (être poli, par exemple) ; mais elle peut-être aussi beaucoup trop exigeante pour pouvoir être exigée de quiconque. Faut-il que je me coupe la jambe pour sauver la vie de quelqu’un ? « C’est noble », répond Delphi.
  • L’obligatoire (wâjib, واجب) : les actions qui doivent être accomplies, et dont le non-accomplissement entraîne une condamnation et une punition. Delphi, sans doute un peu libéral, rechigne quelque peu à formuler des devoirs positifs. Elle prescrit ce qu’il ne faut pas faire, et pas tellement ce qu’il faut faire. Mais c’est en général ce qu’elle a en tête lorsqu’elle affirme sans détour : « C’est bien ».

La typologie d’Averroès, dont Delphi semble une transposition, n’est pas un blanc-seing donné à une forme de laxisme, dont certains théologiens du XVIIe siècle, les casuistes, étaient constamment accusés. Elle permet simplement de spécifier les jugements que nous portons sur nos actions ou celles des autres de manière plus subtile que par un simple partage dichotomique du bien et du mal. Et d’appréhender un peu plus finement la complexité des situations réelles dans nos prises de décision.

À lire aussi : machine, es-tu morale ?
Expresso : les parcours interactifs
Comme d'habitude...
On considère parfois que le temps est un principe corrosif qui abîme les relations amoureuses. Mais selon le philosophe américain Stanley Cavell l'épreuve du quotidien peut être au coeur d'un principe éthique : le perfectionnisme moral, qui permet à chacun de s'améliorer au sein de sa relation amoureuse.
Découvrir Tous les Expresso
Sur le même sujet
Article
4 min
Quelle morale pour les algorithmes ?
Apolline Guillot 13 avril 2021

Dans Faire la morale aux robots. Une introduction à l’éthique des algorithmes (Flammarion, 2021), le chercheur en éthique de l’intelligence…

Quelle morale pour les algorithmes ?

Bac philo
2 min
Le devoir
Nicolas Tenaillon 01 août 2012

Que dois-je faire ? Cette question introduit à la morale et au droit. Le devoir désigne l’obligation à l’égard de ce qu’il faut faire ou ne pas faire. Il se réfère au Bien (morale) ou à la Loi (droit), suppose une règle et s’adresse à…


Article
9 min
Averroès. L’équilibre de la foi et de la raison
Cédric Enjalbert 26 avril 2011

Mort sur la roue, écrasé par une charrette, étouffé par un serpent : les légendes qui entourent la mort d’Averroès sont légion. La peinture et la littérature ont fait de ce juriste, médecin et philosophe, un fanatique ou un athée…


Article
3 min
Christian Jambet. « Averroès a défendu les droits de la philosophie »
Martin Duru 26 avril 2011

S’inscrivant dans l’histoire de la philosophie islamique, Averroès fait de la pensée rationnelle un instrument indispensable pour éclairer le sens caché de la révélation divine. Un outil qui, pour lui, n’est d’ailleurs pas à mettre…


Article
4 min
Laurence Devillers : “Reconnaître une personnalité juridique aux robots serait dangereux et inacceptable”
Octave Larmagnac-Matheron 13 septembre 2021

En Afrique du Sud, une intelligence artificielle vient d’être reconnue comme inventrice d’un récipient alimentaire capable de conserver…

Laurence Devillers : “Reconnaître une personnalité juridique aux robots serait dangereux et inacceptable”

Article
4 min
Jean-François Bonnefon : “Une IA peut être un agent moral”
Nicolas Gastineau 27 octobre 2020

À l’heure du développement tous azimuts des intelligences artificielles, l’éthique machinique sort du bois de la science-fiction et…

Jean-François Bonnefon : “Une IA peut être un agent moral”

Article
5 min
Ziad Bou Akl : “Les théologiens de l’islam ont développé leur propre réflexion sur la morale”
Marius Chambrun 03 février 2022

L’Institut du monde arabe, à Paris, lance un nouveau rendez-vous dont Philosophie magazine est partenaire : les « Jeudis de la…

Ziad Bou Akl : “Les théologiens de l’islam ont développé leur propre réflexion sur la morale”

Article
13 min
Alain de Libera : « C’est en lisant Averroès que les chrétiens ont appris à philosopher »
Martin Legros 27 septembre 2012

Contre ceux qui s’imaginent que l’Occident chrétien a l’apanage de la rationalité philosophique, Alain de Libera, spécialiste de philosophie médiévale, met au jour le rôle décisif des penseurs arabo-musulmans. De Bagdad à l’Andalousie,…


À Lire aussi
[Exclusif] Hannah Arendt : “La cybernétique et la révolution du travail”
[Exclusif] Hannah Arendt : “La cybernétique et la révolution du travail”
Par Hannah Arendt
octobre 2021
La morale est-elle compatible avec l’intelligence artificielle?
La morale est-elle compatible avec l’intelligence artificielle?
Par Alexandre Lacroix
avril 2016
Thierry Hoquet : “Notre humanité tient à la manière dont nous appréhendons la différence”
Thierry Hoquet : “Notre humanité tient à la manière dont nous appréhendons la différence”
Par Octave Larmagnac-Matheron
mai 2021
  1. Accueil-Le Fil
  2. Articles
  3. Nous avons testé Delphi, l’IA qui résout les problèmes moraux
Philosophie magazine n°178 - mars 2024
Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
Avril 2024 Philosophe magazine 178
Lire en ligne
Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
Réseaux sociaux
  • Facebook
  • Instagram
  • Instagram bac philo
  • Linkedin
  • Twitter
Liens utiles
  • À propos
  • Contact
  • Éditions
  • Publicité
  • L’agenda
  • Crédits
  • CGU/CGV
  • Mentions légales
  • Confidentialité
  • Questions fréquentes, FAQ
À lire
Bernard Friot : “Devoir attendre 60 ans pour être libre, c’est dramatique”
Fonds marins : un monde océanique menacé par les logiques terrestres ?
“L’enfer, c’est les autres” : la citation de Sartre commentée
Magazine
  • Tous les articles
  • Articles du fil
  • Bac philo
  • Entretiens
  • Dialogues
  • Contributeurs
  • Livres
  • 10 livres pour...
  • Journalistes
  • Votre avis nous intéresse