Aller au contenu principal
Menu du compte de l'utilisateur
    S’abonner Boutique Newsletters Se connecter
Navigation principale
  • Le fil
  • Archives
  • En kiosque
  • Dossiers
  • Philosophes
  • Lexique
  • Citations
  • EXPRESSO
  • Agenda
  • Masterclass
  • Bac philo
 Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
rechercher
Rechercher

© Pixabay

Éthique

Machine, es-tu morale ? 

Nicolas Gastineau publié le 27 octobre 2020 4 min

Juger moralement une machine ? Drôle d'idée. Elle se pose pourtant, maintenant que les intelligences artificielles prennent des décisions qui engagent nos vies. Si une voiture intelligente sauve son passager en sacrifiant un piéton, jugeons-nous qu’elle a bien agi ? César Hidalgo, chercheur à l’institut de recherche en IA de Toulouse (Aniti), préfère poser la question autrement : penserions-nous la même chose... si un humain prenait la même décision ? Dans How Humans Judge Machines (non traduit, MIT Press, à paraître en février 2021), Hidalgo fait juger au public l’une après l’autre les mêmes décisions, venant d’une IA dans un cas, d’un humain dans l’autre. Résultat : nous n'avons pas les mêmes critères ! Selon qu’elle émane de l'homme ou de la machine, une décision identique nous paraîtra tantôt compréhensible, tantôt insupportable. Un accident de voiture ? Le conducteur humain sera jugé avec plus d’indulgence qu’une voiture autonome. À l’inverse, une IA écrivaine qui ferait du plagiat est considérée comme moins coupable qu’un humain. Des résultats curieux et saisissants qui tracent les premières lignes d’un sujet d’avenir : quel est notre rapport moral aux machines ?

 

• L’IA s’adapte à nos jugements moraux. L’enquête de César Hidalgo et son équipe ne se préoccupe pas de construction d’une IA ou d’enjeux techniques, mais de la façon dont nous jugeons en action des robots déjà conçus. Ce livre offre donc des pistes précieuses aux constructeurs pour rendre le plus moralement acceptable leurs futures IA. Surtout, les formes les plus récentes de la robotique progressent par apprentissage et adaptation à l’environnement culturel dans lequel elles évoluent. Et d’une région à l'autre, les jugements moraux que l’on porte sur elle variant, elles auront mécaniquement tendance... à se conformer aux valeurs du coin ! Fait amusant : “Un algorithme entraîné aux États-Unis, aux Émirats arabes unis ou en Chine développera des comportements différents dans une même situation.” Autrement dit, le jugement qu’on porte sur les IA les transforme. Il y aurait donc comme un jeu de va-et-vient dans la relation de l’humain à la machine intelligente : notre regard la reconfigure et la module perpétuellement. How Humans Judge Machines nous permet de prendre conscience de ce regard.

• Un scénario dramatique. Imaginez un tsunami qui approche d'une ville. Le responsable, humain ou IA, a deux options : sauver la moitié de la population avec certitude (laissant alors les autres mourir) ou essayer de sauver tout le monde, au risque que personne ne survive. Résultat : un humain qui a pris le risque du sauvetage de tous, mais a échoué (occasionnant la mort de la ville entière), est bien mieux perçu qu’une IA ayant fait le même choix ! L’humain est vu comme un être de bonne volonté : le résultat compte moins que l’intention qui a motivé le risque, et elle l’absout en partie. En revanche, la pauvre IA ne bénéficie d’aucune indulgence, et son échec est moralement intolérable. C’est que sa défaite nous l’a fait apparaître comme une pure défaillance technique : elle a échoué comme une calculette qui aurait mal calculé. Elle a perdu l’aura morale positive qu’elle maintient par ailleurs quand elle sauve les habitants. En d’autres termes : “Nous jugeons la moralité des humains à leurs intentions, et celle des intelligences artificielles à leurs résultats.” Mais cela ne joue pas seulement au désavantage des machines… Un robot de maison est surpris dans votre salle de bain en train de nettoyer le sol avec le drapeau national ? Il sera bien plus vite pardonné que si c’était un humain, car on devine instantanément les vilaines intentions antipatriotiques de ce dernier ! En revanche, on sera pris d'empathie pour la rationalité utilitaire du robot : un tissu dont il ne connaît pas la valeur symbolique s’est présenté à lui, il a agi en vue de la seule fin de nettoyer.

• Ces résultats nous replongent dans une vieille question de philosophie morale. La moralité d’un acte provient-elle de son intention ou de son effet ? Pour Emmanuel Kant, la morale ne doit jamais tenir compte de ses conséquences. Dans les Fondements de la métaphysique des moeurs (1785), il prend l’exemple d’un commerçant qui pratique un prix honnête et ne dupe jamais sa clientèle afin de maintenir sa réputation. “Voilà donc une action qui était accomplie, non par devoir, ni par inclination immédiate, mais seulement dans une intention intéressée”, observe-t-il. La morale kantienne est exclusivement celle de la rectitude du vouloir : il faut pour agir moralement le faire avec de pures intentions. Contre cette “doctrine de la bonne volonté” s’élèvent les utilitaristes. Leur plus célèbre représentant, Jeremy Bentham, répond à l’inverse. Selon lui, pour bien agir, il faut pratiquer une “arithmétique des plaisirs” : mesurer par avance les effets de bien-être de vos actions, et vous saurez lesquels sont bons ou mauvais. C’est précisément sur ces critères que nous jugeons de la moralité d’un robot. Nous sommes donc benthamiens pour juger des machines… et kantiens pour juger de nous-mêmes !

Jean-François Bonnefon explique les enjeux éthiques de l’IA
Expresso : les parcours interactifs
Popper et la science
Avec Popper, apprenez à distinguer théorie scientifique et pseudo-sciences, pour mieux débusquer les charlatans et (enfin) clouer le bec à ce beau-frère complotiste !
Découvrir Tous les Expresso
Sur le même sujet
Article
4 min
Quelle morale pour les algorithmes ?
Apolline Guillot 13 avril 2021

Dans Faire la morale aux robots. Une introduction à l’éthique des algorithmes (Flammarion, 2021), le chercheur en éthique de l’intelligence…

Quelle morale pour les algorithmes ?

Article
4 min
Jean-François Bonnefon : “Une IA peut être un agent moral”
Nicolas Gastineau 27 octobre 2020

À l’heure du développement tous azimuts des intelligences artificielles, l’éthique machinique sort du bois de la science-fiction et…

Jean-François Bonnefon : “Une IA peut être un agent moral”

Article
3 min
Suffit-il à un ordinateur de parler pour penser?
Samuel Webb 03 juillet 2014

Le 7 juin, le test de Turing, étape clé dans les progrès de l’intelligence artificielle, aurait été passé avec succès… par un programme informatique. Reste à comprendre ce qu’on entend ici par intelligence.


Article
3 min
Des garde-fous pour les robots
Cédric Enjalbert 22 février 2017

Le eurodéputés ont adopté le jeudi 16 février 2017 une résolution visant à établir des règles juridiques et éthiques en matière de robotique et d…

Des garde-fous pour les robots

Article
4 min
Daniel Dennett, le philosophe pris pour son double robotique
Octave Larmagnac-Matheron 08 septembre 2022

Un robot de discussion est parvenu à imiter, de manière extrêmement convaincante, le langage et les raisonnements du philosophe américain …

Daniel Dennett, le philosophe pris pour son double robotique

Article
4 min
Laurence Devillers : “Reconnaître une personnalité juridique aux robots serait dangereux et inacceptable”
Octave Larmagnac-Matheron 13 septembre 2021

En Afrique du Sud, une intelligence artificielle vient d’être reconnue comme inventrice d’un récipient alimentaire capable de conserver…

Laurence Devillers : “Reconnaître une personnalité juridique aux robots serait dangereux et inacceptable”

Article
3 min
« Her » : que feront les hommes quand leur intelligence sera dépassée ?
Alexandre Lacroix 24 avril 2014

Le dernier film de Spike Jonze, Her, n’est pas qu’une merveilleuse romance liant un homme et une intelligence artificielle : c’est aussi une…

« Her » : que feront les hommes quand leur intelligence sera dépassée ?

Bac philo
3 min
La science
18 mai 2022

Opposée à l’opinion, voire à la sensation, la science désigne toute connaissance rationnelle obtenue par démonstration ou par observation et vérification. Suivant qu’elle précède l’expérience ou qu’elle parte d’elle, sa démarche est…


À Lire aussi
Le devoir
Par Nicolas Tenaillon
août 2012
L'Université de la Singularité arrive en France
L'Université de la Singularité arrive en France
Par Cédric Enjalbert
juillet 2015
Thierry Hoquet : “Notre humanité tient à la manière dont nous appréhendons la différence”
Thierry Hoquet : “Notre humanité tient à la manière dont nous appréhendons la différence”
Par Octave Larmagnac-Matheron
mai 2021
  1. Accueil-Le Fil
  2. Articles
  3. Machine, es-tu morale ? 
Philosophie magazine n°178 - mars 2024
Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
Avril 2024 Philosophe magazine 178
Lire en ligne
Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
Réseaux sociaux
  • Facebook
  • Instagram
  • Instagram bac philo
  • Linkedin
  • Twitter
Liens utiles
  • À propos
  • Contact
  • Éditions
  • Publicité
  • L’agenda
  • Crédits
  • CGU/CGV
  • Mentions légales
  • Confidentialité
  • Questions fréquentes, FAQ
À lire
Bernard Friot : “Devoir attendre 60 ans pour être libre, c’est dramatique”
Fonds marins : un monde océanique menacé par les logiques terrestres ?
“L’enfer, c’est les autres” : la citation de Sartre commentée
Magazine
  • Tous les articles
  • Articles du fil
  • Bac philo
  • Entretiens
  • Dialogues
  • Contributeurs
  • Livres
  • 10 livres pour...
  • Journalistes
  • Votre avis nous intéresse