Aller au contenu principal
Menu du compte de l'utilisateur
    S’abonner Boutique Newsletters Se connecter
Navigation principale
  • Le fil
  • Archives
  • En kiosque
  • Dossiers
  • Philosophes
  • Lexique
  • Citations
  • EXPRESSO
  • Agenda
  • Masterclass
  • Bac philo
 Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
rechercher
Rechercher

Des bâtiments détruits par des frappes aériennes israéliennes dans le nord de la bande de Gaza, le jeudi 7 décembre 2023. © Leo Correa/AP Photo/Sipa

Proche-Orient

Utilisation de l’IA par l’armée israélienne : quatre questions éthiques

Samuel Lacroix publié le 14 décembre 2023 8 min

Des enquêtes journalistiques ont mis au jour le recours massif à l’intelligence artificielle par l’armée israélienne contre le Hamas. Avec son système « Habsora » (Évangile), Tsahal serait capable de générer des centaines de cibles par jour, tout en prévoyant de façon assez précise qui serait touché par les frappes. Une petite révolution technologique, qui bouleverse aussi le droit de la guerre. Explications.


 

Publiée le 30 novembre dernier, la longue enquête du média israélo-palestinien +972 a permis d’éclairer les rouages de la campagne de bombardements massifs menée par Tsahal sur la bande de Gaza depuis les attentats du 7 octobre. S’appuyant sur de nombreux témoignages de militaires et d’ex-militaires, celle-ci a établi que l’armée israélienne avait recours à un logiciel spécial nourri à l’intelligence artificielle (IA) lui permettant, par agrégation et recoupement de données issues de renseignements divers, de générer quotidiennement de nombreuses cibles potentielles – près de 100 par jour, contre 50 par an avant l’apparition du programme, dont environ la moitié serait effectivement frappées.

L’existence d’un tel logiciel expliquerait comment Israël a pu bombarder Gaza à un rythme aussi soutenu (l’enquête évoque 15 000 cibles frappées les 35 premiers jours). Elle soulève aussi un paradoxe : alors que le nombre de civils susceptibles d’être touchés dans une opération est renseigné, le nombre de « victimes collatérales » est vertigineux : on parle aujourd’hui d’environ 15 000 Palestiniens tués, dont 6 000 enfants.

Alors même qu’elle s’est dotée d’un programme lui permettant d’être plus précise dans ses frappes, l’armée israélienne a donc relevé le seuil d’acceptabilité du nombre de civils assassinés : tandis qu’elle consentait auparavant à une dizaine de victimes collatérales pour abattre un membre exécutif du Hamas, elle est dorénavant prête à foudroyer des centaines de civils « annexes » pour éliminer un membre subalterne de l’organisation terroriste. Ce paradoxe entraîne dans son sillage un ensemble de questions philosophiques autour du recours à l’IA dans la guerre, problèmes encore émergents que nous allons définir ici.

1) Prévoir, est-ce vouloir ? La doctrine du double effet

On parle généralement de « pertes collatérales » lorsque des personnes sont touchées au cours d’une opération alors qu’elles n’étaient pas directement visées. De façon subsidiaire, on a souvent l’idée qu’une victime collatérale est une victime accidentelle, qui n’aurait pas dû être frappée, et dont on n’avait pas nécessairement prévu qu’elle le soit. Dans les faits, ce n’est jamais vraiment le cas, mais un certain flou demeure.

Avec l’IA, Tsahal a désormais la possibilité de prévoir plus précisément que telles ou telles personnes seront effectivement touchées. Lorsque l’armée israélienne vise un immeuble de dix étages pour abattre un membre du Hamas qui y réside, elle sait à l’avance combien de personnes s’y trouvent et donc combien de victimes annexes elle risque de faire.

Aussi, dans la mesure où elles sont quantifiables, les pertes peuvent-elles toujours être dites « collatérales » ? Derrière cette question se cache une autre : prévoir, est-ce vouloir ? On touche là à ce qu’on appelle la « doctrine du double effet », soulevée dès le XIIIe siècle par Thomas d’Aquin dans sa Somme théologique (1274) : « Rien n’empêche, écrit le penseur médiéval, qu’un même acte ait deux effets (duos effectus), dont l’un seulement est visé (in intentione), tandis que l’autre ne l’est pas (praeter intentionem). Or les actes moraux reçoivent leur spécification de l’objet que l’on a en vue, mais non de ce qui reste en dehors de l’intention (praeter intentionem), et demeure, comme nous l’avons dit, accidentel à l’acte. »

Si le mauvais effet d’une action (occire des civils) peut être prévu, il ne doit pas être directement voulu. C’est à la condition de toujours découler d’une bonne intention (défendre sa population contre un groupe terroriste faisant planer sur elle une menace existentielle) qu’une action comprenant des conséquences néfastes peut demeurer moralement acceptable. L’ennui, ici, c’est qu’il est difficile d’établir avec certitude que ces pertes civiles prévues ne sont pas en même temps voulues, ne constituent pas également un but. Même si le fait de viser des civils suscite les condamnations de l’opinion publique internationale, la doctrine militaire israélienne « Dahiya » prône bel et bien un usage disproportionné de la force, explicitement nommé et assumé comme tel, et un ciblage de zones civiles dans une optique de dissuasion de toute attaque future.

2) Est-il moralement acceptable que l’acte de tuer soit rendu si facile ? L’excès d’abstraction

Avec une telle technologie, l’État d’Israël acquiert la possibilité de faire la guerre d’une tout autre manière. Elle peut éliminer ses ennemis à distance, sans nécessairement mobiliser de troupes au sol engageant les corps et les sens de ses soldats dans la bataille. L’IA radicalise de fait une tendance que le philosophe Grégoire Chamayou relevait à propos de plusieurs nouvelles armes, comme les sous-marins ou les drones au moment de leur apparition : « On ne combat plus l’ennemi, on l’élimine comme on tire des lapins » (Théorie du drone, La Fabrique, 2013).

S’il y a bien en dernière instance un opérateur humain qui choisit d’accepter ou non ce que le logiciel lui suggère, celui-ci perçoit la cible par le biais d’un écran, d’une interface, sans voir, ni entendre, ni sentir, les êtres humains qui se trouvent à l’intérieur du bâtiment qu’il s’apprête à commander de détruire. Il sait seulement, de façon abstraite, qu’ils s’y trouvent, mais il ne va pas avoir à lui-même abattre activement des personnes dans son champ sensoriel et son environnement immédiat. Comme l’écrit encore Chamayou à propos de la guerre à distance : « On n’est pas éclaboussé par le sang de l’adversaire. À cette absence de souillure physique correspond sans doute un moindre sentiment de souillure morale. »

Ce que permet et radicalise donc l’anéantissement d’un être humain assisté par l’IA, c’est une industrialisation et une abstraction extrême de l’acte de tuer, rendu beaucoup plus facile que lors d’une guerre classique conventionnelle. Deux éléments (la grande quantité d’individus ciblés et l’éloignement vis-à-vis d’eux) qui rendent plus difficile notre capacité à nous représenter ce que nous faisons réellement et concrètement. L’élément calculatoire, saillant et prédominant, abstrait de façon glaçante la vie humaine, réduite à son aspect quantitatif au détriment de sa dimension qualitative. On se demande moins qui l’on tue que combien, alors même qu’on a la possibilité de savoir par exemple combien d’enfants – la figure de l’innocent par excellence – se trouvent dans la structure visée. On fait ainsi fi de la question de la valeur de ces vies spécifiques, pourtant protégées – et hiérarchisées – par le droit international de la guerre.

3) L’IA n’est-elle qu’un instrument ? La technique injonctive et la dilution de la responsabilité

Les militaires qui prennent la décision finale de lâcher une bombe voient cette décision en quelque sorte servie sur un plateau, suggérée par le programme par suite de milliers d’arbitrages invisibles qu’ils n’ont pas eu eux-mêmes à opérer et dont ils ignorent le détail. De fait, ils ne comprennent par définition pas réellement leur décision, dont une grande partie des tenants et des aboutissants leur échappe. Dans la mesure où les propositions formulées le sont de façon automatique par une machine, par suite d’un recoupement de multiplicités de données, elles découlent d’un processus complexe et opaque qui dilue de facto la responsabilité immédiate et l’engagement de l’opérateur humain.

Cette tendance, le philosophe Günther Anders la décrivait déjà à propos de la bombe atomique au milieu du XXe siècle : « La question de savoir si l’objectif fixé par la machine peut être assumé – ou plus exactement s’il a seulement un sens – ne joue déjà plus aucun rôle à l’instant où celle-ci commence à calculer à la place de celui qui s’en sert ou de celui qui demande qu’on s’en serve » (L’Obsolescence de l’homme, 1956). L’opérateur final n’a pas lui-même eu à faire le travail de renseignement que le programme a ingéré, ni à faire le calcul amenant du recoupement des données de renseignement à la suggestion d’une cible à frapper. Le calcul une fois fait à l’issue d’un travail extrêmement divisé et médiatisé, la suggestion affichée s’apparente au résultat final d’un fonctionnement bien huilé.

La machine, qui n’a pas pensé la fin qui est la sienne, outrepasse du reste un rôle de pur instrument, dans la mesure où on lui demande de prémâcher le travail en formulant une suggestion, en ayant une « attitude » injonctive, réduisant l’être humain au bout de la chaîne à un simple exécutant, un pur décisionnaire à partir de ce que la technique a fait pour lui – et qu’il ne peut pas réellement comprendre. Une réalité dont s’inquiétait aussi l’informaticien Joseph Weizenbaum dans Computer Power and Human Reason (Freeman, 1976) : « Le pouvoir n’est rien s’il n’est le pouvoir de choisir. La raison instrumentale peut prendre des décisions, mais il n’y a rien de commun entre décider et choisir. »

4) Ce qu’il est techniquement possible de faire ne finit-il pas par être fait ? La problématique de l’expérimentation et du laboratoire

Finalement, on en vient à se demander si la raison pour laquelle Israël décide d’abattre tous ces civils, alors même qu’elle a les moyens de savoir qu’elle les éliminera bel et bien, n’est pas simplement… qu’il lui est techniquement possible de le faire. Qu’elle ait l’intention ou non de les éliminer, que l’objectif soit d’abord de ne pas laisser s’enfuir les membres du Hamas, qui pourraient s’échapper si la décision n’était pas prise de sacrifier des centaines d’autres personnes, est une chose. Autre chose est la difficulté de résister à la tentation de faire ce qu’on vient d’acquérir la possibilité de faire et du pouvoir que l’on a entre les mains.

Comme l’explique encore Günther Anders, lorsqu’il devient techniquement possible de faire quelque chose, bien souvent, ce quelque chose finit par être fait : « Les moyens justifient les fins. » Telle est la tendance accélérationniste que le progrès technique entretient, et notamment en période de guerre, qui voit généralement les prouesses technologiques prendre un nouvel essor. C’est le motif de « la guerre développée antérieurement à la paix » développé par Marx dans son Introduction générale à la critique de l’économie politique (1867), avec l’idée que le progrès technique trouve dans la guerre un champ d’expérimentation, avant d’éventuellement finir par se banaliser jusque dans la vie civile, comme cela s’est observé pour le drone.

En définitive, c’est aussi là une inquiétude que l’on peut avoir pour l’avenir : un tel recours à l’IA, même si elle laisse pour l’heure une place (réduite) à l’humain dans son déploiement, ne signe-t-il pas une fuite en avant vers ce que Grégoire Chamayou nomme la « robotique létale autonome » ? Ne constitue-t-il pas l’étape décisive vers le basculement dans des guerres d’avenir entièrement technologiques dans lesquelles les machines finiraient à terme par prendre elles-mêmes les décisions de tuer ?

Si le tableau peut paraître sombre ou exagéré, l’angoisse suscitée par ce qu’il convient de désigner comme une révolution technologique dans la guerre pourrait nous inviter à une telle prudence et à une imagination catastrophiste. Citons encore Günther Anders, en guise de conclusion : « La seule tâche morale décisive aujourd’hui, dans la mesure où tout n’est pas encore perdu, consiste à éduquer l’imagination morale, c’est-à-dire à essayer de surmonter le “décalage”, à ajuster la capacité et l’élasticité de notre imagination et de nos sentiments à la disproportion de nos propres produits et au caractère imprévisible des catastrophes que nous pouvons provoquer, bref, à mettre nos représentations et nos sentiments au pas de nos activités. »

Expresso : les parcours interactifs
L'étincelle du coup de foudre
Le coup de foudre est à la charnière entre le mythe et la réalité. Au fondement du discours amoureux, il est une expérience inaugurale, que l'on aime raconter et sublimer à l'envi.
Découvrir Tous les Expresso
Sur le même sujet
Article
21 min
Israël-Palestine : une guerre sans fin ?
Pierre Terraz 11 janvier 2024

Depuis l’attaque du Hamas le 7 octobre 2023, l’engrenage de la haine est plus que jamais à l’œuvre au Proche-Orient. En Israël, l’armée et…

Israël-Palestine : une guerre sans fin ?

Article
10 min
Moshe Halbertal : “Dans les nouveaux conflits, il ne faut pas perdre sa colonne vertébrale éthique”
Noémie Issan-Benchimol 14 janvier 2020

Un enfant armé doit-il être traité comme un soldat ? Qu’est-ce qui distingue un dommage collatéral d’un crime de guerre ? Voilà le type de…

Moshe Halbertal : “Dans les nouveaux conflits, il ne faut pas perdre sa colonne vertébrale éthique”

Article
4 min
Les drones autonomes sont-ils plus éthiques que les humains ?
Octave Larmagnac-Matheron 09 juin 2021

Des drones autonomes de conception turque auraient été utilisés en 2020 en Libye, « pour attaquer des cibles, sans qu’il soit…

Les drones autonomes sont-ils plus éthiques que les humains ?

Article
9 min
Israël-Palestine : comment résister à la violence ?
Sophie Alary, Cédric Enjalbert, Charles Perragin, 30 novembre 2023

Alors que les morts de civils s’accumulent dans les territoires palestiniens après l’intervention militaire israélienne menée en riposte à l…

Israël-Palestine : comment résister à la violence ?

Article
4 min
Quelle morale pour les algorithmes ?
Apolline Guillot 13 avril 2021

Dans Faire la morale aux robots. Une introduction à l’éthique des algorithmes (Flammarion, 2021), le chercheur en éthique de l’intelligence…

Quelle morale pour les algorithmes ?

Article
5 min
Alexis Keller : « Nous approchons du point de non-retour »
Martin Legros 18 septembre 2012

Alors que l’intervention militaire à Gaza contre les tirs de roquettes du Hamas et les dernières élections israéliennes font basculer le Proche-Orient dans la peur, le Suisse Alexis Keller, initiateur et principal négociateur en 2003…


Article
6 min
Grégoire Bignier : “L’architecture à venir est une ‘œuvre de conciliation’ entre la biosphère et l’activité humaine”
Hannah Attar 25 juillet 2022

En Laponie suédoise, l’on peut séjourner dans une chambre d’hôtel baptisée « Biosphère », dans le complexe Treehotel, c’est-à-dire dans…

Grégoire Bignier : “L’architecture à venir est une ‘œuvre de conciliation’ entre la biosphère et l’activité humaine”

Article
7 min
Guillaume Barrera : “Vouloir fuir le chaos en ouvrant les vannes du plus grand des chaos, c’est absurde”
Nicolas Gastineau 12 mai 2021

Le 21 avril, une lettre rédigée par un ancien officier de l’Armée de Terre, Jean-Pierre Fabre-Bernadac, et signée par de nombreux officiers à le…

Guillaume Barrera : “Vouloir fuir le chaos en ouvrant les vannes du plus grand des chaos, c’est absurde”

À Lire aussi
Vu de Moscou : “Les pro-guerre et les anti-guerre sont complètement désorientés”
Vu de Moscou : “Les pro-guerre et les anti-guerre sont complètement désorientés”
Par Michel Eltchaninoff
mars 2022
Richard David Precht : « Laisser l’IA juger les gens ou prendre des décisions morales, c’est aller droit dans le mur »
Richard David Precht : « Laisser l’IA juger les gens ou prendre des décisions morales, c’est aller droit dans le mur »
Par Svenja Flaßpöhler
septembre 2020
Des garde-fous pour les robots
Des garde-fous pour les robots
Par Cédric Enjalbert
février 2017
  1. Accueil-Le Fil
  2. Articles
  3. Utilisation de l’IA par l’armée israélienne : quatre questions éthiques
Philosophie magazine n°178 - mars 2024
Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
Avril 2024 Philosophe magazine 178
Lire en ligne
Philosophie magazine : les grands philosophes, la préparation au bac philo, la pensée contemporaine
Réseaux sociaux
  • Facebook
  • Instagram
  • Instagram bac philo
  • Linkedin
  • Twitter
Liens utiles
  • À propos
  • Contact
  • Éditions
  • Publicité
  • L’agenda
  • Crédits
  • CGU/CGV
  • Mentions légales
  • Confidentialité
  • Questions fréquentes, FAQ
À lire
Bernard Friot : “Devoir attendre 60 ans pour être libre, c’est dramatique”
Fonds marins : un monde océanique menacé par les logiques terrestres ?
“L’enfer, c’est les autres” : la citation de Sartre commentée
Magazine
  • Tous les articles
  • Articles du fil
  • Bac philo
  • Entretiens
  • Dialogues
  • Contributeurs
  • Livres
  • 10 livres pour...
  • Journalistes
  • Votre avis nous intéresse