Les Robots et le Mal

Une recension de Samuel Lacroix, publié le

Comment décider de ce que devra faire une voiture autonome en cas de danger imminent ? Si un enfant traverse alors que le feu est vert, faut-il garantir la possibilité de le sauver à tout prix, quitte à sacrifier le ou les passagers d’un véhicule, ou bien l’inverse ? Qui est légitime pour programmer un algorithme qui aidera la voiture dans sa décision ? Sur quels critères s’appuiera-t-il ? Le physicien et philosophe Alexei Grinbaum propose une solution aussi déroutante qu’intéressante : ne pas choisir, s’en remettre au hasard. Quels que soient les critères retenus, la décision de la machine ne saurait être irréprochable sur le plan éthique. La seule issue satisfaisante serait de programmer la possibilité qu’elle enclenche un processus de tirage au sort dès lors qu’elle détecte un conflit moral. L’enjeu n’est pas qu’elle ne fasse aucun mal mais qu’on ne lui inculque pas une conception du bien et du mal. Il faut laisser l’éthique aux hommes et ne pas faire des machines des agents moraux. Si l’argument est audible par des utilisateurs considérant qu’« un coup de dés jamais n’abolira la confiance », il semble que l’auteur ne résolve pas sur ce point une difficulté qu’il expose lui-même : c’est qu’en informatique, le hasard fondamental n’existe pas, qu’il est toujours produit artificiellement.

Sur le même sujet

Article
12 min
Luc de Brabandere

Et si Platon, Aristote, Al-Khwârizmî et Leibniz étaient les vrais précurseurs de l’informatique ? Et si cette dernière remontait à plus de deux…

La grande histoire de l’intelligence artificielle