Tuer ou ne pas tuer... Le dilemme moral ignoré par les robots tueurs

 |   |  1178  mots
(Crédits : REUTERS/Herwig Prammer)
L'autonomie des robots tueurs permet non seulement de transformer la conduite des opérations militaires, mais également le paradigme même de la guerre. Par Eric Martel, Conservatoire national des arts et métiers (CNAM)

Le robot tueur est par essence beaucoup plus qu'une arme, puisqu'il est apte à choisir et décider de lui même de tirer sur une cible ennemie. Étant dépourvus de conscience, les robots tueurs ne peuvent être tenus pour responsables de leurs actes. Ils ne peuvent donc être jugés, ils doivent répondre à d'autres modes de régulation. L'autonomie des robots tueurs permet non seulement de transformer la conduite des opérations militaires, mais également le paradigme même de la guerre. Les conséquences sociales, voire morales de l'usage des robots tueurs sont donc loin d'être négligeables.

Ces questions doivent être mises en perspective dans le cadre d'un processus global d'automatisation de la guerre. Nous allons nous intéresser ici à un aspect crucial de l'arrivée des robots létaux autonomes : leur capacité à décider de leur propre chef de tirer et donc tuer des combattants ennemis.

La guerre : une activité très humaine

La guerre est essentiellement une activité régie par des règles et des conventions humaines résultant de normes culturelles et religieuses. Mais elle a également sa propre logique qui défie les conventions. Pour le grand théoricien militaire Clausewitz, elle est « un acte de violence [...] qui théoriquement n'a pas de limite ». Ce que les propos d'Eisenhower tendraient à confirmer :

« En ayant recours à la force, on ne savait pas où on allait [...] Plus on s'enfonçait profondément dans le conflit, moins il y avait de limites [...] sauf celles de la force elle-même. »

Pour résumer, l'on pourrait affirmer comme le général Sherman durant la Guerre de Sécession, avant de faire évacuer puis brûler la ville d'Atlanta, que « la guerre est l'enfer ».

Néanmoins, ces tendances sont contenues, et de façon paradoxale, par les militaires eux-mêmes qui, selon le philosophe Michael Walzer, sont désireux de distinguer « la tâche à laquelle ils consacrent leur vie d'une boucherie pure et simple » par le respect des conventions de la guerre.

Les conventions de la guerre

Les conventions de Genève couvrent deux aspects : le jus ad bellum, droit de déclencher et faire la guerre, et le jus in bello, droit dans la guerre, qui nous concerne particulièrement.

Ce dernier part d'un axiome fondateur : la distinction entre les combattants et les civils. Les premiers ont le droit de tuer en vertu du fait qu'ils peuvent eux-mêmes être tués ; les seconds doivent en être préservés. De cette distinction fondamentale découle quatre grands principes :

  • humanité ;
  • nécessité militaire ;
  • proportionnalité ;
  • discrimination.

Deux principes nous intéressent particulièrement. Le premier, le principe de proportionnalitéprescrit que s'il est admissible que des civils soient tués afin de détruire des objectifs ennemis d'importance, cela doit être fait dans une juste mesure.

Selon le journaliste Andrew Cockburn, l'armée américaine considérerait aujourd'hui en Afghanistan qu'un ratio de 30 civils tués pour chaque chef taliban abattu serait acceptable.

Le second, le principe de discrimination stipule qu'il faut veiller à clairement différencier les civils des combattants militaires.

Le respect de ces deux principes dépend fortement de l'intensité du conflit en cours. Ainsi au Vietnam, les commandants, déstabilisés par un ennemi fuyant, ordonnaient systématiquement le bombardement des villages d'où quelques coups de feu étaient tirés.

L'opposition aux robots tueurs

Elle se joue principalement sur les deux critères vus précédemment. En ce qui concerne le facteur de discrimination, l'on ne peut nier qu'il représente un point faible de ces machines : comment différencier, en effet, un soldat qui se rend d'un soldat en armes, ou d'un soldat blessé ?

Si, actuellement, les techniques de reconnaissance de forme sont aptes à distinguer des uniformes, elles font néanmoins, comme l'affirme le roboticien Noel Sharkey, des confusions grossières. Par contre, il est très difficile pour un robot d'identifier un soldat blessé, voire un soldat déposant les armes.

À cela s'ajoute le critère de proportionnalité : une machine peut-elle décider d'elle-même combien de civils pourraient être tués afin de détruire sa cible ?

Pour renforcer ces deux grands arguments, les opposants aux robots tueurs posent un principe d'humanité. Ils partent du principe que les humains ne sont pas rationnels puisqu'ils ont des émotions et se fient à leur intuition. Dans leur majorité, ils manifestent une certaine répulsion à l'idée de tuer leur prochain. C'est ainsi que des études effectuées après la Seconde Guerre mondiale ont montré qu'en moyenne seuls 18,75 % des soldats américains placés en situation d'engagement avaient usé de leur arme.

Cette très vive opposition embarrasse les militaires et explique leurs hésitations quant à l'usage de ces armes. Mais nombreux sont ceux qui, au sein de l'institution, pensent que des puissances comme la Chine ou la Russie n'auront certainement pas ces appréhensions morales et n'hésiteront pas à développer à l'avenir ce type d'armements.

L'arrivée des robots tueurs serait donc inéluctable et mériterait d'être anticipée.

Qui est responsable ?

En vertu de ce principe Ronald C. Arkin, un roboticien, propose de concevoir des machines agissant de façon plus éthique que ces sujets imparfaits que sont les combattants humains. Il considère que « confrontés à l'horreur du champ de bataille », les soldats voient leur capacité de jugement brouillée par les émotions et le stress du combat. Ils auraient donc tendance à commettre des atrocités. Les robots létaux autonomes seraient donc la solution permettant de garantir le respect des lois de la guerre.

Pour Grégoire Chamayou, le problème se situe à un autre niveau. Jusqu'à présent l'arme qui est une chose et le combattant qui est une personne, donc juridiquement responsable, ont toujours été séparés. Le robot létal autonome est lui un ensemble dans lequel l'arme et le combattant sont confondus : agent et instruments sont liés écartant toute possibilité de responsabilité juridique. Comment juger une machine ? Il voit ainsi une chose qui se met à faire usage d'elle-même.

La possibilité d'accorder le droit de tuer à des machines ne serait pas sans conséquence. Si l'on prend en compte qu'à la guerre, le droit de tuer est habituellement réservé aux combattants en vertu du fait qu'ils peuvent eux-mêmes être tués, considérer qu'ils peuvent être éliminés par une machine « équivaudrait à mettre l'homicide sur le même plan que la destruction d'une pure chose matérielle ».

Cette question n'est pas que militaire. Elle aura forcément des répercussions dans l'usage d'autres systèmes automatiques tels que les voitures autonomes. On le voit déjà avec les répercussions d'accidents mortels ayant impliqué ce type de véhicules : qui est responsable ?

--

L'auteur publie le 18 octobre « Robots tueurs. La guerre déshumanisée, les robots et drones autonomes visent zéro mort ».

The Conversation _______

Par Eric MartelDocteur en Sciences de Gestion/Chercheur associé au LIRSA, Conservatoire national des arts et métiers (CNAM)

La version originale de cet article a été publiée sur The Conversation

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 22/10/2018 à 14:43 :
"les soldats voient leur capacité de jugement brouillée par les émotions et le stress du combat" Non pas vrai, pas tous les soldats, notre espèce est conçue pour disposée de plusieurs formes de profils génétique, permettant entre autre d'avoir des personnalitées suffisamment forte pour ne pas subir ce stress. Ce qui leur permet de voir les mouvements sur le champs de bataille quand tout le monde est en mode de vision dégradée par la peur. Cette faculté permet de donner des ordres et de faire des gestes de mouvements aux soldats apeurés pour la manœuvre et la conduite dans la bataille. J'ai fais assez de bataille rangée à l'école contre d'autres écoles, pour savoir ça moi-même, au dépend des autres écoles battues ^^.
a écrit le 21/10/2018 à 20:00 :
Voilà, la fameuse "Loi d'Asimov" est déjà caduque mais c'était pas difficile de le prévoir.
a écrit le 20/10/2018 à 18:47 :
C'est toute la distinction entre l'IA faible et l'IA forte, seule la seconde aura (peut-être un jour) une conscience et donc des sentiments, ou leur équivalent électronique, qui lui permettront de porter un jugement. La première n'étant qu'une somme d’algorithmes, certes performants, mais restant une copie élaborée d'une machine de Turing. L'IA forte n'est pas en l'état pour demain, car capacité n'est pas possibilité, nous avons encore un peu de temps devant nous.
a écrit le 20/10/2018 à 11:42 :
Je pense qu’il faut remettre les pendules à l’heure.

Un humain sans conscience n’est pas un humain( même si il a la forme)

Le «  sans conscience «  de travail en milieu psychiatrique.

Un robot est «  un outil de travail »
Jamais un robot donc un outil de travail ne peut prendre la place d’un humain avec conscience

...
Je vous laisse faire les déductions suivantes... à votre guise , en toute liberté...
a écrit le 20/10/2018 à 10:45 :
L'excellent anthropologue/économiste Paul Jorion (voir son blog) redoute la disparition de l'espèce humaine d'ici deux générations en l'absence de changement dans les différentes politiques...Pour les robots, heureusement qu'il existe les virus..
a écrit le 20/10/2018 à 9:30 :
on va programmer des reseaux convolutifs pour que les robots fassent de la philosophie morale basee sur leur cognition........
fichtre
la guerre c'est la guerre, c'est pas un cours de philo; les guerres propres ca n'existe que chez les bobos
rien que se demander ce qu'est la morale et ' quest ce qui est juste', c'est inextricable ( cf les cours qu'on a eu la dessus, et pas seulement en philo!)
a partir de la on peut avoir des concepts fumeux...
Réponse de le 20/10/2018 à 10:00 :
Pour ma part je pense que le problème est bien plus profond et plus compliquer que sur de simple robot militaire... A combien estime t'on la perte d'argent pour les plus pauvres de nos société moderne juste parce que des algorithme décide d'acheter et de vendre des actions en bourse, et ce faisant en détruisant les entreprises et la vie des employés? Si aujourd'hui la guerre n'est plus celle d'hier; c'est pas pour autant qu'elle a disparue, elle existe sous d'autres formes et est bien plus néfaste et destructive a long terme...

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :