L'armée américaine veut enseigner le "bien" et le "mal" aux robots

Par latribune.fr  |   |  383  mots
Du 13 au 16 mai, des experts réunis par l'ONU débattent des risques posés par les robots-tueurs. (Photo Reuters)
Le Bureau de recherche de la Marine américaine a accordé 7,5 millions de dollars à plusieurs laboratoires d'université afin qu'ils inculquent des notions d'éthique aux robots-soldats.

L'Organisation des nations unies prend le sujet très au sérieux. Comment contrôler les "robots-tueurs"? Pudiquement dénommées "armes létales autonomes", ces machines font l'objet de débats organisés du 13 au 16 mai entre experts à l'Onu. 

7,5 millions de dollars

Outre-Atlantique, l'armée cherche déjà des solutions. Le Bureau national de la recherche du Département de la Marine (Office of Naval Research), devrait ainsi accorder 7,5 millions de dollars de subventions à cinq universités (Tufts, Rensselaer Polytechnic Institute, Brown, Yale et Georgetown) afin de trouver un moyen d'intégrer des notions de morale dans les circuits de ces robots-soldats. 

Paul Bello, directeur du programme de science cognitive au sein de l'ONR a expliqué au site spécialisé Defense One

"Les voitures automatiques de Google sont légales et utilisées dans plusieurs Etats actuellement. En tant que chercheurs, nous tentons (...) de distinguer les implications légales et éthiques. Nous ne voulons pas être pris au dépourvu dans tous les domaines militaires où des vies sont en jeu". 

Dilemmes éthiques

Officiellement, l'armée américaine n'a pas le droit d'utiliser de robots totalement autonomes capables de tuer. Les machines semi-autonomes n'ont pas "le droit de sélectionner et viser des cibles individuelles ou spécifiques sans y avoir été autorisées par un opérateur humain", précise une directive du Département de la Défense datant de 2012

Pour le Bureau de la recherche de la Marine, même si ces "systèmes ne sont pas armés, ils pourraient être contraint de prendre des décisions" relevant de l'éthique, comme le choix entre la fuite et la discussion avec l'ennemi.

Des robots plus "éthiques" que les Hommes? 

Le directeur du groupe d'étude sur l'éthique et la technologie de Yale, Wendell Wallach, auteur d'un ouvrage sous-titré "Teaching Robots right from wrong" (Apprendre le bien et le mal aux robots), a lui aussi été interrogé par Defense One. Il indique que certaines questions morales peuvent être codées plus facilement que d'autres. Il plaide:

"L'un des arguments en faveur des robots [à qui la morale aurait été enseignées] est qu'ils pourraient être encore meilleurs que les hommes pour agir de façon conforme à l'éthique parce qu'ils sont capables de choisir entre de plus nombreuses options".