La Tribune

L'armée américaine veut enseigner le "bien" et le "mal" aux robots

Du 13 au 16 mai, des experts réunis par l'ONU débattent des risques posés par les robots-tueurs. (Photo Reuters)
Du 13 au 16 mai, des experts réunis par l'ONU débattent des risques posés par les robots-tueurs. (Photo Reuters) (Crédits : reuters.com)
latribune.fr  |   -  383  mots
Le Bureau de recherche de la Marine américaine a accordé 7,5 millions de dollars à plusieurs laboratoires d'université afin qu'ils inculquent des notions d'éthique aux robots-soldats.

L'Organisation des nations unies prend le sujet très au sérieux. Comment contrôler les "robots-tueurs"? Pudiquement dénommées "armes létales autonomes", ces machines font l'objet de débats organisés du 13 au 16 mai entre experts à l'Onu. 

7,5 millions de dollars

Outre-Atlantique, l'armée cherche déjà des solutions. Le Bureau national de la recherche du Département de la Marine (Office of Naval Research), devrait ainsi accorder 7,5 millions de dollars de subventions à cinq universités (Tufts, Rensselaer Polytechnic Institute, Brown, Yale et Georgetown) afin de trouver un moyen d'intégrer des notions de morale dans les circuits de ces robots-soldats. 

Paul Bello, directeur du programme de science cognitive au sein de l'ONR a expliqué au site spécialisé Defense One

"Les voitures automatiques de Google sont légales et utilisées dans plusieurs Etats actuellement. En tant que chercheurs, nous tentons (...) de distinguer les implications légales et éthiques. Nous ne voulons pas être pris au dépourvu dans tous les domaines militaires où des vies sont en jeu". 

Dilemmes éthiques

Officiellement, l'armée américaine n'a pas le droit d'utiliser de robots totalement autonomes capables de tuer. Les machines semi-autonomes n'ont pas "le droit de sélectionner et viser des cibles individuelles ou spécifiques sans y avoir été autorisées par un opérateur humain", précise une directive du Département de la Défense datant de 2012

Pour le Bureau de la recherche de la Marine, même si ces "systèmes ne sont pas armés, ils pourraient être contraint de prendre des décisions" relevant de l'éthique, comme le choix entre la fuite et la discussion avec l'ennemi.

Des robots plus "éthiques" que les Hommes? 

Le directeur du groupe d'étude sur l'éthique et la technologie de Yale, Wendell Wallach, auteur d'un ouvrage sous-titré "Teaching Robots right from wrong" (Apprendre le bien et le mal aux robots), a lui aussi été interrogé par Defense One. Il indique que certaines questions morales peuvent être codées plus facilement que d'autres. Il plaide:

"L'un des arguments en faveur des robots [à qui la morale aurait été enseignées] est qu'ils pourraient être encore meilleurs que les hommes pour agir de façon conforme à l'éthique parce qu'ils sont capables de choisir entre de plus nombreuses options". 

Réagir

Commentaires

ptitblabla  a écrit le 15/05/2014 à 21:32 :

Il serait bon de rappeler aux Etasuniens que la dernière fois qu'ils ont essayé de faire cela s'appelait TERMINATOR
Sans rire, il serait de plus bon goût de l'apprendre aux pilotes des sociétés privées qui pilotent depuis leurs bunkers du centre des USA des drones de combat pour assaniner en Afganistan des groupes de plus de 5 personnes femmes et enfants compris.

C'est une blague?  a écrit le 15/05/2014 à 12:51 :

Pour mémoire, sans vouloir remonter à l'esclavagisme et au génocide indien, les américains contemporains ont tués des centaines de milliers de civils en Irak comme en Afghanistanet au Pakistan, ont ouvert des camps de torture (qu'ils n'ont pas tous fermé), assassinent à distance et sans trop de précision, et c'est les fusils, les canons, les chars et les drones qu'on devrait doter d'un sens éthique?

xavier-marc  a écrit le 15/05/2014 à 11:04 :

La morale du robot: je scanne le visage, je regarde dans les fichiers facebook si l'individu a 18ans et 1 jour, alors il peut être tué donc être un dégât collatéral.
Car ne nous leurrons pas, c'est juste pour éviter les gros titres de presse cette histoire de morale.

simple  a écrit le 15/05/2014 à 9:55 :

le bien c'est Obama, le mal c'est poutine

JB38  a écrit le 15/05/2014 à 9:28 :

Le bien et le mal selon la pax américana, c'est du plomb pour tous ceux qui ne sont pas d'accord avec les US. Les US, un peuple "bombardeur", "mitrailleur" dont les citoyens possèdent plus de 800 000 000 d'armes...Et ce pays se targue de vouloir inculquer le bien et le mal a des robots, alors qu'ils n'ont pas une once de cette notion dans le cerveau.
América first, dollar, impérialisme pour le bien du Monde?

L'arroseur arrosé vous connaissez?  a écrit le 15/05/2014 à 8:58 :

Il suffit de raconter à ses robots...l'histoire américaine de façon objective...vu les progrès techniques...ces robots seront capables de savoir ce qu'est le bien et le mal...ils auront beaucoup d'exemples...pour ensuite extrapoler.

Fred plomb  a écrit le 15/05/2014 à 7:45 :

Faudra-t il se coller un crucifix sur le frond pour que le robot made in the USA ne nous tire pas dessus...?
Ça fait froid dans le dos

bah  a répondu le 15/05/2014 à 9:00:

Si vous n'êtes pas un pucé RFID, vous y aurai droit!