La communauté internationale divisée face aux «robots tueurs»

 |   |  769  mots
Le X-47B, de Northrop Grumman Corporation, est un chasseur sans pilote.
Le X-47B, de Northrop Grumman Corporation, est un chasseur sans pilote. (Crédits : Northrop Grumman Corporation)
L’interdiction des systèmes d’armes létaux autonomes, aussi appelés « robots tueurs », fait débat à l’ONU. L’Europe a la position la plus réticente, mais certains États membres sont moins radicaux. Un article de notre partenaire Euractiv.

Les Nations unies ont lancé une série de discussions sur les conséquences de l'utilisation des systèmes d'armes létaux autonomes. Droits de l'Homme, éthique et sécurité sont en effet malmenées par ces armes de plus en plus courantes dans les guerres modernes. Amandeep Singh Gill, ambassadeur de l'Inde, préside les négociations. Une tâche délicate.

La Russie clairement opposée à l'interdiction des "robots tueurs"

La Russie s'oppose clairement à une interdiction des systèmes d'armes létaux autonomes et les États-Unis entretiennent une position très ambiguë. De leur côté, les États de l'Union européenne devraient continuer à défendre leur position : ce sont des êtres humains qui doivent prendre les décisions pouvant mener à la mort.

Depuis le début des discussions, en avril, l'UE a en effet pris des mesures pratiques pour contrecarrer le développement des « robots tueurs ».

« Les humains devraient prendre les décisions liées à l'utilisation létale de la force, exercer un contrôle suffisant sur les systèmes d'armes létaux qu'ils utilisent et rester responsables des décisions qui décident de la vie ou de la mort », affirme l'UE.

En juillet, le Parlement européen a adopté une résolution appelant à une « interdiction internationale des systèmes d'armes échappant à tout contrôle humain sur le recours à la force ».

Le Royaume-Uni cultive l'ambiguïté, comme les États-Unis

Dans certains États, des initiatives autonomes voient également le jour pour prévenir le développement de ces technologies. La commission parlementaire belge dédiée à la défense a par exemple adopté une résolution encourageant le gouvernement à soutenir un accord international contre l'utilisation des systèmes d'armes létaux autonomes. En Italie, le Réseau pour le désarmement a organisé une conférence au parlement national, afin de discuter du renforcement de la législation.

D'autres pays semblent cependant aller à contre-courant. En juin, le gouvernement britannique a ainsi refusé d'envisager une révision de sa définition des systèmes d'armes létaux autonomes afin de la rapprocher des définitions internationales.

L'association des Nations unies du Royaume-Uni avait au contraire appelé le gouvernement à entraver le développement de technologies de pointe qui pourrait mener à des guerres robotiques.

La réticence de Londres à coopérer pleinement sur ce dossier se retrouve à la fois en Allemagne et en France. Les deux pays ont en effet rejeté une interdiction totale des systèmes d'armes létaux autonomes.

"L'armement avance beaucoup plus vite que les lois"

Cette semaine, des militants ont exprimé leurs inquiétudes quant aux négociations. Une campagne contre les robots tueurs a été créée pour soutenir une interdiction totale, alors qu'Amnesty international milite pour l'adoption d'une législation adaptée aux progrès technologiques.

« Les robots tueurs n'existent plus que dans la science-fiction », estime Rasha Abdul Rahim, chercheur chez Amnesty. « En revanche, les drones intelligents aux fusils autonomes, qui choisissent leur cible, ça existe. L'armement avance beaucoup plus vite que les lois. »

L'utilisation d'armes complètement autonomes a aussi été critiquée par l'organisation Human Rights Watch (HRW). Celle-ci a récemment publié un rapport indiquant que le développement, la production et l'utilisation d'armes autonomes enfreignent directement la clause Martens, un texte régulièrement cité dans le droit humanitaire international et les traités de désarmement.

Cette clause stipule que « les civils et les combattants demeurent sous la protection et l'autorité des principes du droit international découlant de la coutume établie, des principes de l'humanité et des exigences de la conscience publique ».

Une décision ambitieuse cette semaine à Genève ?

Selon les militants, la « conscience publique », qui comporte l'application de normes morales, ne peut pas être reproduite dans le processus décisionnel des machines. Par conséquent, aucune autre option que l'interdiction de ces systèmes ne devrait être envisagée.

« L'interdiction des systèmes d'armes pleinement autonomes pourrait empêcher certains scénarios véritablement dystopiques », souligne Rasha Abdul Rahim.

« Nous appelons les États présents à Genève cette semaine à agir avec l'urgence qu'exige cette question et à se doter d'un mandat ambitieux pour faire face aux nombreux risques posés par les armes autonomes. »

Suite aux discussions de cette semaine, Federica Mogherini, responsable de la politique étrangère de l'UE, fera une déclaration sur les systèmes d'armes autonomes lors de la session plénière du Parlement européen de septembre.

___

Par Samuel Stolton, Euractiv.com (traduit par Manon Flausch)

(Article publié le mercredi 29 août 2018, à 10:12, mis à jour à 11:34)

___

Retrouvez toutes les actualités et débats qui animent l'Union européenne sur Euractiv.fr

EURACTIV 2017 new logo

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 02/09/2018 à 14:49 :
Quels choix de société avons nous faits ?
A l'heure où les fonds pour maintenir les régimes de protection sociale (retraite, chômage, maladie...) sont insuffisants pour maintenir les droits, et où les restos du cœur font le plein, on se pose en hautes sphères la question de savoir s'il faut investir de l'argent dans des robots tueurs !
Ces valeurs sont elles celles de l'humanité ?
a écrit le 31/08/2018 à 9:00 :
Quand on piratera ces armes-là et on les retournera contre les civils du pays qui les a fabrquées, tout le monde tombera des nues.
Il ne faut pas oublier que la "guerre non symmetrique" constitue le dernier recours des "faibles".
a écrit le 31/08/2018 à 7:49 :
Si le mot est féminin en l' occurrence " ARME " létale cela devient au pluriel :
ARMES létales !
Salutations,
G.villiers
a écrit le 30/08/2018 à 21:14 :
Personnellement , je suis sur qu'il y aura des robots tueur , la question est de savoir quant ils serons opérationnelle ....
Ensuite ne me parler pas des lois de la robotique , dàns les ças dè machine de combats cela est incompatible ...
La question est de savoir quel sera effectivement leur intelligence et leur capacite dè décision ....
Réponse de le 30/08/2018 à 23:45 :
bah en fait y'a pas trop de pb pour la décision, il suffit soit de mettre la machine en mode "tueur toute cible vivante" (incluant les animaux), soit en mode "repérage humain, tuer si pas porteur d'un système de reconnaissance ami à l'intérieur des frontière d'un théatre de guerre"
Voyez c'est pas si dur comme algo. Le 2e algo est un peu plus dur car les algo de reconnaissance d'être humain sur image parfois plantent, mais bon comme on dit c'est la guerre. De toute façon il n'y aura pas de futur, c'est pas avec la prochaine crise économique qui va arriver, qu'on aura les moyens de les acheter.
a écrit le 30/08/2018 à 16:10 :
L'intelligence artificielle permettra d'avoir un avantage tactique sur l'ennemi et de limiter les pertes militaires. Il est impensable que les grandes puissances puissent tirer un trait dessus. Si nous envisageons de laisser cette technologie de côté alors il faut avoir en tête que les autres puissances auront moins de scrupules.
Nous ne pouvons pas nous permettre de laisser aux russes la possibilité de prendre le contrôle d'une zone en lâchant simplement une nuée de drones.
Le meilleur moyen d'éviter la guerre et de développer les moyens pour la gagner. Par contre la bien-pensance n'a jamais freiné la mal-pensance de l'ennemi.
a écrit le 30/08/2018 à 13:44 :
Vieille rengaine qui a tjrs divisé l'humanité, tuer a distance ou par l'intermédiaire d'armes qui évite le corps à corps est immoral est lâche, comme si la guerre pouvait être morale !!! Balancer ou tirer une balle, un obus ou une bombe ou un missile c'est déjà tuer par procuration.
a écrit le 30/08/2018 à 12:26 :
on en parle aujourd'hui mais les études sur ces armes sont déjà dans les tuyaux depuis les drones. Le saut entre autonome et piloté à distance est pour les ingénieurs avec les moyens de calculs d'aujourd'hui juste un moment de courte durée. Ce qui est intéressant c'est déjà après le "drone tueur" le satellite sera t il d'abord un satellite armé piloté à distance puis un satellite autonome certainement mais dans combien de temps une ou deux générations en étant pessimiste sur la joie de nos élites!!! politiques de pouvoir tuer rapidement sans jamais regarder le sang coulé. Sacré politiques toujours entrain de nous parler de misère du mieux pour demain avec en plus les faux culs qui vont prier mais toujours dans la joie de tuer et le lendemain de demander hypocritement le pardon dui ciel peu importe la religion. La moitié du XX siècle a connu un fou furieux qui avait commencé la guerre sur un mensonge puis nous avons connu un autre fou furieux qui lui aussi a déclenché la guerre sur un mensonge d'armes chimiques imaginaires puis nous avons eu sur conseil de philosophe plus puissant qu'un ministre le besoin d'aller faire joujou!!! avec des avions pour apporter au pays en question non pas du meilleur mais du pire. Oui nos politiques et leurs conseillers parfois occultes aiment jouer à la guerre comme ils le faisaient en culotte courte la différence la mort est réelle on ne se relève pas après le panpan et par manque de courage, à distance pour ne pas voir le sang couler. Oui bien triste et les atrocités qu'a connu l'humanité ne servent pas de leçons à nos politiciens plus foldingue qu'humain et respectueux de ce qui est le plus précieux la vie.
a écrit le 29/08/2018 à 19:44 :
Je me souvient à la fin de la guerre froide, ils prédisaient que la guerre en europe si elle devait éclatée ne durerait que 3 semaines avant que le pacte arrive à Paris ou que l'Otan arrive à Moscou, aujourd'hui ce serait combien ? 3 jours ?

bah sinon ça fera une techno degueu de plus, pour mémo y'a déjà les plans pour :
- le champignon américain qui bouffe toute la flore, à l'origine prévu pour la marijuana
- les agent chimique acidifiant contre les civils tj usa
- la bombe sismique
- le déréglement climatique par le déréglement magnétique
- les supers bombes nucléaires
- les IEM
- bombes nucléaires propres pour garder les villes mais sans leurs habitant
- différentes souches de bacilles d'anthrax, de souche de grippe modifiées pour frapper en masse (usa russie)
Puis je dois en oublié, y'a tellement de trucs dégueus fait, c'est un miracle que rien n'ait été jeté.
a écrit le 29/08/2018 à 18:36 :
ils etaient silencieux pour demander a interdire les egorgements de leurs amis de daesh !
a écrit le 29/08/2018 à 17:59 :
a une certaine epoque on avait voulu interdire les arbaletes (ben oui, c etait injuste de pouvoir tuer un chevalier de loin sans qu il puisse se defendre). De toute facon, en admettant que cet accord se fasse, aucune chance que des pays comme la coree du nord ou Al Quaida le suivent...


PS: pour ceux qui pensent qu un robot tueur c est forcement tres sophistique et hors de porte d une organisation low tech regardent ce que font les islamiste en Irak/syrie ou a gaza. ils utilisent deja des petits drones
Réponse de le 29/08/2018 à 19:22 :
pas la même techno, la techno low cost vient des procédés connus depuis la 2e guerre mondiale où c'était déjà appliqué.
Là ça parle de techno de drone autonome, à traitement multiple et simultanée de cibage en masse, de repérage ultra précis à longue distance.
de toute façon il n'y a pas de futur, le parc de yellowstone doit exploser un jour, l'économie chutera à hauteur de 90%, les usa et le canada n'existeront plus et il y'aura une famine mondiale.

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :