La guerre du futur est déjà sur les champs de bataille

 |   |  1182  mots
Sur un champ de bataille, les robots peuvent parfaitement s'inscrire dans la doctrine des 3D (dirty, dull and dangerous, soit en français : pénible, sale et dangereux).
Sur un champ de bataille, les robots peuvent parfaitement s'inscrire dans la doctrine des 3D ("dirty, dull and dangerous", soit en français : pénible, sale et dangereux). (Crédits : Reuters)
L'intelligence artificielle est déjà omniprésente sur les théâtres d'opération. Conjuguée à la robotique, elle peut engendrer les fameux robots tueurs. Comment faire en sorte que la responsabilité humaine demeure la règle ?

Qui n'a jamais vu un des films de la célèbre saga Terminator des années 1980, où le système "intelligent" Skynet déclenche l'apocalypse nucléaire ? Bienvenue dans la réalité, car l'humanité y est ou presque. Technologiquement, la première génération de robots tueurs, appelés Sala (Systèmes d'armes létaux autonomes), est testée en secret dans certaines armées... et est même parfois déjà en service. Ainsi, la Corée du Sud "emploie" depuis maintenant trois ans plusieurs robots tueurs (SGR-A1), bardés de capteurs, le long de la zone démilitarisée qui la sépare de la Corée du Nord. Développés par Samsung, ces engins prennent seuls la décision d'enclencher leurs armes pour protéger la frontière sud-coréenne.

Pour autant, sauf rupture technologique majeure, les armes totalement autonomes ne devraient pas voir le jour avant 20 à 30 ans, estime pour sa part le Secrétariat général de la défense et de la sécurité nationale (SGDSN) dans son ouvrage "Chocs futurs". Les États-Unis, qui consacrent environ 5 milliards de dollars chaque année à des systèmes de drones dans leur budget de la défense, en sont pourtant proches. Actuellement, des drones volant en essaim sont à l'essai avec des perspectives opérationnelles prometteuses. Ainsi, en octobre 2016, trois chasseurs F-18 ont largué à grande vitesse 103 mini-drones, qui ont ensuite évolué en essaim, mettant en oeuvre un processus de décision collective ayant conduit à des adaptations de la formation en vol. En 2025, l'objectif affiché par les militaires russes est d'employer plus de 30% de systèmes d'armes autonomes et semi-autonomes.

Davantage d'autonomie pour les systèmes défensifs

Si la Corée du Sud a officiellement franchi le mur sans états d'âme, les autres nations se font plus discrètes. Mais tous les pays producteurs d'armement (États-Unis, Russie, Chine, France, Grande-Bretagne, Israël...) proposent aujourd'hui des systèmes d'armes, y compris létaux, intégrant des robots ou des systèmes autonomes (suivi de terrain automatique pour avions de combat, systèmes de défense antiaérienne et anti-missile, missiles de croisière ou « rôdeurs », torpilles, systèmes d'autodéfense de plateformes de combat, mines marines).

La ministre des Armées, Florence Parly, a confirmé dans une interview accordée à La Tribune (13 avril) que l'intelligence artificielle est déjà sur les champs de bataille. D'une façon générale, les systèmes défensifs sont dotés d'une plus large autonomie que les systèmes offensifs, pour lesquels l'ouverture du feu reste soumise à l'autorisation d'un opérateur (drone de reconnaissance armé, drone de combat...).

Prise de conscience mondiale

Jusqu'où l'homme ira-t-il en conjuguant robotique et intelligence artificielle ? Les robots tueurs inquiètent de plus en plus dans le monde. À juste titre. Dans un tweet, le milliardaire Elon Musk, propriétaire de SpaceX et de Tesla, a forcé le trait il y quelques mois :

"Selon moi, la concurrence internationale pour la supériorité en matière d'intelligence artificielle sera presque certainement la cause d'une troisième guerre mondiale".

Sur le plan économique, le marché de la robotique militaire était évalué à 3,2 milliards de dollars par an en 2014, il devrait atteindre 10,2 milliards de dollars par an en 2021, selon une étude de WinterGreen Research.

Les inquiétudes ont provoqué une prise de conscience mondiale. Les Sala respecteront-ils à l'avenir le droit international humanitaire et le droit de la guerre ? Sous l'impulsion de la France, l'ONU organise une rencontre annuelle sur les Sala. Ainsi, pendant une semaine, les représentants de plus de 70 États et de la société civile ont discuté début avril, aux Nations unies, à Genève, de la composante humaine dans le cadre de l'utilisation des robots tueurs, des aspects de l'interaction homme-machine, mais aussi du développement, du déploiement et de l'emploi de technologies émergentes, dans le domaine des Sala. Mais la perspective d'un traité régissant les armes autonomes semble encore lointaine. Pourquoi un État fait-il de la recherche dans un domaine comme la défense ? Il le fait à des fins de souveraineté : pour s'assurer une supériorité technologique, donc opérationnelle, et être capable de répondre à une évolution des menaces.

L'homme toujours dans la boucle

En France, travaille-t-on sur des robots tueurs ? Officiellement, non. "J'y suis catégoriquement opposé, a d'ailleurs récemment expliqué Emmanuel Macron lors de la présentation de son plan sur l'intelligence artificielle. Car je pense qu'il faut toujours une responsabilité et une reconnaissance de responsabilité". Et Florence Parly de préciser :

"Ce n'est pas l'intelligence artificielle qui va appuyer sur le bouton pour enclencher un tir. Il est vraiment essentiel de le rappeler. Nous ne sommes pas en train de fabriquer des robots tueurs, mais nous sommes en train d'essayer de tirer le meilleur parti de données qui seront de plus en plus nombreuses et dont nous savons que l'intelligence humaine ne pourra pas, à elle seule, en tirer tout le sens".

La robotique n'est plus une fiction, elle sera de plus en plus incontournable sur un théâtre d'opérations, qu'il soit terrestre, aérien, naval et sous-marin, surtout face à des menaces de missiles hypervéloces. Car, comme on le rappelle à la direction générale de l'armement (DGA), "les robots ouvrent un champ des possibles bien supérieur à ce que l'homme sait faire aujourd'hui". Ils peuvent donc parfaitement s'inscrire dans la doctrine des 3D ("dirty, dull and dangerous", soit en français : pénible, sale et dangereux). Pour l'heure, la DGA travaille sur la maîtrise des interactions homme-machine. "On voudra toujours garder l'homme dans la boucle, avait d'ailleurs expliqué en 2016 lors du Paris Air Forum la directrice de la stratégie de la DGA, Caroline Laurent. On ne va pas complètement s'en défaire. Mais quel sera l'équilibre ? Où sera l'homme ? Le garde-t-on juste pour la supervision ou doit-il être au plus près du théâtre ?" En tout cas, le monde de la défense a un besoin de mieux maîtriser ces domaines, qui viennent plutôt du civil.

Faut-il aller plus loin ? "Il existe aujourd'hui un débat qui est légitime : est-ce qu'on peut mettre sur le terrain des systèmes qui vont continuer leur apprentissage dans l'environnement opérationnel ?" s'est interrogée Florence Parly.

"Il y a de nombreux avantages à étudier au moins cette piste-là sur des fonctions qui ne mettent pas en jeu la chaîne de mission et encore moins la chaîne de feu, poursuit-elle. Par exemple, dans le domaine de la maintenance prédictive, ces systèmes peuvent se nourrir de l'environnement qui entoure nos appareils en mission".

En outre, à l'horizon de 2030, des programmes d'essais d'interfaces cerveau-machine seront également étudiés en France, estime le SGDSN. "Les utilisations au sein de nos forces armées en dehors de ces essais resteront limitées soit à un usage thérapeutique, soit à un emploi par une population militaire restreinte, sur de courtes durées, de dispositifs non invasifs augmentant les capacités sensorielles", précise le SGDSN. La guerre du futur est déjà bien là.

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 25/04/2018 à 17:34 :
Comme si c'était un débat ! Si une armée ou un groupe dispose d'un robot militaire autonome plus efficace qu'une machine commandée par un humain, vous croyez que les autres vont attendre de perdre ?
Et dans les guerres gamifiées que sont les échecs ou le go, qui gagne ?
Réponse de le 25/04/2018 à 20:52 :
Exactement, d'un point de vue militaire le débat est vite réglé.
D'un point de vue moral, pas de mort chez soi, plein de morts chez les autres, c'est la définition même d'une guerre réussie.
La guerre c'est moche, il y a des morts , des maisons détruites, des familles déchirées, sinon ce n'est pas une guerre, après si il y en a qui pensent qu'il faudrait des guerres équitables, durables et écolo-responsables avec des armes biodégradables, c'est qu'ils n'ont pas tout à fait compris le concept.
Réponse de le 26/04/2018 à 14:45 :
Les humains peuvent être au- dessus de toutes les guerres et toutes les violences.

La guerre est un «  choix humain » ce n’est pas une catastrophe incontrôlable de la nature.
a écrit le 25/04/2018 à 7:57 :
Ouai on parle de tout sa mais y a aussi les hackeur ! Les robot ces comme un ordi op il peuvent le hacker et en faire se qu il veulent sa ausssi ces suppeert dangeureux !!!!!
Réponse de le 26/04/2018 à 2:55 :
Ouais, on parle de tout ÇA mais... Les robots C’EST comme un... @#$*... ils peuvent le ?! et en faire CE qu’ILS veulent ÇA AUSSI C’EST SUPER......

Cours d’alphabétisation pour ceux qui n’ont pas passé le Brevet !
a écrit le 24/04/2018 à 13:17 :
Je suis surpris que le noyau dur de l'UPR et les disciples populistes du Frexit ne se soient pas encore manifestés sur le sujet. Pourtant, je verrais d'un très bon œil que les nouveaux robots tueurs puissent les utiliser à l'entraînement pour parfaire le logiciel. :-)
Réponse de le 25/04/2018 à 19:09 :
Commentaire d'un individu certainement atteint d'un trouble du trollisme compulsif.
Réponse de le 25/04/2018 à 21:14 :
Non, mais on sait qui vous êtes maintenant ! :-)
a écrit le 24/04/2018 à 12:01 :
Vu le laxisme international envers les génocidaires de leur peuple, les massacreurs de civils, on peut se demander si un "bot militaire" ne serait pas plus intelligent ?
Réponse de le 24/04/2018 à 13:21 :
Les civils sont partout des «  pions »
dans le monde entier.
Je ne pense pas que 2027 soit la fin.
a écrit le 24/04/2018 à 11:23 :
maintenance prédictive : oui, parlons en, un jour peut etre, deux pannes moteur sur le F22 non détectées par l'IA, a marche pas... encore...
On arrive pas à tirer des missiles anciens, on est pas rendu...

Les armes et le matériel de guerre c'est la quintessence du libéralisme, de la concurrence, une extension de la loi de la jungle issue des lumières. Ce sont les lois de la nature qui se propagent à travers nous.
Le but c'est de gagner des situations tactiques, si l'humain dans la boucle ralenti la prise de décision, l'efficacité c'est simple il perd ! Et comme on ne planifie pas la défaite, il n'y aura pas d'humain dans la boucle si on sait s'en passer... d'autres questions ?
Réponse de le 24/04/2018 à 12:01 :
Sans défaite peut on apprécier le fait de «  vaincre » ?
Vaincre et perdre ça fait partie du processus d’évolution humaine dans la dynamique
d interaction continuelle.
L’humain ne veut pas tuer , le temps de décision est longue alors on laisse décider les machines... oui c’est pratique surtout au niveau de la responsabilité... surtout il n’y a pas de séquelles post- traumatique chez les robots...
Quand on fait la guerre : «  c’est une intention, une décision pour tout ce qui va suivre « 

Comment les hommes peuvent apporter la paix sur terre sans faire des guerres ?
Réponse de le 24/04/2018 à 13:34 :
Vous n'êtes pas à un paradoxe prêt, vous aimez la guerre ? certains aiment la finir le plus vite possible avec une issue favorable, ce qui inclus les dégâts collatéraux, défavorables à l'image du vainqueur donc leur minimisation. La guerre n'est plus une aventure une épopée mais un problème industriel à résoudre.

Le complexe militaro industriel US, celui qui dictera les évolutions avec la chine trouve la problématique de l'intervention de robots tueurs en milieu urbain très "high end" malgré le caractère asymétrique donc stimulant pour la création d'offsets technologiques.
Des robots moutons cibles mobiles à faible cout (cheap chip sheep) pour débusquer des barbus c'est marrant non ? Accompagnés de robots tireurs d'élite en coopération.
a écrit le 24/04/2018 à 8:28 :
Il vaut mieux envoyer des robots à la casse que des humains à la morgue. Tout ces politiciens que cela gène pas ne se demande pas si les parents des soldats ne sont pas peinés de savoir leurs enfants sur des conflits hein, typique d'une caste qui n'a jamais envoyé ses enfants au combat en envoyant toujours ceux des autres.

Les "robots tueurs" je suis pour.
Réponse de le 24/04/2018 à 9:45 :
Reste une question: celle du sens. Le robot peut ou pourra apporter le feu, mais le feu seul ne gagne pas les guerres. Quel sens donner à l'action d'une machine et à celle d'hommes qui ne vivent pas le danger, ne portent pas sur eux les signes de la lutte.
Ça ne changera rien à votre point de vue, mais bon, il va falloir énormément de violence pour gagner ce type de guerre là. La violence sera supportée par les civils et par les militaires ennemis, mais brisera-t-elle leur volonté? Pour affaiblir ou briser la volonté, il faut bien plus que de la violence, il faut de la détermination et des hommes qui la montrent et la portent. Les robots ne démontrent rien d'autre qu'une violence sans aucun sens.
Pourquoi les américains qui sont très puissants militairement ne gagnent pas en Afghanistan et ont perdu en Irak? Pourquoi les Iraniens gagnent en Syrie ou en Irak? Est-ce seulement pour des raisons logistiques ou parce qu'ils déploient plus de troupes au sol.
Je ne sais pas trop ce que l'on cherche à faire avec ces robots. Et que se passera-t-il lorsque les robots seront confrontés à d'autres robots? La guerre se résumera à des pertes civils sur le champ de bataille tandis que les stratèges des 2 bords compteront le nombre de machine qu'ils ont perdu et les plans de production? Étrange conception de la guerre.
Une violence qui n'est ni incarnée ni portée n'a pas de sens. Dans ce cas, mieux vaut faire une guerre des chefs ou des matchs de sport collectifs pour réduire les tensions. Sinon, je reste persuadé que ce qui fait gagner les guerres, c'est la combinaison de la force appliquée de manière légitime et le nombre de troupes déployées au sol qui sont en contact et interagissent avec les populations enjeux du conflit.
Réponse de le 24/04/2018 à 11:23 :
@ citoyen blasé

«  Il vaut mieux envoyer des robots à la casse que des humains à la morgue »

La casse pour un robot : c’est du matériel

La mort pour un humain : il y a plusieurs sortes de mort : origine naturelle ( horloge interne)origine criminelle ( des tiers)origine accidentelle ( des tiers ou l’horloge interne)origine volontaire ( horloge interne)origine involontaire ( horloge interne), et... origine robotique ( des tiers)

Non je suis contre les «  robots tueurs » pour les raisons citées au- dessus.
Aucune raison valable pour tuer ou pour la violence.en réalité avec du travail sur nous mêmes les humains sont au- dessus de la violence de toute intensité.
Cependant je suis d’accord avec vous sur le fait que le service militaire doit être pour tous pas d’exception de caste ou autre .
Les élites doivent aussi aller à l’armée et pas dans les bureaux, sur le terrain comme tout le monde.
Réponse de le 24/04/2018 à 15:59 :
@ math

je suis bien d'accord avec vos objections mais elle sont liées à la guerre et à l'horreur que celle-ci génère de quelques façons que ce soit, or là la question, à mon avis, est de savoir si à terme nous envoyons des humains au combat ou des robots, une guerre de robots me va bien mieux.

@ citoyen ordinaire "Non je suis contre les « robots tueurs » pour les raisons citées au- dessus."

Oui sauf que je ne les comprends pas du tout, je ne vois pas ce que la sélection des différentes façons de mourir a à voir là dedans.

"Cependant je suis d’accord avec vous sur le fait que le service militaire doit être pour tous pas d’exception de caste ou autre ."

ET ça vous l'avez lu où !? :D
Réponse de le 24/04/2018 à 17:00 :
JE vous ai répondu mais vous n'avez quand même pas fait sucrer ma réponse hein ?

Le monde à l'envers... -_-
Réponse de le 24/04/2018 à 20:51 :
@citoyen blasé

Il est plus facile de faire le «  deuil » suite à une mort d’origine naturelle, que les autres origines citées.

Nous sommes personnes pour décider de tuer ou pas

C’est vrai que l’idéal est la suppression des guerres et de toutes les violences.

Les robots au lieu de les armer , pourquoi ne pas les charger «  de piqûre «  anesthésiante , sans tuer, mais juste «  neutraliser «  la violence ?

C’est moins grave que «  tuer »

Après j’ai mal lu votre dernière phrase , mais j’ai compris que les Élites ne peuvent pas comprendre la peine des parents qui perdent leur enfants aux combats car eux ils envoient les enfants des autres et pas leurs enfants
D’où ma phrase , la dernière : cette situation n’est pas juste , les Élites aussi doivent envoyer leur enfant cependant je suis vraiment opposé à toutes les guerres
Les humains peuvent être au- dessus de toutes ces horreurs.
Réponse de le 25/04/2018 à 19:49 :
"cette situation n’est pas juste , les Élites aussi doivent envoyer leur enfant"

Ce n'était pas le sens de mon commentaire puisque c'est plutôt l'inverse que je préconise, que les fils de riches et de pauvres restent en sécurité et n'aillent pas se faire tuer. Aucun d'entre eux, personne.

Donc oui à la guerre de robots.
a écrit le 24/04/2018 à 8:01 :
La robotique est déjà bien présente dans la vie des humains, elle sera probablement étendue avec l’évolution de la technologie des drones , combiner l’évolution des drones et des robots , pourront donner naissance à des robots pour la vie quotidienne des humains ( sécurité, assistance...)
La question : faut il les armer ou pas ?
Le problème des «  armes » est déjà un débat pour les humains eux-mêmes.
La cause de la futur guerre mondiale serait probablement technologique d’une part , car certains abuseront toujours des limites du supportable pour les humains et d’autre part la destruction naturelle de l’environnement ( la nature)
Les conflits d’eau et de ressources naturelles et énergétiques
L’aventure et les recherches dans l’espace aussi seront des enjeux.
En soit l’IA ce n’est pas mauvais si l’humain l’utilise pour calculer le confort de vie des humains sur terre ( et non pour contrôler ou surveiller) ajuster les paramètres par rapport à la démographie humaine , trouver des solutions efficaces économiques et sociales .
Avancer dans la technologie tout en restant profondément humains , ceci est peut être le challenge ?

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :