La Commission européenne promet 1,5 milliard d’ici 2021 pour l’intelligence artificielle

Par Catherine Stupp, Euractiv  |   |  992  mots
Andrus Ansip, commissaire européen au numérique, qui compare l'IA à la machine à vapeur ou à l'électricité, explique pourquoi un code éthique est indispensable pour les investisseurs : « Sans [ce code éthique], on pourrait investir de grosses sommes dans l'intelligence artificielle et s'entendre dire après 'Vous avez créé un Frankenstein'. » (Crédits : Reuters)
La Commission européenne compte investir 1,5 milliard d’euros dans l’intelligence artificielle d’ici 2021. Pas trop tôt, estiment les observateurs : la Chine et les États-Unis ont mis en place des stratégies à ce sujet il y a plusieurs années. Un article de notre partenaire Euractiv.

Les nouvelles promesses de l'exécutif marquent une progression de l'investissement européen dans l'intelligence artificielle (IA). Cette technologie émergente est utilisée dans la robotique et dans des services comme les outils de prédiction climatique ou de suivi médical qui analysent de grands volumes de données.

Outre le 1,5 milliard d'euros promis d'ici fin 2020, la Commission compte sur un investissement total de 20 milliards de la part des États et entreprises. À partir de 2021, les investissements devraient s'élever à 20 milliards par an.

Ce plan de financement représente un vrai changement : soit une augmentation de 70% des investissements actuels dans le secteur. Certains observateurs regrettent cependant que la Commission ait tant attendu. Les gouvernements américain et chinois ont pour leur part commencé à injecter de l'argent dans l'IA il y a deux ans. Dans ces deux pays, les investissements privés sont également bien plus importants qu'en Europe.

La responsabilité et la transparence des algorithmes en question

« J'espère que la Commission va accélérer, mais elle est en retard. Ils auraient pu faire ça il y a deux ans », estime Mady Delvaux, eurodéputée luxembourgeoise de centre gauche et auteure d'un rapport sur la robotique.

Ce texte appelait à une réponse européenne aux questions liées à la responsabilité civile des robots et véhicules autonomes.

D'ici la fin de l'année, la Commission projette de publier des orientations sur la responsabilité, la transparence des algorithmes et autres questions éthiques liées à l'intelligence artificielle. Le document sera rédigé par un groupe d'experts qui commencera ses travaux en juillet.

La stratégie insiste sur une approche plaçant l'humain au centre de l'IA et identifie l'éthique comme la valeur ajoutée européenne, qui permettra aux entreprises de se démarquer sur le marché face aux géants américains et asiatiques.

Éviter les accusations du type "Vous avez créé un Frankestein"

« Pour les investisseurs, ce code éthique est nécessaire. Sans lui, on pourrait investir de grosses sommes dans l'intelligence artificielle et s'entendre dire après 'Vous avez créé un Frankenstein' », assure le commissaire au numérique, Andrus Ansip, qui compare l'IA à la machine à vapeur ou à l'électricité.

Grâce aux orientations, et aux éventuelles mesures législatives qui pourraient suivre, les entreprises européennes pourront vendre leurs produits, qu'ils s'agissent de systèmes de divertissement connectés, de voitures autonomes ou d'outils hospitaliers, en garantissant leur sûreté, estime l'exécutif.

Le mandat de la Commission actuelle se termine l'an prochain et il reviendra donc au prochain exécutif de décider d'imposer des règles contraignantes ou non au secteur. Mady Delvaux prévient cependant que sans calendrier clair de la part de la Commission, les États membres pourraient se mettre à élaborer leurs propres législations.

Pour elle, l'UE devrait donc proposer des règles applicables à tous les États sans attendre, afin de « confirmer l'approche européenne au marché unique ».

Les avancées solos de certains pays lui donnent raison. Emmanuel Macron a ainsi indiqué vouloir consentir 1,5 milliard d'euros dans le secteur d'ici 2021. Dans son accord de coalition, le gouvernement allemand prévoit aussi la mise en place d'un centre de recherche et d'une collaboration avec la France sur l'IA.

Tant qu'il ne s'agit pas de légiférer, la Commission veut encourager les capitales à penser à ce type d'actions nationales.

24 sur 27 Etats-membres ont déclaré vouloir investir dans l'IA

À ce jour, la plupart des pays de l'UE ont montré leur intérêt pour la promotion de cette technologie. Au début du mois, 24 États membres, soit tous sauf Chypre, la Croatie, la Grèce et la Roumanie, ont signé une déclaration indiquant qu'ils envisagent d'investir de l'argent dans l'IA.

Même si aucune législation contraignante n'est actuellement à l'étude, les entreprises, législateurs et groupes de consommateurs estiment que la stratégie présentée par la Commission est une toute première étape vers un traitement paneuropéen de cette technologie.

« Cette Commission va bientôt devoir partir. Pour la prochaine Commission, c'est un signe qui montre la direction que doit prendre l'Europe », assure Georgios Petropoulos, du think tank Bruegel.

Pour lui, il devrait y avoir une législation européenne sur l'application des règles sur la protection des données, entre autres, sur l'IA.

IA, sécurité et de responsabilité : "Les règles ne sont pas assez claires"

Les critiques formulées à l'égard de la stratégie européenne reflètent tout l'éventail d'industries qui pourraient être chamboulées par l'IA. Cette technologie est en effet déjà utilisée pour créer des produits, analyser les données gouvernementales et, particulièrement aux États-Unis et en Chine, fabriquer des armes.

Marietje Schaake, eurodéputée libérale néerlandaise, estime que la stratégie ne détaille pas assez la manière dont les politiques de défense et de concurrence s'appliqueront à l'IA :

« Pour rattraper les États-Unis et la Chine dans ce secteur en mutation constante, il faut absolument mettre en place une approche européenne forte. »

L'organisation de protection des consommateurs BEUC espère pour sa part que la Commission propose une nouvelle législation pour clarifier la responsabilité dans le cas de robots ou machines défectueuses. Pour Monique Goyens, directrice de l'organisation, les entreprises qui créent des produits grâce à l'intelligence artificielle « doivent être responsables quand une voiture autonome ou un robot ménager cause un accident.

« Les règles actuelles en termes de sécurité, de sûreté et de responsabilité ne suffisent pas et ne sont pas assez claires », assure-t-elle.

Cela ne sera cependant pas pour tout de suite. La Commission a indiqué vouloir publier des informations sur l'application des règles de responsabilité actuelles aux nouvelles technologies vers mi-2019.

___

Par Catherine Stupp, Euractiv.com (traduit par Manon Flausch)

(Article publié le vendredi 26 avril 2018)

___

Retrouvez toutes les actualités et débats qui animent l'Union européenne sur Euractiv.fr