L’intelligence artificielle éthique, le difficile chantier qui attend l’UE

 |  | 693 mots
Lecture 4 min.
Bruxelles recommande que les futurs systèmes d'intelligence artificielle à haut risque soient certifiés, testés et contrôlés, comme le sont les voitures, les cosmétiques et les jouets.
Bruxelles recommande que les futurs systèmes d'intelligence artificielle à haut risque soient certifiés, testés et contrôlés, comme le sont les voitures, les cosmétiques et les jouets. (Crédits : DR)
Dans un Livre blanc dédié au sujet, l'Union européenne insiste sur la nécessité de développer une intelligence artificielle éthique. Mais certains experts et acteurs du secteurs s'inquiètent déjà de cette stratégie.

L'Union européenne a mis beaucoup l'accent sur l'éthique dans son Livre blanc sur l'intelligence artificielle, une ambition louable mais dont la mise en musique ne sera pas facile, avertissent des experts.

Le Livre blanc, publié le 19 février, insiste d'abord sur l'importance du respect des droits fondamentaux des citoyens et met par exemple en garde contre des distorsions dans les algorithmes de recrutement conduisant à des discriminations.

Bruxelles recommande que les futurs systèmes d'intelligence artificielle à haut risque (concernant la santé par exemple) soient certifiés, testés et contrôlés, comme le sont les voitures, les cosmétiques et les jouets.

Mais certains experts et acteurs du secteur s'inquiètent déjà de cette emphase concernant les valeurs et l'éthique.

"On met tellement d'énergie à se mettre des cadres et à ne pas avancer", pestait la semaine dernière le patron d'une brillante startup française d'intelligence artificielle, qui a de nombreux contrats publics et préfère rester anonyme.

"L'éthique est utilisée par les pouvoirs en place", grandes entreprises ou institutions, "comme un moyen de parler d'intelligence artificielle sans en faire vraiment. C'est très dommage car pendant ce temps-là, les États-Unis, le Canada, les Chinois avancent", explique-t-il.

Lire aussi : Pourquoi la France et le Canada misent sur l'IA éthique

Au lieu de grands plans ambitieux, "on pourrait déjà faire avancer l'utilisation de l'intelligence artificielle pour la maintenance prédictive des moteurs d'avions" (utiliser l'IA pour prédire les pannes et intervenir avant), qui pose peu de problèmes d'éthique, lance-t-il.

Les valeurs, arme stratégique ?

Theodorous Evgueniou, professeur de la prestigieuse école de management Insead, a rendu avec plusieurs autres chercheurs européens et américains un avis mettant en garde contre les risques d'une approche européenne trop centrée sur ses valeurs.

"Il semble que l'esprit du Livre blanc soit que l'Europe utilise ses valeurs comme une arme stratégique pour rattraper la Chine et les États-Unis", et se rendre attractive dans la course mondiale à l'intelligence artificielle, affirme-t-il. Mais "pourquoi penser que des pays non-européens préféreront des intelligences artificielles formées aux valeurs européennes ? Je ne suis pas sûr que ça marche", explique-t-il.

Lire aussi : Données et intelligence artificielle : comment l'Europe veut rattraper son retard

Par exemple, le Livre blanc affiche "l'explicabilité" comme valeur cardinale: il doit être possible de comprendre exactement pourquoi un système d'intelligence artificielle arrive à telle conclusion - comme le fait de refuser un prêt à quelqu'un.

Mais obliger des intelligences artificielles à expliquer leur choix "peut réduire leur performance de 20%, si ce n'est plus", affirme-t-il.

De son côté, Guillaume Avrin, responsable de l'intelligence artificielle au sein du Laboratoire national de métrologie et d'essais (LNE), ne remet pas en cause les impératifs éthiques dans le Livre blanc. Mais il regrette que la Commission s'avance peu sur les moyens de vérifier la conformité des intelligences artificielles auxdites valeurs.

Candidature retoquée

"Comment fait-on pour s'assurer de la conformité des systèmes d'intelligence artificielle" à une réglementation, alors qu'ils sont souvent évolutifs et adaptatifs et ont des comportements "non linéaires", voire "chaotiques", explique-t-il.

Ainsi par exemple, "on ne sait pas encore évaluer le niveau d'explicabilité d'un système d'intelligence artificielle", souligne-t-il.

"La question n'est pas détaillée, le Livre blanc se contente juste d'évoquer des financements importants pour un centre d'essais au niveau de l'Union européenne", regrette-t-il.

Laurence Devillers, chercheuse en intelligence artificielle au CNRS, reconnaît également que la Commission reste bien discrète pour l'instant sur les modalités concrètes d'une intelligence artificielle "éthique".

Mais au vu des enjeux, il était important d'afficher haut et clair cet enjeu des valeurs, estime la chercheuse, qui vient de publier "Les robots émotionnels: santé, surveillance, sexualité... et l'éthique dans tout ça?", aux éditions de l'Observatoire.

"Oui, l'enjeu est bien d'être créatif et de construire une économie positive et éthique. L'Europe a les ressources pour cela", indique-t-elle. "Que diront tous ceux qui protestent aujourd'hui, quand leur enfant leur expliquera demain que sa candidature à un emploi a été retoquée" par une machine intelligente, demande-t-elle.

Réagir

Votre email ne sera pas affiché publiquement
Tous les champs sont obligatoires

Commentaires
a écrit le 04/03/2020 à 13:57 :
"Bruxelles recommande que les futurs systèmes d'intelligence artificielle à haut risque (concernant la santé par exemple) soient certifiés, testés et contrôlés, comme le sont les voitures, les cosmétiques et les jouets" : mdr !! Déjà ,si les smartphones, tablettes & autres objets connectés devaient passer le même type de tests que les médicaments au niveau sécurité, ... on aurait de drôles de mauvaises surprises, alors l'I.A. ...
a écrit le 03/03/2020 à 10:58 :
"quand leur enfant leur expliquera demain que sa candidature à un emploi a été retoquée" par une machine intelligente" chinoise ou américaine ?
Machine intelligente, ça laisse rêveur (comme Linky, ah ah ah), oui, pour une fonction, détecter les mélanomes aussi bien voire mieux qu'un dermatologue (suite à l'apprentissage sur quantité de cas où le diagnostic a été fourni, par les humains). L'IA qui joue au Go est nulle aux dames ou à la bataille, elle ne "sait" même pas ce que c'est.
Éthique ça rassure, même si ça entrave, une entrave éthique ça apaise les décideurs.
L'intelligence humaine est éthique ? Et toc. :-)
Une IA éthique dans un véhicule autonome devra pourtant choisir qui sacrifier si des piétons traversent soudainement trop près et qu'un véhicule arrive en face : percuter le véhicule en face avec les passagers ou les piétons ?? Il faut compter leur nombre, age, etc pour choisir.
a écrit le 03/03/2020 à 10:35 :
Et comme toujours, moins on a d'intelligence plus elle est artificielle, mais que voulez? C'est le dogme de l'innovation a tout prix même si elle est inutile a notre progrès, on saura bien vous en rendre dépendant!
On ne va quand même pas abandonner une machine bien huilé de "politique de l'offre" et de sa publicité indispensable!
a écrit le 03/03/2020 à 9:34 :
Cela dépend de celui qui fait la programmation, l'étique !

L'UE serait donc étique?! première nouvelle !

Des gens nommés, disons que si l'on regarde bien, la question est intéressante dans le sens de ce qui se déroule actuellement eu Europe, les intérêts que le continent défend, et surtout au fait de l'ultra lbéralisme pratiqué sur le continent, franchement parler d'étique me laisse quand même pantois !
a écrit le 03/03/2020 à 9:29 :
Pas facile à inventer une intelligence artificielle qui scande le dumping fiscal et social comme modèle économique en effet, à coup sûr cela sera artificiel certes mais pas intelligent exactement comme notre UE.

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.

 a le à :