"L'IA peut menacer le contrat social" Michèle Sebag, CNRS

Manque de transparence, aggravation des préjugés, craintes pour l'emploi... Michèle Sebag, directrice du Laboratoire de recherche informatique (LRI) du CNRS, décrypte les peurs suscitées par une société de plus en plus gouvernée par les algorithmes, tout en appelant l'Europe à se lancer dans la bataille de l'intelligence artificielle.
(Crédits : Getty Images)

LA TRIBUNE - On entend souvent que l'intelligence artificielle (IA) va révolutionner tous les secteurs, ce qui engendre son lot de craintes dans la société. Qu'en est-il réellement aujourd'hui ?

MICHÈLE SEBAG - L'intelligence artificielle est déjà partout. De nombreux services utilisent des algorithmes de prédiction, de recommandation, brassent de grandes quantités de données et s'en servent pour fournir une réponse automatique à un problème. La réalité, c'est que les gens sont confrontés à l'IA tous les jours, sans forcément le savoir. Les modèles économiques des géants du Net comme Google, par exemple, accélèrent cette acculturation. Grâce à des interfaces pratiques et simples, qui cachent la complexité de la technologie qu'il y a derrière, Google a imposé des services très populaires, qui, en retour, lui offrent de grandes quantités de données pour enrichir ses algorithmes et créer de nouveaux services. De manière générale, le modèle du Web est assez vertueux pour l'innovation. En donnant accès gratuitement sur un site en ligne, par exemple, aux données sur les symptômes des maladies, celui qui peut analyser grâce à un algorithme les demandes faites sur ce site peut voir avant les autorités de santé qu'il y a une épidémie de grippe à tel endroit. C'est très utile pour la société, et on ne savait pas le faire avant.

Nous sommes donc plutôt confrontés à des IA dites « faibles », en opposition aux IA dites « générales », c'est-à-dire autonomes, capables d'apprendre par elles-mêmes et d'interagir avec leur environnement sans intervention de l'homme ?

Le concept d'IA générale me paraît un peu fumeux, en tout cas il est clair que nous n'y sommes pas encore, loin de là. Aujourd'hui, l'intelligence artificielle résout des problèmes très concrets, qui ont l'air parfois triviaux, qui ne demandent pas toujours de grandes capacités de calcul, mais qui seraient difficiles à résoudre sans elle. Une ferme au Japon, par exemple, utilise un outil de reconnaissance d'images pour trier les bons et les mauvais concombres. Comme l'algorithme a été nourri avec des milliers de photos de concombres, il sait les identifier très rapidement, alors que ce serait plus long et moins efficace à la main.

D'où les craintes concernant l'impact des intelligences artificielles sur les métiers et l'emploi, renforcées à coups d'études alarmistes...

Une part des inquiétudes du grand public sur l'IA, notamment son impact sur les métiers, est parfaitement justifiée. On commence à se rendre compte aujourd'hui, et ce n'est pas une mauvaise chose, que l'IA peut menacer le contrat social. La société réalise que protéger les données privées est indispensable dans une situation où des géants du Net, américains et chinois, dominent l'économie numérique. La crainte est de se retrouver dans une situation kafkaïenne où un système nous connaît très bien, où nous ne savons pas ce que ce système connaît au juste, et où nous ne pouvons pas argumenter ses décisions... Ce système est incarné par les Gafa bien sûr, mais pas seulement. En l'absence de réglementation, une société disposant de nos données de consommation électrique peut connaître nos habitudes de vie [comme EDF avec le compteur Linky, ndlr]. Imaginez que ces données, et celles de votre téléphone portable, soient accessibles à votre assureur : sachant comment vous dormez, comment vous conduisez, si vous faites du sport, etc., il pourrait estimer très précisément vos risques, et affiner ses tarifs au niveau individuel. À un niveau général, on aboutit à une rupture du contrat social : si mon risque est faible et que je le sais, je n'ai pas besoin d'aide, je peux donc me retirer du groupe, ce qui conduit à élever la pression sur les autres membres, qui sont donc tentés de se retirer s'ils le peuvent - et de fil en aiguille on détricote les structures d'entraide qui ont été mises en place au cours des siècles dans les sociétés avancées. En permettant de réduire l'incertain grâce à l'analyse prédictive, l'IA pourrait fragiliser les fondements de la société, renforcer les inégalités. Cette prise de conscience est importante pour une utilisation responsable de l'intelligence artificielle.

Pour avoir confiance en l'IA et la faire accepter par la société, faut-il obligatoirement savoir ouvrir sa boîte noire, c'est-à-dire déconstruire et savoir expliquer le processus de décision menant au résultat final ?

L'explicabilité des algorithmes est un champ de recherche en pleine explosion en ce moment. Il y a un vrai besoin de traçabilité de l'IA pour pouvoir lui faire confiance, l'enjeu est autant économique que juridique. De nombreux secteurs sensibles, comme la défense, l'énergie ou la finance, ont besoin de pouvoir auditer les décisions des algorithmes. Dans le cas des voitures autonomes, il faut être capable de tracer la chaîne des responsabilités pour savoir à qui faire un procès en cas d'accident. Tout ceci est crucial et d'une complexité inouïe.

Ceci dit, le manque de transparence des algorithmes n'est pas le seul facteur de crainte vis-à-vis de l'IA. Peut-être aurait-on moins peur des machines si on ne voulait pas à tout prix personnaliser la technologie. Tout est fait par exemple pour qu'Alexa, l'assistant vocal d'Amazon, soit considérée comme un être humain : elle a un prénom, une voix agréable, elle peut faire des blagues et on lui parle comme à une personne. Cela abolit les distances entre l'humain et la technologie, entraîne une confusion de l'esprit. De manière générale, j'ai l'impression que les craintes vis-à-vis de l'IA traduisent une défiance plus profonde, un sentiment de perte de contrôle global qui se manifeste non seulement vis-à-vis de la technologie, mais aussi de la politique ou de la planète. Ne mettons pas tout sur le dos de l'IA !

L'une des craintes les plus fortes en ce moment est la prise de conscience que les biais sociétaux - racisme, sexisme, discriminations liées à l'âge... - peuvent être reproduits par les intelligences artificielles qui assistent la décision. Comment lutter contre ce phénomène ?

Si on fabrique des modèles prédictifs à partir de jeux de données dans lesquels il peut y avoir des biais en fonction du sexe ou de l'origine (par exemple dans les données d'embauche), le modèle apprend à partir de ces préjugés et donc risque de les graver dans le marbre. Les modèles appris font en effet le lien entre les données et les décisions, mais ils ne disposent pas de sens critique. Ceci peut les entraîner, s'ils sont en face de données douteuses, à reproduire par exemple des biais racistes, des liens entre le milieu social et l'accès à l'emploi. C'est cette faiblesse qu'il faut changer, et c'est notamment l'objectif de l'apprentissage causal. Nous voulons juguler les biais directement dans les données, et être capables de les mettre en évidence dans les modèles existants.

L'Europe s'est engagée sur la voie d'une « IA éthique ». Faut-il interdire certains usages, comme les armes létales autonomes ?

Il est difficile de tracer un trait entre les armes létales autonomes et non autonomes. Où mettez-vous les torpilles par exemple ? De plus, il est extrêmement compliqué de légiférer sur les usages. Comment expliquer à une machine « don't be evil » [ne soyez pas malveillants, ndlr], qui était le slogan de Google ? L'intelligence artificielle est encore un animal sauvage : ses premières applications concrètes sont là, mais le cadre éthique et réglementaire reste, pour l'instant, un vaste champ de mines. Réussir à civiliser l'IA demanderait que les juristes, les politiciens et les scientifiques prennent le temps de se comprendre pour s'accorder sur ce qu'une IA peut ou ne doit pas faire. Ceci est déjà difficile, sachant que juristes, politiciens et scientifiques ne parlent pas la même langue. Il faudrait de surcroît définir des moyens de mesurer si une IA a enfreint la loi, pour pouvoir la sanctionner le cas échéant ; s'il n'y a pas de sanction possible, la loi reste lettre morte.

Pourtant, la stratégie française en IA a été impulsée par le député et mathématicien Cédric Villani...

Il y a depuis longtemps une inculture scientifique profonde dans les hauts niveaux du pouvoir. Il serait honteux de dire qu'on n'a jamais lu Balzac, mais il n'y a aucune honte à avouer qu'on ne comprend pas les maths, les statistiques ou la causalité... Cédric Villani est l'exception qui confirme la règle. Son rapport sur l'IA va dans le bon sens, ses constats sont justes. Mais dans un contexte de compétition mondiale, il faut aller très vite. Les chercheurs ont l'impression que les politiques ne comprennent pas les priorités et les pratiques des scientifiques.

En tant que chercheuse, vous ressentez la pression de la compétition mondiale ?

Oui, absolument ! Quand on voit le dynamisme et les moyens alloués en Chine, aux États-Unis, voire au Canada et en Grande-Bretagne, dans la recherche en intelligence artificielle, on a parfois l'impression en France de courir avec les bras dans le dos. À ce titre, le RGPD peut constituer un obstacle à la recherche. Attention, il est très bien de vouloir protéger les données personnelles, mais les nombreuses contraintes pour les utiliser nous ralentissent. Il faut aller vite et pour cela il nous faut plus d'argent et moins de contraintes. Par exemple, embaucher des gens compétents en IA est impossible avec la grille de salaire des fonctionnaires.

Les géants du Net, les fameux Gafam, recrutent aussi de plus en plus de chercheurs pour travailler dans leurs laboratoires privés...

C'est exact, on le constate régulièrement et c'est une vraie menace pour la recherche publique, et donc pour la souveraineté technologique de la France. Il n'est pas étonnant qu'un chargé de recherche qui gagne 2.000 euros par mois parte chez Facebook, qui lui propose dix fois plus. Récemment, deux excellents chercheurs ont rejoint Facebook Paris. Bien sûr, ils reviennent faire un peu de recherche avec nous, mais un jour par semaine, dans le meilleur des cas. Imaginez qu'on prenne 10 % des meilleurs chercheurs d'un pays, vingt ans plus tard, ce pays en paiera chèrement les conséquences. C'est ce qui nous menace. À court terme, c'est l'enseignement qui trinque, parce que les chercheurs partis dans le privé n'ont plus le temps d'enseigner.

____

Michèle Sebag, CNRS

> Pour Michèle Sebag, directrice du Laboratoire de recherche informatique (LRI) du CNRS, les inquiétudes vis-à-vis de l'IA « traduisent plus largement, un sentiment de perte de contrôle global ». [Photo: DR]

Sujets les + lus

|

Sujets les + commentés

Commentaires 3
à écrit le 01/10/2019 à 17:09
Signaler
Comment peut-on glorifier à ce point le rôle de l'intelligence artificielle, quand on a été confronté à quelques cas d'incohérence et de conclusions aussi absurde dans le cas que je décris avec ce qui suit: Au début de l'année 2019 je m'étais inscri...

à écrit le 01/10/2019 à 13:26
Signaler
Intelligence artificielle ou numérisation ? La première n'existe pas mais la seconde est bien moins vendeuse ! Un peu effrayante même...

à écrit le 01/10/2019 à 9:33
Signaler
Pourquoi, ce n'est pas déjà le cas? l a délégation que fait chacun pour refuser le stock, refuser le service client autrement que virtuel n'est t'il pas le cas, dans la banque, dans les transports, dans ce que l'on va appeler le "service publique? ...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.