Intelligence artificielle, la mauvaise réputation ?

Source de craintes pour une majorité de la population, l’intelligence artificielle fait pourtant partie de notre quotidien. Et peu s’en plaignent. Au contraire, car elle facilite grandement nos vies de tous les jours. Alors, comment expliquer qu’elle soit capable de susciter les pires fantasmes ? Comme si l’IA avait le pouvoir de penser et d’agir à sa guise. La méconnaissance de cette nouvelle technologie en est sans doute l’une des causes principales. Son encadrement aussi. Décryptage. (Cet article est issu de T La Revue de La Tribune - N°7 Décembre 2021)

11 mn

(Crédits : Istock)

Elle a fait ses premiers pas dans les années 1950. Et aujourd'hui, que l'on s'en rende compte ou non, l'intelligence artificielle (IA) fait partie de notre vie de tous les jours. Elle s'appuie sur des programmes informatiques complexes, fondés sur des technologies telles que l'apprentissage automatique (machine learning), à base d'algorithmes et de modèles statistiques et l'apprentissage profond (deep learning), une méthode, très utilisée actuellement, qui vise à modéliser des données avec un haut niveau d'abstraction. Parmi les champs d'application, le traitement du langage naturel, le traitement d'images mais aussi le raisonnement et la décision. Autant d'outils capables de simuler des traits de l'intelligence humaine et d'effectuer des tâches qui requièrent normalement cette intelligence. Ces technologies se retrouvent aussi bien dans les applis utilisées pour trouver son chemin ou éviter les embouteillages, les logiciels de recherche d'informations ou de correction d'orthographe et de grammaire, les chatbots qui répondent à des questions dans un service après-vente, les appareils qui obéissent au son de la voix, reconnaissent votre visage ou vos empreintes pour vous laisser entrer quelque part, les outils qui aident les médecins à détecter des maladies... Finalement, l'IA changerait-elle nos vies ?

L'IA sert à optimiser avant tout

En fait, elle « nous facilite la vie, répond Raja Chatila, professeur émérite à Sorbonne-Université. Dès que nous utilisons Internet, il y a de l'IA derrière, qui permet, dans nos recherches, par exemple, de trouver des réponses instantanées et personnalisées ». En d'autres termes, l'IA sert à optimiser. C'est vrai dans la vie de tous les jours comme au travail, pour les comptables qui peuvent réconcilier plus facilement des données et les analyser ou les spécialistes en ressources humaines, qui sélectionnent plus rapidement des CV... Les pilotes d'avion, qui établissaient déjà leur route en fonction d'informations tel qu'un orage imminent sur l'Atlantique, pourraient « mouliner » des données beaucoup plus nombreuses et plus fines qu'un simple bulletin météo, afin de déterminer la meilleure trajectoire possible, la plus sûre ou la moins gourmande en kérosène.
L'IA optimise mais elle peut également prédire. Les coronavirus détectés chez les animaux qui sont le plus susceptibles d'être transmis aux humains, par exemple, ou l'évolution du niveau d'une crue dans des zones rapidement inondables. Alors que la pandémie de Covid-19 a traumatisé les citoyens et que les évènements extrêmes risquent d'être plus fréquents avec le dérèglement climatique, ces solutions sont autant d'atouts pour préserver les populations. De même, en médecine, un secteur qui pâtit d'un manque de moyens humains et matériels, l'IA permet aux professionnels de disposer d'immenses bases de données qui établissent des corrélations entre le bagage génétique, le mode de vie d'un patient et certaines maladies. L'IA aide aussi radiologues et médecins à analyser des clichés, pour débusquer des cellules cancéreuses, par exemple, qui ne se voient pas à l'œil nu, leur offrant la possibilité d'établir un diagnostic plus rapide et plus sûr. Et l'IA est également utilisée pour développer de nouveaux médicaments, en croisant des données concernant des milliers de substances actives afin de déterminer le meilleur assemblage possible pour qu'un produit soit efficace. C'est vrai pour les cancers, de plus en plus nombreux, mais aussi, notamment, pour les antibiotiques, dont la surconsommation actuelle entraîne une dangereuse résistance aux bactéries, pour les humains comme pour les animaux. Enfin, comme dans le tertiaire, dans l'industrie, les robots à base d'IA permettent d'éviter aux humains de porter des charges lourdes et les délivrent de tâches pénibles ou répétitives. « De quoi permettre aux salariés de se concentrer sur des activités qui exigent de l'intelligence humaine », souligne Sébastien Konieczny, chercheur au Centre de recherche en informatique de Lens. De quoi, aussi, donner la possibilité à des seniors de se maintenir en poste...

Mais si les avancées ont été nombreuses ces dernières années, « nous ne sommes pas encore capables de reproduire l'agilité de la main humaine pour certains travaux », précise Raja Chatila. De fait, les robots, pas plus que l'IA, ne peuvent pas et ne savent pas - ou pas encore - tout faire... « Souvenez-vous, certains avaient prédit l'arrivée de la voiture autonome sur nos routes dès 2020, ajoute Sébastien Konieczny, et nous l'attendons encore ! »...

Malgré certains cas d'optimisation discutables, comme les recommandations basées sur votre historique d'achat ou celui d'autres consommateurs, « offertes » par les sites de vente en ligne, ou des biais non intentionnels, du fait que les machines apprennent avec certaines données qui peuvent être elles-mêmes biaisées, les experts, qui restent évidemment vigilants quant aux impacts, considèrent que, dans la majorité des cas, l'IA est un avantage pour les humains, en particulier lorsqu'ils sont maîtres de la décision finale. C'est donc vers une coopération toujours plus grande entre humains, IA et robots, plutôt qu'un remplacement pur et simple des humains par des machines ou des programmes informatiques, que nous nous dirigeons. Reste donc à apprivoiser ces outils et à établir un code relationnel... Mais se pose une autre question : comment gérer l'IA ?


Comprendre et gérer l'IA dès le plus jeune âge

Gérer l'intelligence artificielle passe d'abord, « par la formation des élèves à l'IA, dès le plus jeune âge, de même qu'au cours de la formation continue », déclare Jérôme Lang, directeur de recherche au CNRS et au Laboratoire d'analyse et modélisation des systèmes pour l'aide à la décision (LAMSADE-CNRS, Université Paris Sciences & Lettres et Université Paris-Dauphine). Sans oublier de dédramatiser. Après tout, la vie quotidienne et le travail n'ont cessé d'évoluer, et ce, bien avant l'arrivée de l'IA ! En outre, poursuit-il, « en abolissant les tâches pénibles et répétitives, l'automatisation et l'IA vont non seulement créer de nouveaux postes, d'ingénieurs ou de codeurs, mais en plus, libérer de la main d'œuvre pour d'autres tâches, en particulier dans des secteurs - aide à la personne, notamment - où les pénuries sont criantes. » Ces transferts nécessitent évidemment des passerelles de reconversion et des formations professionnelles.

Par ailleurs, au-delà d'une politique en ce sens, adoptée par les pouvoirs publics, les experts misent, pour renforcer la confiance des citoyens, sur « l'explicabilité ». Autrement dit, si des machines répliquent, voire renforcent certains biais contenus dans les données sur lesquelles elles s'appuient, il faut pouvoir l'expliquer, puis faire évoluer les méthodes d'apprentissage. Mais « il faut d'abord en être conscients pour ensuite pouvoir corriger le tir », insiste Jérôme Lang. Il fait allusion à des cas de discrimination, par exemple. Ainsi, l'analyse de certains algorithmes utilisés par des juges américains pour prédire l'occurrence de récidive - et décider ainsi d'une éventuelle liberté conditionnelle pour certains détenus - a montré que ces outils pénalisaient les Noirs. De même, dans d'autres systèmes, dont se servent par exemple les banquiers pour accorder un prêt, un biais homme-femme pourrait être observé si, à données pertinentes égales, et évidemment, le salaire est une donnée pertinente, une décision favorable était plus souvent accordée à un homme qu'à une femme. « Mais si les hommes ont des revenus moyens supérieurs à ceux des femmes, c'est évidemment un problème, mais qui n'a rien à voir avec l'IA », souligne-t-il. De même, les outils utilisés par les recruteurs peuvent être eux aussi biaisés, surtout s'ils prennent en compte l'adresse - beaux quartiers ou banlieue - pour sélectionner automatiquement les candidats. « Mais les a priori dans ce domaine ne datent pas l'IA, fait toutefois remarquer Jérôme Lang. Les algorithmes ont en fait exposé des biais existants, reproduits de façon non intentionnelle par les machines, ce qui permet encore plus de les corriger. »


Comment faire ? D'abord en s'assurant de la qualité des données. Et « en paramétrant les outils de façon à corriger d'éventuelles anomalies », ajoute Frederik Zuiderveen Borgesius, professeur de droit et de technologies de l'information et de la communication à l'université Radboud, aux Pays-Bas, et auteur, pour le Conseil de l'Europe, d'une étude sur les décisions algorithmiques et la discrimination. La charge revient d'abord aux concepteurs des outils, et là encore, certaines entreprises ont été accusées - à raison - d'avoir des équipes ne reflétant pas la diversité de la société, ce qui a pu donner lieu, in fine, à un apprentissage inadéquat de la part des machines. Cela a aussi été le cas pour les outils de reconnaissance faciale. Si la machine est moins entraînée à reconnaître certains visages, noirs, par exemple - et des articles ont fleuri dans la presse sur le fait qu'une IA ne reconnaissait ni Michelle Obama ni Serena Williams - elle aura évidemment plus de mal à le faire... « Mais les utilisateurs doivent aussi être vigilants, poursuit Frederik Zuiderveen Borgesius. Au-delà du fait que l'Europe et les États-membres ont mis en place des règlements sur la transparence et l'utilisation des données, la discrimination, y compris à travers l'IA, et même indirecte, est illégale. »

En somme, l'idéal serait une certification des outils. « Mais si certains secteurs industriels sont soumis à des processus de certification tels que l'automobile ou l'aérien, qui prennent d'ailleurs en compte les contenus basés sur l'IA, dans d'autres domaines, comme le recrutement, ce n'est pas le cas », relève Raja Chatila. Pas encore, en fait, puisqu'il existe des comités d'éthique qui planchent sur ce sujet.

Vers une IA responsable

En adoptant, en 2016, le règlement général sur la protection des données (RGPD), l'Europe a été pionnière en la matière. Au point, remarque Laurence Devillers, professeure en IA à Sorbonne Université, rattachée au LISN-CNRS (voir son interview page 122, ndlr), que d'autres pays nous envient ! En outre, la Commission européenne a publié, le 21 avril dernier, un projet de règlement établissant des règles harmonisées concernant l'IA, qui combine droit, normes, éthique et mise en conformité, tout en tenant compte de l'évolution rapide des technologies et de la nécessité d'une expérimentation continue. Le projet vise précisément un contrôle, de nature à prévenir les risques d'atteintes aux droits fondamentaux des citoyens de l'Union européenne par l'IA, tout en encourageant une innovation responsable. Certes, il faudra sans doute deux ans pour que le texte soit soumis au Parlement, adopté, puis appliqué. « Mais il devrait établir les niveaux de risques et la liste des applications à mettre à jour régulièrement, inclure un marquage CE dans les cas de hauts risques et établir une transparence dans les autres, de même qu'il devrait préciser les situations dans lesquelles les applis seront interdites, comme la surveillance des citoyens », détaille Raja Chatila. Restera encore, concède cet expert, « à savoir qui certifie les certificateurs »... Toujours est-il qu'il y a actuellement un bouillonnement de la recherche en matière d'éthique et de contrôle de l'IA. Certains experts, issus d'une vingtaine de pays, sont ainsi réunis dans le Partenariat mondial pour l'IA, conçu par le Canada et la France et adopté par le G7, dont le secrétariat est hébergé par l'OCDE. Ils planchent sur les impacts de l'IA à travers cinq groupes de travail : l'IA responsable, l'IA et la réponse à la pandémie, la gouvernance des données, l'avenir du travail et l'innovation et sa commercialisation. Le groupe sur l'IA responsable, auquel appartient Raja Chatila, mène actuellement une réflexion sur la gouvernance des médias sociaux et sur une stratégie d'IA responsable pour l'environnement. Laurence Devillers fait, elle, partie du groupe sur l'avenir du travail, dont les deux projets en cours sont une plateforme d'observation de l'IA sur le lieu de travail et une réflexion sur le travail équitable avec l'IA.

« Nous réfléchissons par ailleurs à des standards communs, une méthodologie et des processus de certification », précise Raja Chatila. Le but étant d'enclencher un cercle vertueux, fait de bonnes pratiques communes et du respect de l'autorité qui certifiera les outils. Ces experts veulent en effet s'assurer que l'IA servira les humains - tous les humains - plutôt que de les asservir. Bien utilisée, l'IA peut en effet contribuer à l'atteinte des 17 objectifs de développement durable définis par l'ONU, en matière d'accès à l'éducation, à la santé et l'emploi, à la réduction de la pauvreté et à la lutte contre le réchauffement climatique.

_________________________________________________

Cet article est extrait de "T" La Revue de La Tribune n°7 - DOIT-ON CROIRE AU PROGRES? Décembre 2021 - Découvrez sa version papier disponible en kiosque et sur notre boutique en ligne.

T la revue

11 mn

Sujets les + lus

|

Sujets les + commentés

Commentaires 5
à écrit le 13/02/2022 à 15:36
Signaler
"Alors, comment expliquer qu’elle soit capable de susciter les pires fantasmes ? Comme si l’IA avait le pouvoir de penser et d’agir à sa guise. La méconnaissance de cette nouvelle technologie en est sans doute l’une des causes principales. " Je vo...

à écrit le 13/02/2022 à 12:52
Signaler
le pb n'est pas l'AI, le pb c'est quand des gens qui n'y comprennent rien l'utilisent....analyser des cv? oui, ok, un reseau lstm pour un ' sentiment analysis' fait par un ingenieur brillant en classes python, mais qui a rate l'essentiel ( par exempl...

à écrit le 13/02/2022 à 10:42
Signaler
"Comme si l’IA avait le pouvoir de penser et d’agir à sa guise." C'est pourtant ce que son nom peut faire supposer, un jour elle sera assez "puissante" pour se programmer elle-même (l'IA du Go ne sait pas ce que sont les échecs ni les dames, des jeux...

à écrit le 13/02/2022 à 10:22
Signaler
Il est de bon ton de dire; "elle facilite grandement nos vies de tous les jours", simplement parce la technique nous la complique, et tout est affaire de réduction de dépenses pour plus de profit! Ne soyons pas dupe!

à écrit le 13/02/2022 à 10:18
Signaler
"Source de craintes pour une majorité de la population" Logique, sachant que les propriétaires de capitaux et d'outils de production s'en servent surtout pour nous asservir il est normal d’appréhender la technologie en doutant d'abord et avant tout. ...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.