"La relation humain-machine reste à construire" (Laurence Devillers)

Laurence Devillers est professeure en Intelligence Artificielle à Sorbonne-Université, rattachée au LISN-CNRS. Elle anime également un groupe pour construire des normes sur les algorithmes d’intelligence artificielle à l’AFNOR afin de soutenir les propositions de régulations européennes. Elle est l’auteur de "Les robots émotionnels : santé, surveillance, sexualité… et l’éthique dans tout ça ?", Éd. L’Observatoire, 2020. (Cet article est issu de T La Revue de La Tribune - N°7 Décembre 2021)

5 mn

(Crédits : Olivier Ezratti)

L'intelligence artificielle peut-elle tout faire aujourd'hui ?

Laurence Devillers- En tout cas, elle agit dans des domaines que nous ne pouvions pas soupçonner il y a peu. Cela va du développement massif des réseaux sociaux aux secteurs de la santé. D'ailleurs, nous devons anticiper ce que fera l'IA demain - par exemple, offrir la possibilité, via des chatbots, de converser avec des personnes décédées grâce à des textes originaux qui auront été fournis aux machines. Le projet existe déjà au Japon pour aider à faire le deuil d'un proche disparu, mais avec une durée de 49 jours, le temps du deuil selon la tradition bouddhiste. Ce qui pose la question de notre rapport à ces objets. Or, aucune réglementation n'existe à l'heure actuelle... La société doit débattre sur ce sujet comme sur bien d'autres relatifs au déploiement du numérique et de l'IA. Quoi qu'il en soit, il n'y aura pas de retour en arrière. Et j'espère que lors de la campagne présidentielle, l'IA, le numérique et la technologie seront au cœur des débats, que ce soit sur l'absence de rôles modèles féminins dans le secteur, la puissance des outils fondés sur l'IA ou la dépendance vis-à-vis de l'étranger, à travers les Gafam (Google, Apple, Facebook, Amazon, Microsoft).

Bien que les femmes soient peu présentes en science, nous avons d'excellentes chercheuses à l'Institut national de recherche en sciences et technologies du numérique (INRIA), au CNRS ainsi qu'au Collège de France. Cependant, elles ne sont pas assez mises en avant dans les médias et, en conséquence, elles ne suscitent pas d'attirance pour ces secteurs chez les filles. La Fondation Blaise Pascal, dont j'assure la présidence avec comme président d'honneur Cédric Villani, a pour vocation de soutenir la médiation scientifique en mathématiques et en informatique notamment pour les jeunes, les filles et les publics défavorisés socialement et géographiquement.

Les machines seront-elles dotées des mêmes facultés, y compris émotionnelles, que les humains ?

L.D. Pour l'heure, une machine n'a pas d'intelligence émotionnelle, ni d'intelligence collective. Elle n'a pas non plus d'intuition, ni d'intention. Elle ne « comprend » pas ce qu'elle dit et ce qui peut avoir un impact positif ou négatif sur la personne qui reçoit cette parole. Ce qui pose une autre question, celle de la responsabilité. Doit-elle être attribuée aux constructeurs des machines ? En effet, les machines elles-mêmes ne pourront pas être sanctionnées et encore moins mises en prison ! Cela dit, la technologie permet actuellement de modéliser, grâce à des capteurs, le « ressenti » - chaud ou froid, par exemple - d'une machine. Nous n'en sommes plus à l'ère des automates, même s'il ne s'agit que d'un système « automatique », celui de l'auto-apprentissage. Dans ce domaine, le choix des données qui seront fournies aux algorithmes est capital. Si, aujourd'hui, certains éléments - y compris des biais constatés - sont liés aux ingénieurs qui les programment, nous pouvons adopter des méthodes de paramétrage plus strictes, d'autant que les biais inclus dans les données sont renforcés par l'usage des algorithmes... Et il faut faire auditer ces systèmes lors de leurs usages par des comités indépendants.

Quid d'une intelligence artificielle autonome ?

L.D. La forme la plus avancée de l'IA, celle d'une intelligence autonome, qui n'aurait donc pas besoin de l'intervention humaine pour agir selon un objectif fixé, est déjà, d'une certaine façon, en place. C'est par exemple le cas d'un robot qui se rend compte qu'il peut bousculer quelqu'un dans un centre commercial et l'évite. Mais au-delà de cette autonomie « physique », se pose la question de l'autonomie « morale »... On pense par exemple à un robot à qui on aurait fixé un objectif inacceptable. Il est clair que la décision sur le comportement des machines doit être laissée aux humains, même si ces derniers ne sont pas parfaits...

Faut-il apprendre à « gérer » l'intelligence artificielle ? Autrement dit, comment faire pour que les machines nous servent sans nous asservir et ce, dès leur conception ?

L.D. Au-delà des pouvoirs publics, qui peuvent édicter davantage de mesures en matière d'éthique, les industriels de l'IA doivent effectivement mettre en place des méthodes scientifiques, des normes et des standards, pour auditer les outils, mais aussi diversifier le vivier d'ingénieurs - moins d'hommes blancs - et surtout, des équipes pluridisciplinaires. Ce n'est pas encore le cas aujourd'hui. En outre, les citoyens doivent également travailler sur une bonne « hygiène » face aux outils. Le but étant, dans la relation humain-machine, de développer une conscience collective pour faire en sorte que ces outils ne nous manipulent pas. En poussant, par exemple, davantage d'informations sur des thèmes consultés par des usagers, ou en privilégiant des choix musicaux en fonction des sélections passées, certains outils le font déjà... Avec, en particulier pour certaines informations, un risque d'isolement, voire de radicalisation. La relation humain-machine reste donc à construire. Mais la réflexion est en marche.

Où en est la réflexion internationale sur la protection de la vie privée et l'éthique ?

L.D. Certains chercheurs américains nous envient le Règlement général sur la protection des données (RGPD) concernant le traitement des données à caractère personnel et la libre circulation de ces données, adopté par l'Europe en 2016 ! En outre, le Partenariat mondial pour l'IA, fondé par le Canada et la France, au G7 de Biarritz, en juin 2018, a pour but de réfléchir à la direction que doit prendre l'IA pour œuvrer au bien commun. J'appartiens d'ailleurs à l'un des groupes de travail sur le futur du travail avec des IAs, constitué d'experts européens, américains, sud-coréens, australiens... Il ne s'agit pas de se pencher uniquement sur l'innovation et le déploiement commercial de l'IA, mais bien de réfléchir à comment l'IA peut résoudre des problèmes sociétaux, comme la paix et la justice ou l'égalité entre les sexes, dans le cadre des objectifs de développement durable de l'ONU.

_________________________________________________

Cet article est extrait de "T" La Revue de La Tribune n°7 - DOIT-ON CROIRE AU PROGRES? Décembre 2021 - Découvrez sa version papier disponible en kiosque et sur notre boutique en ligne.

T la revue

5 mn

Sujets les + lus

|

Sujets les + commentés

Commentaires 2
à écrit le 12/02/2022 à 11:01
Signaler
La conclusion pourrait être que l'on voudrait que l'homme reste une "machine" pendant que l'on essaye d'humaniser celle-ci !

à écrit le 12/02/2022 à 10:36
Signaler
Elle est déjà construite, puisque au sein d'une société de consommation-production l'humain est devenu l'outil de la machine, la machine a toujours plus besoin de l'humain qui le lui rend bien, c'est un rapport de soumission asservissant, elle est do...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.