La confiance est la clé pour une adoption massive de l'IA générative

OPINION. L'intelligence artificielle générative pose deux gros défis qui menacent son adoption massive : le respect du droit de la propriété intellectuelle, et la traçabilité des sources de données. Pour créer l'indispensable confiance, les entreprises doivent, de manière explicite, fixer un cadre de référence éthique vis-à-vis de leurs collaborateurs et potentiellement de leurs clients et fournisseurs. Par Jean-Philippe Desbiolles, vice-président Generative AI Leader de IBM dans la zone Europe-Moyen-Orient.
(Crédits : DADO RUVIC)

Rien n'a changé et pourtant tout a changé - cela pourrait être une synthèse de l'avènement de l'IA générative et de l'engouement que nous vivons à l'heure actuelle pour cette technologie. Rien n'a changé dans la mesure où les fondements même de l'IA générative restent une IA probabiliste. Cependant, son ampleur, son adoption, sa puissance sont sans commune mesure avec ce que nous avons connu depuis une dizaine d'années avec l'IA dite « traditionnelle ».

Cette montée en puissance de l'IA générative est, et restera, massive en faisant apparaître deux grandes familles de cas d'usage : des cas d'usages « incrémentaux » et des cas d'usage « de rupture ». Les cas d'usage incrémentaux sont ceux que nous avons développés depuis environ une décennie et qui sont impactés par l'IA générative en apportant des améliorations extrêmement significatives, notamment dans le domaine du langage au travers des fameux LLM (modèles de langage de grande taille). Ceci étant dit, ces apports incrémentaux seront aussi visibles sur bien d'autres cas d'usage dans le domaine de la génération de contenus au sens large (sons, vidéos, reconnaissances visuelles, ...).

Cas d'usages de rupture

L'autre catégorie de cas d'usage, dits de rupture, sont ceux que nous n'avions pas pu investiguer ou déployer par le passé car les capacités de l'IA nous limitaient. Prenons un cas d'illustration concret : le processus de design thinking pour redéfinir les parcours clients. Une expérimentation nous a permis de positionner l'IA générative non pas uniquement comme un outil, mais comme un membre à part entière de l'équipe projet qui réunissait des designers, des fonctionnels, des architectes, etc.

L'IA générative avec laquelle collaborait l'équipe a permis de couvrir des phases de l'atelier de travail à hauteur de 20% à 80%. L'étape de création des « personae » a été par exemple co-générée avec l'IA générative à 70%, avec un gain de temps de l'ordre de 60% par rapport aux temps usuels.

Autre illustration, celle de la création des visuels. L'IA générative, avec les designers, a produit 80% des documents qui ont ensuite été affinés par les experts. C'est là où l'IA générative apporte une révolution, lorsqu'elle passe du statut d'outillage à celui de partie prenante au sein d'une équipe d'hommes et de femmes. Ce nouveau mode de collaboration est maintenant là, il nous faut en inventer les codes, les principes, les responsabilités, mais aussi les limites.

La traçabilité des sources, défi fondamental pour l'IA générative

Les entreprises doivent travailler sur les deux grandes familles de cas d'usage afin de réellement tirer un avantage de l'intelligence artificielle dite générative. Cela étant dit, nous savons tous que cette dernière pose un certain nombre de défis. Certains ne sont pas nouveaux, mais elle les accroît (management des biais au sens large, « hallucinations » ou encore production d'informations fausses à grande échelle). Tous ces défis étaient déjà présents, mais ils atteignent un degré de criticité extrêmement élevé.

Parmi ces nouveaux défis qui se posent à nous, il y a notamment celui de l'atteinte au droit fondamental de la propriété intellectuelle, mais aussi de la traçabilité des sources de données sous-jacentes aux modèles de fondation de l'IA générative. Ces deux derniers éléments sont particulièrement préoccupants et doivent être traités non seulement pour des raisons réglementaires, mais plus globalement pour des raisons éthiques et d'alignement entre l'IA générative et les valeurs sociétales et/ou d'entreprise. Ce sera la seule solution pour créer la confiance entre les utilisateurs et l'IA générative et donc générer l'adoption à grande échelle qui entraînera un retour sur investissement pour les entreprises utilisatrices. C'est le triptyque confiance, adoption et retour sur investissement.

Sur le sujet de la confiance autour de l'IA générative, il nous faut distinguer deux grandes dynamiques. La première, que l'on pourrait qualifier de technique, réside dans la mise en place de processus, modes opératoires, plateformes technologiques qui permettent de s'assurer, sur l'ensemble du cycle de vie des modèles, que nous délivrons des cas d'usage d'IA avec transparence, robustesse, protection, explicabilité et équité (fairness).

La bonne nouvelle est que nous avons aujourd'hui la maturité suffisante pour déployer ce type d'écosystème pour suivre, gouverner, superviser ces différents éléments à l'échelle d'une IA générative au sein de l'entreprise. Mais cette approche n'est pas suffisante, car l'IA porte en elle-même un sujet éminemment humain et donc de subjectivité dans ses réponses, voire ses recommandations.

Définir un cadre de référence éthique

Dans ce cadre, nous voyons bien que nous touchons des sujets qui sont du ressort de l'éthique et/ou de la cohérence entre ce que nous faisons et les valeurs portées par l'entreprise ou la société. Nous sommes à un stade où les entreprises doivent de manière explicite fixer un cadre de référence éthique vis-à-vis de leurs collaborateurs et potentiellement de leurs clients/fournisseurs afin de s'assurer que les règles du jeu soient claires pour tout le monde.

Dans le pire des cas, et en l'absence de ce cadre de référence éthique, nous verrons des comportements qui seront générés en toute bonne conscience par différentes personnes, mais qui pourraient être en conflit avec l'éthique et/ou les valeurs de l'entreprise, voire de la société. Finalement, des personnes pourraient de toute bonne foi agir de manière contraire à l'intérêt général. Seul un cadre de référence éthique explicite, formalisé, communiqué peut permettre de couvrir ce risque.

La confiance se décline aussi au niveau de la prise de décision et des nouveaux modes de collaboration entre les humains et les machines. La grande question qui animera la prochaine décennie sera non seulement la confiance, l'éthique, mais finalement le fait de pouvoir démontrer de manière la plus objective possible comment une décision a été prise, dans quel contexte, s'il y a eu ou non utilisation d'une IA au sens large et finalement, si la décision prise était la plus optimale possible. L'ensemble de ces questions devront être adressées au cas par cas en fonction des cas d'usage qui seront concernés.

Il apparaît clairement aujourd'hui que même si la collaboration humain - machine est celle qui apporte encore les résultats les plus optimaux, dans certains cas d'usage, l'IA seule sera à privilégier et dans d'autres, l'humain seul sera à favoriser. Nous sommes donc face à une situation complexe, où nous devrons choisir le meilleur processus de décision possible en fonction des objectifs poursuivis tout en respectant le cadre réglementaire, mais aussi éthique. À nous de fixer le cap, dès maintenant, car ce n'est que le début de l'histoire...

Sujets les + lus

|

Sujets les + commentés

Commentaires 2
à écrit le 02/03/2024 à 9:46
Signaler
Non.la seule.notion.indispensable.poir appréhender un outil avec autant de.potzntiel que le deep learning c'est l'intelligence humaine à savoir le truc banni de LUERSS empire de la corruption.prevu pour durer.mille ans

à écrit le 29/02/2024 à 12:49
Signaler
Si la question se pose, c'est que c'est non ! A moins de vouloir continuer à se poser des questions comme "l'existence de Dieu" ou "le sexe des anges" ! ;-)

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.