« L’algorithme n’est pas responsable des crimes dont on l’accuse » (Aurélie Jean)

Docteure en sciences, entrepreneure et ancienne chercheuse au Massachusetts Institute of Technology (MIT), Aurélie Jean est spécialiste des technologies numériques. Dans ses ouvrages, elle incite à une meilleure formation et information du grand public sur l’intelligence artificielle et les algorithmes – et à la féminisation de ce secteur. (Cet article est issu de T La Revue de La Tribune - N°7 Décembre 2021)
(Crédits : © Frédéric Monceau)

La défiance vis-à-vis de l'intelligence artificielle - et des algorithmes en particulier, semble d'abord venir du fait que les citoyens ne comprennent pas comment les outils fonctionnent... Cela a été notamment le cas pour l'application AntiCovid. Est-ce pour cela que vous avez souhaité, dans votre précédent ouvrage, De l'autre côté de la machine*, éclairer les lecteurs et démystifier les algorithmes ?

Aurélie Jean Le cas de l'application TousAntiCovid n'est peut-être pas le meilleur exemple dans la mesure où la CNIL avait soulevé à l'époque une collecte de données à caractère personnel via l'application, non prévue dans le cahier des charges. Cela étant dit, il est vrai que les citoyens stigmatisent certaines technologies pour en embrasser d'autres bien plus menaçantes pour eux-mêmes ou, à plus grande échelle, pour la démocratie, comme certains réseaux sociaux. J'essaie à ma petite échelle d'expliquer encore et toujours au citoyen mais aussi au dirigeant politique et économique, ainsi qu'au législateur, les tenants et les aboutissants de ces outils et donc de ces algorithmes. Ainsi, ils pourront chacun à leur niveau et selon différents objectifs, comprendre, raisonner et décider judicieusement.

Mais une fois que l'on a compris, est-ce suffisant pour installer la confiance ?

A.J. C'est nécessaire, mais pas suffisant. Il faut en complément un encadrement légal pour s'assurer que les technologies soient correctement développées, testées, appliquées et utilisées. C'est tout le sujet de mon nouveau livre : comment construire une régulation pertinente, qui encourage l'innovation tout en protégeant intelligemment l'individu et ses libertés. En construisant le RGPD (Règlement général sur la protection des données), l'Europe a brillamment réussi le pari d'« autoriser » en « encadrant », il faut qu'elle fasse la même chose avec les algorithmes, au risque de freiner le vieux continent. Elle pourra, comme avec le RGPD, montrer le chemin à d'autres pays dans le monde, comme les USA avec le CCPA (California Consumer Privacy Act).

Comment instaurer une plus grande transparence ? Et que faut-il faire en matière de réglementation, y compris pour anticiper les évolutions à venir ?

A.J. La transparence doit exister sur les erreurs commises et les leçons apprises chez les acteurs. Les acteurs doivent être également obligés par la loi de tester leurs données et leurs algorithmes avant le déploiement et une fois utilisés massivement pour garantir l'absence de biais - d'un traitement juste de chaque individu -, d'effets bulles, ou encore d'usages controversés.

Sans cette transparence, ou même avec, quelles sont les dérives possibles ?

A.J. Tous les algorithmes déployés risquent de ne pas être correctement testés par exemple. On l'a vu de nombreuses fois, comme le cas de l'application d'Apple Card (dont l'algorithme a été développé par Goldman Sachs) qui estimait des lignes de crédit jusqu'à 20 fois plus élevées pour les hommes que pour les femmes, ou encore l'algorithme de recadrage de photo de Twitter qui écartait les personnes de couleur. Ce sont des erreurs de conception. La nouvelle régulation devra imposer aux acteurs de tester leurs outils, le cas contraire et en cas de scandale, l'acteur devra prouver qu'il a de bonnes pratiques algorithmiques en étant transparent sur celles-ci.

Vous avez travaillé deux ans comme développeuse informatique pour l'agence d'informations financières Bloomberg, à New York. Quel est l'impact des algorithmes sur ce secteur, sur le contenu des réseaux sociaux et sur notre consommation d'informations ?

A.J. J'ai développé des outils algorithmiques pour informer les acteurs de la finance. J'ai également travaillé sur un projet d'automatisation de news factuelles - comme l'évolution significative d'une action - pour aider les journalistes économiques de Bloomberg. Cela étant dit, les informations que j'utilisais étaient justes et officielles. Je n'ai pas eu à gérer les risques de fake news par exemple. Aujourd'hui dans le journalisme, la data joue un rôle majeur, tant dans son tri et l'analyse de sa pertinence à travers le traitement de l'information beaucoup plus complexe et granulaire, que dans sa collecte et son traitement pour le journalisme lui-même, comme le journalisme d'investigation. On parle aussi de journalisme data.

J'aime croire que chaque journaliste dans le futur aura été formé un minimum à la culture scientifique et technique de la data et de l'algorithmique. Mon ami, et l'un des premiers journalistes data, Matt Carroll, à l'époque au Boston Globe (et raconté dans le film Spotlight) n'a aucune formation scientifique et technique strictement et s'est formé seul. Aujourd'hui, Matt forme les futures générations de journalistes au journalisme orienté en partie par la data !

Dans votre dernier ouvrage, qui vient de paraître, Les algorithmes font-ils la loi ?**, vous vous penchez sur un secteur particulier, la justice. Pourquoi ?

A.J. Dans ce livre, je m'intéresse à la question de la régulation. Pendant longtemps on aurait pu penser que les acteurs se réguleraient eux-mêmes en adoptant massivement et en consensus des bonnes pratiques. Mais la réalité est tout autre. Et même si le RGPD soutient les prochaines régulations sur les pratiques algorithmiques (car on rappelle que les algorithmes fonctionnent sur des données), cela ne suffit pas. C'est pourquoi l'Europe se penche actuellement sur ce sujet. Dans ce livre, j'ai tenté de répondre aux questions que l'on m'a posées et que je me suis posées en tant que conceptrice de ces algorithmes. Je fais également un détour - que j'ai pensé obligatoire - du côté des algorithmes utilisés dans la pratique de la justice.

Les algorithmes ne font pas la loi, écrivez-vous, mais ils l'influencent et en orientent la pratique, alors qu'ils n'ont pas de personnalité juridique, ni, donc, de responsabilité...

A.J. Tout à fait. L'algorithme ne fait pas la loi et n'est pas responsable des crimes dont on l'accuse (sexisme, racisme), car il n'est ni une personnalité physique, ni une personnalité morale. Cela étant dit, il l'influence indirectement par l'absence de lois pour l'encadrer et qui a pour conséquence de « dicter » - par un mauvais dimensionnement, de mauvais tests ou de mauvais usages - sa loi, son rythme et le ton sur les outils comme les réseaux sociaux. Il ne faudrait pas qu'une justice indirecte se recrée où discrimination et stigmatisation prennent le pas. Nous, concepteurs, propriétaires de ces outils et utilisateurs, sommes responsables de ces actes. Le législateur et les dirigeants politiques doivent s'intéresser de près à ces algorithmes, et à leur évolution dans le temps, pour construire une vision pour le pays et l'Europe.

En 2019, le magazine Forbes vous a classée parmi les 40 Françaises les plus influentes. Quelle influence souhaitez-vous avoir sur la société ?

A.J. Élargir le champ des possibles dans l'esprit de chaque petite fille, alimenter la culture scientifique - et la curiosité qui va avec ! - chez chaque individu, et inspirer les prochaines générations de dirigeants politiques et économiques à s'intéresser aux sciences pour devenir visionnaires.

Les femmes sont encore très minoritaires dans la tech en général, pourquoi est-ce important, pour elles comme pour la société, d'accroître leur représentation ?

A.J. Important pour la société afin de construire des outils inclusifs, développés par tous et pour tous. Le monde est polymorphe et la sphère d'individus qui conçoit ces outils de plus en plus présents dans nos vies (pour ne pas dire omniprésents), doit représenter ce monde. En cela, l'absence des femmes est un problème sociétal en nous faisant prendre le risque de concevoir des outils biaisés. Important pour l'économie afin d'exploiter au mieux tous les talents - et donc aussi féminins - pour garantir un pôle de compétitivité mondiale, à l'échelle nationale et Européenne. Enfin économique et sociétal pour les femmes qui verront dans ces carrières une stimulation intellectuelle unique, des opportunités de carrières infinies - on peut travailler dans tous les domaines, ou encore une indépendance et une liberté financière forte, en profitant des salaires les plus compétitifs !

Vous avez fondé, en 2016, la société In Silico Veritas, spécialisée dans le conseil en données et l'intelligence artificielle. Quelles étaient vos ambitions ? Les avez-vous atteintes ?

A.J. Je voulais proposer une alternative au conseil généraliste, en collaborant avec des talents aux compétences complémentaires aux miennes, pour tacler des problématiques industrielles issues de la recherche et du développement. Il y a de plus en plus de clients qui viennent me voir avec des problématiques de R&D donc je pense que ça marche ! (rires...)

 .................................................................................

* De l'autre côté de la machine. Voyage d'une scientifique au pays des algorithmes, Aurélie Jean, Éd. de l'Observatoire, 2019.

**Les algorithmes font-ils la loi ?, Aurélie Jean, Éd. de l'Observatoire, octobre 2021.

_________________________________________________

Cet article est extrait de "T" La Revue de La Tribune n°7 - DOIT-ON CROIRE AU PROGRES? Décembre 2021 - Découvrez sa version papier disponible en kiosque et sur notre boutique en ligne.

T la revue

Sujets les + lus

|

Sujets les + commentés

Commentaires 4
à écrit le 14/02/2022 à 1:43
Signaler
J'ose penser q'un algo ne pourra jamais appréhender la complexité de l'humanité et ses interactions sur son biotope .L'homme est changeant,imprévisible et versatile .

à écrit le 13/02/2022 à 10:29
Signaler
Bref! On est entrain de soudoyer le jugement vis a vis de l'I.A. mais pas de convaincre de sa nécessité! Comme le virus a besoin de son antivirus, la technique et l'innovation impose son I.A.!

à écrit le 13/02/2022 à 10:24
Signaler
En tant que simple salariée vous n'avez absolument aucun impact sur la façon dont va être utilisée cette technologie. Aux États Unis les inventeurs de la bombe Atomique voulaient qu'elle soit d'abord utilisée à côté du Japon afin d'impressionner ceux...

à écrit le 13/02/2022 à 8:51
Signaler
il faut dire que c'est pas facile d'expliquer a des politiciens de gauche qui cherchent des boucs emissaires ce qu'est une retropropagation avec rotation dans les CNN!! ils ont mis la france derniere au Pisa volontairement, tout comme les cures voul...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.