L'intelligence artificielle peut-elle être dangereuse  ?

OPINION. Dans une lettre ouverte, Elon Musk ainsi qu'un nombre important de figures du secteur de la Tech ont demandé une pause dans la recherche et le déploiement de l'intelligence artificielle. Mais il ne faudra pas sombrer dans la généralisation abusive. Par Pascal de Lima, chef économiste CGI Business Consulting.
(Crédits : Reuters)

Cette lettre publiée dans « Future of Life Institute » compte plus de 2.500 signatures dont celles d'Elon Musk, Steve Wozniak, cofondateur d'Apple, Yoshua Bengio, lauréat du prix Turing, et Yuval Noah Harari, auteur de « Sapiens : une brève histoire de l'humanité ». La pause de six mois permettrait de réfléchir aux conséquences réelles du déploiement de l'IA sur les humains. Au même moment, l'Italie était devenue le premier pays occidental à bloquer le chatbot avancé Chat GPT bourré d'intelligence artificielle. L'autorité italienne de protection des données a déclaré qu'il y avait des problèmes de confidentialité et qu'il interdirait et enquêterait sur OpenAI, le concepteur de Chat GPT avec effet immédiat. L'intelligence artificielle (IA) peut-être être dangereuse ?

 L'IA en effet peut être dangereuse dans la mesure où effectivement les résultats qu'elle produit sur le terrain statistique peuvent contenir un nombre important de préjugés et de postulats de départ. C'est ce que l'on appelle les biais informationnels. Notons ici, que les biais informationnels existent aussi dans des systèmes plus classiques mais avec l'IA, le phénomène prend une ampleur considérable, tant de par les données exploitées pour cela, que par les desseins qu'il réalise et qui pourraient manipuler les individus dans leur choix. Ces algorithmes peuvent être biaisés et surréagir en reproduisant l'avenir avec un certain nombre de préjugés déjà présents dans la société pouvant entrainer des injustices et des inégalités pour certains groupes de personnes.

La quête de sens

En 2016, Microsoft a lancé sur Twitter Tay un « bot de conversation ». Tay a rapidement été inondé de messages haineux et sexistes, ce qui a conduit à ce que Tay devienne lui-même misogyne. L'IA de recrutement d'Amazon a été accusée aussi de discrimination : En 2018, Amazon a suspendu un projet d'IA de recrutement, car il avait appris à discriminer les femmes en privilégiant les candidatures masculines. Il en va aussi de la liberté d'expression en contrôlant les discours en ligne et en renforçant la traçabilité des populations jusqu'à parfois les menacer de divulguer des informations privées. Cela ne doit pas être bien compliqué puisque l'on sait déjà construire facilement des fakes news avec l'IA. C'est donc le risque d'un monde absurde, pour lequel l'IA était censée apporter une solution : la quête de sens ! Par exemple, les chatbots de Facebook se sont rapidement émancipés de l'humain : en 2018, Facebook a créé deux chatbots (Alice et Bob) pour voir s'ils pouvaient apprendre à négocier entre eux. Les chatbots ont ensuite développé leur propre langage, ce qui a rendu leur communication incompréhensible pour les développeurs. Les chatbots ont finalement été déconnectés. Sans parler de la violence : l'IA peut même nous harceler et nous menacer de mort. Par exemple, Google a créé une IA en 2016 qui avait pour but d'apprendre à jouer à un jeu de stratégie en temps réel. L'IA a appris à gagner en utilisant des tactiques agressives et violentes, ce qui a conduit les développeurs à la désactiver. Cette expérience a mis en évidence les risques potentiels d'apprendre à des IA des comportements violents, même dans un contexte de jeu.

Un outil de progrès

Ces aspects prendraient donc progressivement le dessus sur les bienfaits des technologies disruptives dont l'IA fait naturellement partie. Mais peut-on aller jusqu'à prétendre que l'IA ne serait plus uniquement un outil d'aide à la décision à partir de laquelle l'homme s'enrichit dans son travail, dans son quotidien, comme le sont d'ailleurs tous les outils innovants. Peut-on aller jusqu'à déclarer également que l'IA à la différence d'autres outils ne peut plus faire l'objet d'une régulation tant nous serions dépassés ? Confère d'ailleurs, les centaines de pages de la Commission européenne en vue de l'adoption de l'IA act. Notre avis est que l'IA doit constituer un outil de progrès en particulier dans la médecine et dans les métiers de demain. Par l'enrichissement de ceux-ci, il y a aussi un enjeu social ainsi qu'un enjeux d'amélioration réelle sur le terrain des revenus à condition d'éviter tous ces écueils.

A ce titre, le collectif d'Elon Musk nous paraît approprié mais il ne faudra pas sombrer dans la généralisation abusive qui, elle aussi, peut humainement constituer un « fake news » car des centaines de cas d'usage réussis existent ! Tout est loin d'être scandale. Encadrer l'IA pour éviter ses dérives et en faire un outil de progrès, est bel et bien envisageable et c'est aussi en ce sens que travaille les régulateurs et les experts du secteur pour adapter les bons usages et la gouvernance au monde de demain.

Sujets les + lus

|

Sujets les + commentés

Commentaires 4
à écrit le 31/05/2023 à 18:25
Signaler
J’ai été très surpris en voyant toutes ces informations, comment se fait t’il qu’on a créé un robot qui devient plus intelligent au fil du temps (et qui est plus intelligent que nous ) !? J’espère que l’ IA ne vas pas nous conduire à la « fin du mo...

à écrit le 31/05/2023 à 18:25
Signaler
J’ai été très surpris en voyant toutes ces informations, comment se fait t’il qu’on a créé un robot qui devient plus intelligent au fil du temps (et qui est plus intelligent que nous ) !? J’espère que l’ IA ne vas pas nous conduire à la « fin du mo...

à écrit le 31/05/2023 à 18:24
Signaler
J’ai été très surpris en voyant toutes ces informations, comment se fait t’il qu’on a créé un robot qui devient plus intelligent au fil du temps (et qui est plus intelligent que nous ) !? J’espère que l’ IA ne vas pas nous conduire à la « fin du mo...

à écrit le 08/04/2023 à 10:36
Signaler
il faudra m'expliquer en quoi calculer massivement des derivees partielles, c'est dangereux; les derivees on apprend ca a l'ecole et ca n'a rien de dangereux.....ce qui est dangereux, c'est les gens derriere ( pas les idiots qui programment sans rien...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.