Intelligence artificielle : Google, Microsoft, Anthropic et OpenAI créent une alliance pour s'auto réguler

Google, Microsoft, Anthropic et OpenAI, en tête de la course aux intelligences artificielles de dernière génération, ont annoncé ce mercredi la création d'une nouvelle organisation professionnelle pour lutter contre les risques liés à cette technologie. Les quatre géants s’engagent à partager, ensemble et avec le reste des acteurs, leurs bonnes pratiques.
Le déploiement rapide de l'IA générative, à travers des interfaces comme ChatGPT (OpenAI), Bing (Microsoft) ou Bard (Google), suscite beaucoup d'inquiétudes des autorités et de la société civile.
Le déploiement rapide de l'IA générative, à travers des interfaces comme ChatGPT (OpenAI), Bing (Microsoft) ou Bard (Google), suscite beaucoup d'inquiétudes des autorités et de la société civile. (Crédits : DADO RUVIC)

« Frontier Model Forum », tel est le nom de la nouvelle organisation professionnelle formée par quatre géants de l'intelligence artificielle. Google, Microsoft, Anthropic et OpenAI s'engagent à travers elle à partager, entre eux et avec des législateurs, chercheurs et associations, des bonnes pratiques pour rendre ces nouveaux systèmes moins dangereux.

Plus globalement, cette structure est chargée de promouvoir un « développement responsable » des modèles d'IA les plus sophistiqués et de « minimiser les risques potentiels », d'après un communiqué publié ce mercredi 26 juillet.

Lire aussiMeta chamboule le marché de l'intelligence artificielle générative avec son modèle gratuit Llama 2

Régulation et transparence

Le déploiement rapide de l'IA générative, à travers des interfaces comme ChatGPT (OpenAI), Bing (Microsoft) ou Bard (Google), suscite beaucoup d'inquiétudes des autorités et de la société civile. Les fausses photographies et les montages perfectionnés (deepfake) existent depuis des années, mais l'IA générative, capable de produire du texte et des images sur simple requête en langage courant, fait craindre un déferlement de faux contenus en ligne. Ceux-ci peuvent servir à fabriquer des arnaques ultra crédibles ou encore à manipuler l'opinion. Une perspective particulièrement inquiétante à l'approche de l'élection américaine de 2024

C'est pourquoi l'Union européenne finalise un projet de régulation de l'IA qui doit imposer des obligations aux entreprises du secteur, comme la transparence avec les utilisateurs ou le contrôle humain sur la machine.

Lire aussiIntelligence artificielle : l'UE prévoit des garde-fous pour les applications les plus dangereuses

Mais aux États-Unis, les tensions politiques au Congrès empêchent tout effort en ce sens. La Maison Blanche incite donc les groupes concernés à s'assurer eux-mêmes de la sûreté de leurs produits, au nom de leur « devoir moral », selon les mots de la vice-présidente américaine Kamala Harris début mai.

La semaine dernière, l'administration de Joe Biden a néanmoins obtenu des « engagements » d'Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI à respecter « trois principes » dans le développement de l'IA - la sûreté, la sécurité et la confiance. Elles sont notamment censées tester leurs programmes en amont, lutter contre les cyberattaques et la fraude, et trouver un moyen de marquer les contenus générés par de l'IA, afin de les authentifier clairement comme tels.

Le risque de programmes aux « capacités dangereuses »

Les dirigeants de ces entreprises ne nient pas les risques, au contraire. En juin, Sam Altman, le patron d'OpenAI et Demis Hassabis, le dirigeant de DeepMind (Google), notamment, ont appelé à lutter contre « les risques d'extinction » de l'humanité « liés à l'IA ». Lors d'une audition au Congrès, Sam Altman a soutenu l'idée en vogue de créer une agence internationale chargée de la gouvernance de l'intelligence artificielle, comme il en existe dans d'autres domaines. En attendant, OpenAI travaille vers une IA dite « générale », aux capacités cognitives qui seraient similaires à celles des humains.

Lire aussiChatGPT : des auteurs accusent OpenAI d'avoir utilisé leurs livres pour alimenter leur interface d'IA générative

Dans une publication du 6 juillet, la start-up californienne a défini les « frontier model » d'IA comme des programmes fondamentaux « très perfectionnés qui pourraient comporter des capacités dangereuses de taille à poser des risques graves pour la sécurité du public ». « Des capacités dangereuses peuvent émerger de façon inattendue », prévient encore OpenAI, et « il est difficile de vraiment empêcher qu'un modèle déployé soit utilisé de façon abusive ».

(Avec AFP)

Sujets les + lus

|

Sujets les + commentés

Commentaires 4
à écrit le 30/07/2023 à 7:10
Signaler
"Google, Microsoft, Anthropic et OpenAI, en tête de la course aux intelligences artificielles de dernière génération, ont annoncé ce mercredi la création d'une nouvelle organisation professionnelle pour lutter contre les risques liés à cette techn...

à écrit le 27/07/2023 à 7:51
Signaler
Pour palper toujours plus d'argent public il faut être un bon petit bien obéissant.

à écrit le 26/07/2023 à 15:37
Signaler
Pour que je comprenne bien: Les États-Unis ont créé le "Sherman Antitrust Act" - loi anti-monopole très souvent bafouée par ailleurs - et à présent ce serait aux membres du cartel de s'auto-réguler? La finance - comme secteur devenu "monopolistique p...

à écrit le 26/07/2023 à 15:26
Signaler
Comme dans la fiction, il n'y a qu'un moyen de quantifier une IA, c'est d'utiliser une autre IA spécialisée pour cette tâche. Mettez un pool de développement machine learning, apprenez lui a dialoguer avec GPT et faire des rapports sur les limites......

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.