Des experts, dont le créateur de ChatGPT, alertent sur les dangers de l'IA contre l'humanité

Un groupe de chefs d'entreprise et d'experts, dont fait partie Sam Altman le créateur de ChatGPT, avertissent dans une déclaration en ligne des menaces d'« extinction » pour l'humanité posées par l'essor de l'intelligence artificielle. Les alertes se multiplient, émanant souvent de personnes ayant contribué à l'essor de cette technologie. Ils appellent à plus de régulation - qui leur serait d'ailleurs profitable -, sans trop de restriction.
Face à l'accélération de l’IA, de grands noms mettent en garde contre ses dangers.
Face à l'accélération de l’IA, de grands noms mettent en garde contre ses dangers. (Crédits : iStock)

Les alertes d'experts sur les dangers de l'intelligence artificielle (IA) se multiplient ces derniers mois. Y compris par des grands noms qui ont permis son émergence. Dernière alerte en date, celle d'un groupe de chefs d'entreprise et d'experts, dont font partie Sam Altman, le créateur de ChatGPT, et Geoffrey Hinton, considéré comme l'un des pères fondateurs de l'IA.

Selon eux, la lutte contre les risques liés à l'IA devrait être « une priorité mondiale au même titre que d'autres risques à l'échelle de la société, tels que les pandémies et les guerres nucléaires », ont-ils écrit sur le site internet du Center for AI Safety, une organisation à but non-lucratif basée aux États-Unis. Les signataires ainsi des menaces d'« extinction » pour l'humanité posées par l'essor de l'IA.

Lire aussiIntelligence artificielle: Biden convoque les acteurs pour évoquer les risques potentiels

Les grands noms de l'IA multiplient les alertes

Le déploiement à toute vitesse d'une intelligence artificielle de plus en plus « générale », dotée de capacités cognitives humaines, et donc, susceptible de bouleverser de nombreux métiers, a été symbolisée par le lancement en mars par OpenAI de GPT-4, une nouvelle version plus puissante de ChatGPT, ouvert au grand public fin 2022.

Lire aussiIntelligence artificielle : Pourquoi l'appel à plus de régulation de Sam Altman (OpenAI) n'a rien de désintéressé

Face à cette accélération de l'IA, de grands noms mettent en garde contre ses dangers. Pour Geoffrey Hinton, les avancées dans le secteur de l'IA induisent « de profonds risques pour la société et l'humanité », avait-il estimé dans le New York Times. C'est la raison pour laquelle il a quitté son poste au sein du géant Google début mai, qui a d'ailleurs récemment présenté ses plans pour intégrer l'intelligence artificielle générative à son moteur de recherche.

Lire aussiL'intelligence artificielle générative débarque enfin sur Google

En mars, c'était le milliardaire Elon Musk - un des fondateurs d'OpenAI dont il a ensuite quitté le conseil d'administration - et des centaines d'experts mondiaux qui avaient réclamé une pause de six mois dans la recherche sur les IA puissantes, en évoquant « des risques majeurs pour l'humanité ».

Appel à la régulation

Sam Altman multiplie aussi régulièrement les mises en garde, craignant que l'IA ne « cause de graves dommages au monde », en manipulant des élections ou en chamboulant le marché du travail.

Depuis mi-mai, le patron d'OpenAI parcourt le monde pour rassurer sur l'IA et plaider pour une régulation. Car les régulations ne sont pas seulement un mal nécessaire pour le secteur, mais aussi une opportunité économique.

« Tout le monde a intérêt à la mise en place rapide de régulations uniformisées à l'échelle mondiale, sous l'impulsion des États-Unis, y compris les entreprises de l'intelligence artificielle. En l'absence de telles régulations, il est en effet probable que chaque pays, voire chaque région, bricole ses propres règles dans son coin, ce qui forcerait demain les entreprises de l'intelligence artificielle à entraîner une infinité de modèles différents pour coller aux spécificités de chaque loi locale. Un cauchemar », considère Gary Marcus, expert de l'IA.

Lire aussiL'UE veut réguler l'intelligence artificielle, ChatGPT dans le viseur

Mais attention à ce que ces régulations ne soient pas trop restrictives. Sam Altman a notamment averti qu'OpenAI pourrait « cesser d'opérer » dans l'Union européenne si le futur règlement européen lui imposait trop de contraintes. La semaine dernière à Paris, il a justement discuté avec le président Emmanuel Macron de la manière de trouver « le juste équilibre entre protection et impact positif » de cette technologie.

(Avec AFP)

Sujets les + lus

|

Sujets les + commentés

Commentaires 3
à écrit le 31/05/2023 à 8:52
Signaler
Quand arrêtera t'on de faire de la publicité pour des armes ?!

à écrit le 31/05/2023 à 8:11
Signaler
L'humanité étant déjà menacée par la surconsommation actuellement on peut aussi se dire que comme en mathématiques moins multiplié par moins ça fait plus.

à écrit le 30/05/2023 à 17:26
Signaler
Nous n'avons pas besoin de cette pseudo intelligence.. Je crains qu'un jour nous subissions un orage solaire comme celui survenu en 1859 et connu sous l'évènement de Carrington.. Direct l'age de pierre et le chaos social...

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.