ChatGPT : comme Bitcoin, le développement de l'IA est impossible à bannir

OPINION. Est-ce une si bonne idée d'avoir une technologie qui sans aucun doute empiètera de plus en plus sur la vie quotidienne, contrôlée par seulement quelques organisations privées ? Par Ryan Shea, crypto-économiste chez Trakx.
(Crédits : Gerd Altmann / Pixabay)

Les fossoyeurs des cryptos qui proclamaient haut et fort que 2023 serait un événement d'extinction du secteur ont - une fois de plus - eu tort. L'hiver crypto est terminé. Mais ce n'est pas la seule technologie qui profite du chaud soleil printanier. Je parle bien sûr de l'IA qui, après avoir elle-même connu plusieurs hivers dans le passé, connaît une renaissance spectaculaire. Alimentés par la popularité explosive de ChatGPT, qui, après avoir acquis plus de 100 millions d'utilisateurs depuis son lancement en novembre dernier, est l'application destinée aux consommateurs la plus réussie de tous les temps, les médias - traditionnels et sociaux - regorgent d'articles décrivant les derniers développements dans l'espace, et pour cause car les résultats sont impressionnants.

Ce que l'on observe avec de tels projets, ce sont des ordres de grandeur de meilleurs résultats que les systèmes "IA" antérieurs étaient capables de produire il y a quelques années à peine. On peut dire que les modèles LLM actuels qui alimentent ChatGPT et d'autres comme eux, sont capables d'imiter avec précision le contenu créé par l'homme - la base du célèbre test d'Alan Turing (3). L'IAG, ou intelligence artificielle générale, est peut-être encore hors de portée (elle peut être inaccessible - qui sait), mais avec l'intelligence artificielle déjà à un tel niveau, les implications sociales et économiques seront profondes.

Vers l'explosion des fake news

La capacité de l'IA générative à produire des textes/son/images déjà proches de ceux produits par les humains dérange clairement beaucoup de gens, d'autant plus que la technologie s'améliore à un rythme exponentiel et non linéaire, d'où la raison pour laquelle ChatGPT 4.0 est nettement meilleur que ChatGPT 3.5. Cela signifie qu'il deviendra extrêmement difficile de détecter le contenu généré par l'IA par rapport à celui généré par l'homme. De plus, ces résultats pourront être produits à grande échelle pour une large diffusion sur Internet, l'une des principales sources d'information pour pratiquement tout le monde sur la planète (4). Les problèmes de fausses nouvelles semblent devoir exploser dans un avenir pas trop lointain.

On s'inquiète également des licenciements généralisés, car les machines sont généralement plus rentables que les employés à base de carbone et il existe donc une forte incitation au profit pour remplacer la main-d'œuvre par du capital. En effet, un récent rapport de Goldman Sachs suggère que 300 millions d'emplois pourraient être perdus en raison du déploiement de cette technologie - un choc économique négatif massif selon les normes de quiconque (6).

Reflétant ces préoccupations, le Future of Life Institute a publié le mois dernier une lettre ouverte (7), signée par des milliers de personnes, dont notamment Elon Musk et Steve Wozniak et de nombreux chercheurs de premier plan en IA. La lettre appelait à un moratoire de six mois sur la formation de systèmes d'IA plus puissants que ChatGPT 4 afin de "développer et mettre en œuvre conjointement un ensemble de protocoles de sécurité partagés pour la conception et le développement avancés d'IA qui sont rigoureusement audités et supervisés par des experts externes indépendants"(8).

Appuyer sur le bouton de répétition est clairement une stratégie, mais le problème avec cette approche est de savoir comment elle est appliquée. Si une grande entreprise ou un État-nation (et je peux penser à plus de quelques exemples tout de suite, comme je suis sûr que beaucoup d'autres le peuvent) décide d'aller de l'avant avec la recherche sur l'IA et la formation de modèles, que peut-on faire pour les arrêter ? Rien. Tout comme Bitcoin, le développement de l'IA est impossible à bannir. Tout ce qu'une pause de six mois ferait, c'est donner à ceux qui choisissent de l'ignorer le temps de rattraper leur retard ou d'étendre leur avance dans la course aux armements de l'IA. La logique derrière la proposition ne correspond pas.

Cela dit, tout le monde n'est pas aussi pessimiste quant à l'impact de l'IA. Brian Roemmele, un ingénieur qui a travaillé avec l'IA et les réseaux de neurones pendant des décennies et a publié SuperPrompts (9) via son site Web (10) et son compte Twitter (11), par exemple, estime que la comparaison luddite est très pertinente par rapport à la situation actuelle. Pour ceux qui ne connaissaient pas les luddites, il s'agissait d'un groupe de tisserands du 19e siècle en Grande-Bretagne - dirigé par Ned Ludd d'où leur nom - qui a détruit des machines introduites dans l'industrie textile au milieu de la crainte de perdre leur emploi. Comme le souligne Brian, contrairement à leurs croyances initiales (et à la conclusion que beaucoup de gens tirent de cette histoire), Ludd et ses partisans ont découvert que l'introduction des machines n'était pas un inconvénient pour eux. Au lieu de cela, les machines leur permettaient de faire plus de travail à valeur ajoutée, ce qui était non seulement moins banal, mais générait également des salaires plus élevés, plus d'emplois (12) et, par conséquent, une plus grande prospérité.

Modèles centralisés ou décentralisés ?

J'ai beaucoup de respect pour ces vues optimistes, et l'histoire est certainement de leur côté, car l'introduction de nouvelles technologies a tendance à précéder une plus grande création de richesse économique (13) . Cependant, je ne peux pas échapper au sentiment tenace que si - et j'admets que c'est un gros si - la récolte actuelle de modèles d'IA conduit finalement à l'IAG et à la création d'une ressource concurrente des humains, alors l'analogie s'effondre (14).

Cela mis à part, étant donné l'impossibilité d'imposer une interdiction effective du développement de l'IA - temporaire ou autre - il est clair que notre avenir sera de plus en plus affecté par l'IA et ses diverses applications. La question est de savoir si nous, en tant qu'espèce (oui, je considère ce sujet comme si profond), pouvons-nous guider l'IA d'une manière qui nous profite à tous tout en atténuant les inconvénients potentiels. C'est là que la crypto entre en jeu.

Les modèles d'IA sont intrinsèquement centralisés, en partie à cause de leurs coûts de développement et de fonctionnement. ChatGPT-3 coûte environ 12 millions de dollars pour s'entraîner et 100 000 dollars par jour pour fonctionner (15) (je me demande combien de temps il faudra au lobby vert pour commencer à lutter contre l'électricité utilisée dans la formation des modèles d'IA comme il l'a fait contre les crypto-monnaies, même si de telles les critiques sont déplacées). Même si les coûts unitaires des modèles de formation diminuent, en raison de jeux de données plus volumineux et de la nécessité d'augmenter la puissance de calcul, certains estiment que les coûts de formation des modèles de pointe (SoA) pourraient atteindre 100 à 500 millions de dollars (17). dollars - des fonds auxquels peu de gens ont accès. C'est la raison pour laquelle l'IA n'est vraiment dominée que par une poignée d'acteurs, tels que OpenAI, Google et Meta.

Est-ce vraiment une si bonne idée d'avoir une technologie qui, sans aucun doute, empiètera de plus en plus sur la vie quotidienne de chacun d'une myriade de façons différentes, contrôlée par seulement quelques organisations privées (18) ?

Les chaînes de blocs offrent un moyen de rendre l'IA plus transparente et plus responsable, car elles sont capables de stocker et de traiter les données utilisées par les systèmes d'IA de manière décentralisée. Ils fournissent également les moyens d'avoir une gouvernance décentralisée basée sur des mécanismes de consensus bien connus et peuvent être déployés d'une manière sans confiance et résistante à la censure. Bien sûr, cela ne surmontera pas tous les obstacles potentiels, surtout si AGI se concrétise un jour, mais au moins cela empêche le pouvoir de l'IA de se concentrer entre les mains de quelques-uns avec peu ou pas de surveillance publique. L'IA décentralisée basée sur la blockchain n'est pas qu'une chimère. Il existe déjà plusieurs projets visant à mettre en place de tels systèmes.

Un autre avantage accessoire de la combinaison des technologies de l'IA et de la blockchain est qu'elle peut aider à résoudre le problème des "(deep) fake news" qui est susceptible de croître considérablement à mesure que la technologie se déploie plus largement. En vertu d'être sur la blockchain, un historique vérifiable indépendamment est créé permettant de déterminer quand un contenu (vidéo/voix/texte) a été créé et/ou quand il est entré en possession de quelqu'un (chaîne de possession). Cela aidera en rendant plus difficile pour les acteurs malveillants de créer et de distribuer des deepfakes non détectés.

À bien des égards, je suis d'accord avec les commentaires de Gary Gensler qui, dans son récent témoignage devant la Chambre des représentants des États-Unis, a exprimé sa conviction que "la technologie qui, à mon avis, est la plus transformatrice à notre époque est l'intelligence artificielle". Il a poursuivi en ajoutant "Ce n'est pas une crypto". Sur ce dernier je ne suis pas d'accord. Pour les raisons décrites dans cette note de recherche, à mon avis, pour obtenir le plus d'avantages et, ce qui est tout aussi important, atténuer les inconvénients potentiels, la propriété de l'IA sur les technologies sous-jacentes devrait être élargie et son évolution ne pas être laissée entre les mains de quelques technologies privées. entreprises. La blockchain - le fondement de la cryptographie - est le moyen par lequel parvenir à un tel résultat. Ce faisant, nous pouvons peut-être transformer deux technologies transformatrices en quelque chose qui vaut plus que la somme de ses parties, ou comme le titre de cette note le suggère faire 1 + 1 = 3 !

_____

Cette tribune a été traduite de l'anglais vers le français par Trakx.

(3) Voir:  https://en.wikipedia.org/wiki/Turing_test

(4) Soit directement, soit indirectement étant donné que presque tous les journalistes accrédités s'appuient sur des sources d'information en ligne lorsqu'ils rédigent des articles.

(5) Voir: https://cdn.openai.com/papers/gpt-4.pdf

(6) Voir: https://www.forbes.com/sites/jackkelly/2023/03/31/goldman-sachs-predicts-300-million-jobs-will-be-lost-or-degraded-by-artificial-intelligence/?sh=761b1dd2782b

(7) Voir: https://futureoflife.org/open-letter/pause-giant-ai-experiments/

 (8) D'autres - comme Eliezar Yudkowsky - sont allés encore plus loin et ont appelé au démantèlement des centres de données qui alimentent ces modèles d'IA. Peut-être que sa force d'opposition est due aux inquiétudes concernant le basilic de Roko, qui était une expérience de pensée sur une future IA qui serait incitée à créer une simulation de réalité virtuelle pour torturer des personnes qui étaient auparavant conscientes de son existence potentielle mais ne facilitent pas sa création. L'expérience de pensée, publiée en 2010 sur le site Web LessWrong cofondé par Eliezar Yudkowsky, était pour le moins provocante. Allez sur Google - voir: https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/

(9) Les SuperPrompts - l'expression de marque de Brian - sont des instructions textuelles qui peuvent être collées dans ChatGPT et d'autres systèmes d'IA basés sur du texte pour améliorer les résultats de ces systèmes.See: https://readmultiplex.com (FYI - c'est un service d'abonnement).

(10)Il a l'un des meilleurs comptes (@BrianRoemmele) sur Twitter à mon avis.

(11)Voir: https://twitter.com/BrianRoemmele/status/1647969570517393408

(12) La composition structurelle de l'économie est passée d'une économie principalement basée sur l'agriculture à l'industrie et enfin aux services . Au cours de ces transitions, les travailleurs qui n'ont pas pu ou pas voulu se recycler pour correspondre aux compétences requises par les nouvelles industries ont perdu, mais le niveau de vie global a quand même augmenté.

(13-14)Lorsque j'ai soulevé cette question avec Brian, il n'est pas d'accord, étant donné son point de vue, pensant que cela donnera plutôt aux gens beaucoup plus de pouvoir personnel.

(15)Voir: https://www.ciocoverage.com/openais-chatgpt-reportedly-costs-100000-a-day-to-run/

(17) Voir: https://mpost.io/ai-model-training-costs-are-expected-to-rise-from-100-million-to-500-million-by-2030/

(18) Pour tous ceux qui ont l'illusion que les humains n'utiliseraient jamais l'IA pour des raisons néfastes, veuillez consulter -https://www.youtube.com/watch?v=g7YJIpkk7KM  https://twitter.com/chaos_gpt

____

Ryan Shea est un crypto-économiste chez Trakx, une société mondiale de technologie financière qui propose des indices thématiques Crypto Tradable (CTI) sur leur plateforme de trading. Il a travaillé dans la finance pendant plus de deux décennies, y compris des postes de direction dans des institutions d'achat/vente (ADIA/State Street/Lehman Brothers) dans des rôles tels que la recherche macroéconomique, la stratégie d'investissement et la gestion de portefeuille. Il est titulaire d'un BSc et d'un MSc en économie de l'Université de Londres.

Sujets les + lus

|

Sujets les + commentés

Commentaire 0

Votre email ne sera pas affiché publiquement.
Tous les champs sont obligatoires.

Il n'y a actuellement aucun commentaire concernant cet article.
Soyez le premier à donner votre avis !

-

Merci pour votre commentaire. Il sera visible prochainement sous réserve de validation.