Notre futur seigneur de l’intelligence artificielle a besoin d’un mouvement de résistance

Commentaire

L’intelligence artificielle évolue si vite que même les scientifiques ont du mal à suivre. Au cours de la dernière année, des algorithmes d’apprentissage automatique ont commencé à générer des films rudimentaires et de superbes fausses photos. Ils sont encore en train d’écrire du code. À l’avenir, nous nous tournerons probablement vers 2022 lorsque l’IA passera du traitement de l’information à la création de contenu ainsi qu’aux humains.

Mais que se passerait-il si nous y retournions aussi alors que l’IA fait un pas vers la destruction de l’espèce humaine ? Comme hyperboliques et ridicules, des personnalités publiques de Bill Gates, Elon Musk et Stephen Hawking, et tout le chemin du retour jusqu’à Alan Turing, ont exprimé des inquiétudes quant au sort des humains dans un monde où les machines sont plus nombreuses qu’en intelligence, Musk affirmant que l’IA est devenir plus dangereux que les ogives nucléaires.

Après tout, les humains ne traitent pas particulièrement les espèces moins intelligentes, alors qui peut dire que les ordinateurs, entraînés partout sur des données qui reflètent tous les aspects du comportement humain, ne “mettront pas leurs objectifs avant les nôtres” comme le légendaire informaticien Marvin Minsky une fois prévenu.

Rafraîchissant, il y a de bonnes nouvelles. De plus en plus de scientifiques cherchent à rendre les systèmes d’apprentissage en profondeur plus transparents et évolutifs. Cet élan ne doit jamais s’arrêter. À mesure que ces programmes gagneront en influence sur les marchés financiers, les médias sociaux et les chaînes d’approvisionnement, les entreprises technologiques devront commencer à donner la priorité à la sécurité de l’IA plutôt qu’aux capacités.

L’année dernière, dans les principaux laboratoires d’IA du monde, environ 100 chercheurs à temps plein se sont consacrés à la construction de systèmes sécurisés, selon le rapport State of AI in 2021 produit chaque année par les investisseurs en capital-risque londoniens Ian Hogarth et Nathan Banaich. Leur rapport de cette année a révélé qu’il y a encore environ 300 chercheurs travaillant à plein temps sur la sécurité de l’IA.

“C’est un nombre très faible”, a déclaré Hogarth lors d’une discussion Twitter Spaces avec moi cette semaine sur la future menace de l’IA. “Non seulement il y a très peu de personnes qui travaillent à aligner ces systèmes, mais c’est aussi une sorte de Far West.”

Hogarth faisait référence à la façon dont, au cours de l’année écoulée, un outil d’IA rapide et des recherches ont été développés par des groupes open-source, qui affirment que les machines super-intelligentes ne devraient pas être contrôlées et construites en secret par quelques grandes entreprises, mais créées dans le ouvert. En août 2021, par exemple, l’organisation communautaire EleutherAI a développé une version publique d’un outil puissant qui peut écrire des commentaires factuels et des essais sur presque tous les sujets, appelé GPT-Neo. L’outil original, appelé GPT-3, a été développé par OpenAI, une société cofondée par Musk et largement financée par Microsoft Corp. qui offre un accès limité à ses puissants systèmes.

Puis cette année, quelques mois après qu’OpenAI ait séduit la communauté IA avec un système révolutionnaire de génération d’images appelé DALL-E 2, une entreprise open source appelée Stable Diffusion a publié sa propre version de l’outil en public, gratuitement.

L’un des avantages des logiciels open source est qu’en étant ouverts, un plus grand nombre de personnes les testent constamment pour détecter leurs inefficacités. C’est pourquoi Linux est devenu l’un des systèmes d’exploitation les plus sécurisés disponibles au public.

Mais lancer de puissants systèmes d’IA au grand jour augmente également le risque qu’ils soient mal utilisés. Si l’IA est aussi potentiellement nocive qu’un virus ou une contamination nucléaire, il est peut-être logique de centraliser son développement. Après tout, les virus sont testés dans des laboratoires de biosécurité et l’uranium est enrichi dans des environnements soigneusement contrôlés. Cependant, la recherche sur les virus et l’énergie nucléaire est réglementée et, les gouvernements suivant le rythme rapide de l’IA, il n’existe toujours pas de directives claires pour son développement.

“Nous avons pratiquement eu le pire des deux mondes”, a déclaré Hogarth. L’IA risque d’être mal utilisée en se tenant à l’extérieur, mais personne ne surveille ce qui se passe lorsque cela se fait à huis clos.

Pour l’instant, au moins, il est convaincant de voir l’attention croissante portée à l’alignement de l’IA, un domaine en plein essor qui fait référence à la conception de systèmes d’IA “alignés” sur les objectifs humains. Des sociétés d’IA de premier plan comme DeepMind et OpenAI d’Alphabet Inc. a de nombreuses équipes travaillant sur l’alignement de l’IA, et de nombreux chercheurs de ces entreprises ont lancé leurs propres startups, dont certaines se concentrent sur la sécurisation de l’IA. Il s’agit notamment d’Anthropic, basée à San Francisco, dont l’équipe fondatrice a créé OpenAI et a levé 580 millions de dollars auprès d’investisseurs plus tôt cette année, et Conjecture, basée à Londres, qui a récemment été soutenue par les fondateurs de Github Inc., Stripe Inc. et FTX Trading Ltd.

La spéculation part du principe que l’IA atteindra la parité avec l’intelligence humaine dans les cinq prochaines années et que sa trajectoire actuelle est catastrophique pour l’espèce humaine.

Mais quand j’ai demandé au PDG de Conjecture, Connor Leahy, pourquoi l’IA pourrait vouloir blesser les humains en premier lieu, il a répondu par une absurdité. “Imaginez que les gens veuillent inonder une vallée pour construire un barrage hydroélectrique, et qu’il y ait une fourmilière dans la vallée”, a-t-il déclaré. « Cela n’empêchera pas les gens de construire, et la fourmilière sera immédiatement inondée. Aucun humain n’a jamais pensé à faire du mal aux fourmis. Ils veulent juste plus d’énergie, et c’est le moyen le plus efficace d’atteindre cet objectif. De même, les IA autonomes nécessiteront plus d’énergie, une communication plus rapide et plus d’intelligence pour atteindre leurs objectifs.”

Leahy dit que pour éviter cet avenir sombre, le monde a besoin d’un “portefeuille de paris”, y compris l’étude d’algorithmes d’apprentissage en profondeur pour mieux comprendre comment ils prennent des décisions et essayer de donner à l’IA un raisonnement plus humain.

Même si les craintes de Leahy semblent exagérées, il est clair que l’IA n’est pas sur une voie totalement alignée sur les intérêts humains. Il suffit de regarder quelques-uns des efforts récents pour créer des chatbots. Microsoft a abandonné son bot Tay de 2016, qui a appris des interactions avec les utilisateurs de Twitter, après avoir publié des messages racistes et sexuellement chargés dans les heures suivant sa sortie. En août de cette année, Meta Platforms Inc. a publié d’un chatbot qui dit que Donald Trump est toujours président, formé au texte public sur Internet.

Personne ne sait si l’IA fera un jour des ravages sur les marchés financiers ou torpillera la chaîne d’approvisionnement alimentaire. Mais cela peut opposer les gens les uns aux autres via les médias sociaux, ce qui est probablement déjà en train de se produire. Les puissants systèmes d’IA qui recommandent des publications aux utilisateurs sur Twitter Inc. et Facebook vise à accélérer nos interactions, ce qui signifie inévitablement fournir du contenu qui incite à la colère ou à la désinformation. En ce qui concerne “l’alignement de l’IA”, changer les incitations serait un bon point de départ.

Plus de Bloomberg Opinion:

• La terrible et terrible semaine de la technologie racontée en 10 graphiques : Tim Culpan

• Moment Wile E. Coyote alors que la technologie s’enfuit de la falaise : John Authers

• L’outil AI Art Tool de Microsoft pourrait être une bonne chose : Parmy Olson

Cette colonne ne reflète pas nécessairement l’opinion du comité de rédaction ou de Bloomberg LP et de ses propriétaires.

Parmy Olson est une chroniqueuse de Bloomberg Opinion couvrant la technologie. Ancien journaliste du Wall Street Journal et de Forbes, il est l’auteur de “We Are Anonymous”.

D’autres histoires comme celle-ci sont disponibles sur bloomberg.com/opinion

Leave a Reply

Your email address will not be published. Required fields are marked *