« Le mythe de l’intelligence artificielle générale ressemble beaucoup à une théorie du complot et c’est peut-être la plus importante de notre époque ». Obsédées par cette technologie hypothétique, les entreprises d’IA nous la vendent avec acharnement, explique le journaliste Will Douglas Heaven dans la Technology Review.
Pour élaborer une théorie du complot, il faut plusieurs ingrédients, rappelle-t-il : un schéma suffisamment flexible pour entretenir la croyance même lorsque les choses ne se déroulent pas comme prévu ; la promesse d’un avenir meilleur qui ne peut se réaliser que si les croyants découvrent des vérités cachées ; et l’espoir d’être sauvé des horreurs de ce monde. L’intelligence artificielle générale (IAG) remplit quasiment tous ces critères. Et plus on examine cette idée de près, plus elle ressemble à un complot. Ce n’en est pas totalement un, bien sûr, pas exactement, concède Heaven. « Mais en nous penchant sur les points communs entre l’IAG et les véritables théories du complot, je pense que nous pouvons mieux cerner ce concept et le révéler pour ce qu’il est : un délire techno-utopique (ou techno-dystopique, à vous de choisir) qui s’est ancré dans des croyances profondément enracinées et difficiles à déraciner ».
Une histoire de l’IAG
Dans son article, Heaven retrace l’histoire du terme d’intelligence artificielle générale, initié par Ben Goertzel et Shane Legg. Quand ils discutent de cette idée, l’idée d’une IA capable d’imiter voire dépasser les capacités humaines était alors une plaisanterie. Mais Goertzel en tira un un livre sous ce titre (Springer, 2006) qui se présentait sous les atours les plus sérieux, puis organisa en 2008 une conférence dédiée au sujet (une conférence devenue annuelle et qui continue encore). En rejoignant DeepMind en tant que cofondateur, Shane Legg y importe le terme, légitimant le concept. Proche de Peter Thiel et de Eliezer Yudkowsky, Goertzel a beaucoup discuté avec eux du concept. Mais si l’iconoclaste Ben Goertzel était enthousiaste, le sombre Yudkowsky, lui, était beaucoup plus pessimiste, voyant l’arrivée de l’AGI comme une catastrophe. Malgré tous ces efforts, le concept n’a alors rencontré que peu d’échos et semblait surtout tenir de la pure science-fiction.
C’est la publication de Superintelligence par le philosophe Nick Bostrom en 2014, qui va changer les choses. Bostrom rend acceptable les concepts spécieux de Yudkowsky. Aujourd’hui, l’IAG est évoquée partout, que ce soit pour annoncer l’arrivée de temps immémoriaux ou pour prédire l’extermination de l’humanité.
Dans son récent livre, apocalyptique, If Anyone Builds It, Everyone Dies : why Superhuman AI Would Kill Us All (Si quelqu’un le construit, tout le monde meurt, Little Brown, 2025, non traduit), coécrit avec Nate Soares, Yudkowsky accumule les déclarations extravagantes pour une interdiction totale de l’IAG. Un ouvrage « décousu et superficiel », comme l’explique le journaliste Adam Becker – auteur lui-même de More Everything Forever : AI Overlords, Space Empires, and Silicon Valley’s Crusade to Control the Fate of Humanity (Hachette, 2025, non traduit) – dans sa recension critique pour The Atlantic, qui « tente de nous faire croire que l’intelligence est un concept discret et mesurable, et que son accroissement est une question de ressources et de puissance de calcul ». L’IA superintelligente hypothétique des Cassandre « fait ce dont rêvent toutes les start-ups technologiques : croître de façon exponentielle et éliminer ses concurrents jusqu’à atteindre un monopole absolu », expliquait déjà l’écrivain de science-fiction Ted Chiang. La superintelligence évoque bien plus un capitalisme débridé porté par des individus parfaitement néoréactionnaires qu’autre chose, comme l’analysait Elisabeth Sandifer dans son livre sur l’extrême-droite technologique américaine, ou encore les livres de Thibault Prévost ou Nastasia Hadjadji et Olivier Tesquet que nous avons déjà chroniqué. « En réalité, l’apocalypse de l’IA qui inquiète tant Yudkowsky et Soares n’est autre que notre propre monde, vu à travers le prisme déformant d’un miroir de science-fiction », une « vision simpliste du salut technologique », conclut Becker.
Malgré sa vacuité, l’ouvrage de Soares et Yudkowsky est un des bestsellers du New York Times. Pour Heaven, comme toutes les théories du complot les plus puissantes, l’intelligence artificielle générale s’est infiltrée dans le débat public et a pris racine.
Le mythe d’une machine plus intelligente que l’humain, capable de tout faire, se retrouve pourtant dès l’origine de l’IA, chez Alan Turing comme chez John McCarthy. « Mais l’IAG n’est pas une technologie, c’est un rêve », affirme Becker. Comme nombre de théories du complot, il est impossible de réfuter une idée aussi protéiforme que l’IAG. Discuter d’IAG consiste en un affrontement de visions du monde, et non en un échange de raisonnements fondés sur des preuves, puisqu’il ne peut y en avoir autour d’un objet hypothétique pour lequel il n’existe pas de définition précise et partagée. Les prédictions sur l’avènement de l’IAG sont formulées avec la précision de numérologues annonçant la fin des temps. Sans véritable enjeu, les échéances sont repoussées sans conviction. « L’IAG, c’est toujours ce qui arrivera, la prochaine fois, mais son arrivée imminente est la vérité que partagent ses adeptes ».
Du conspirationnisme
Pour l’anthropologue des religions Jeremy Cohen, qui étudie les théories du complot dans les milieux technologiques, la vérité cachée « est un élément fondamental de la pensée conspirationniste ». Pour Ben Goertzel et les thuriféraires de l’IAG, les raisons du scepticisme envers l’IAG tiennent du scepticisme global. « Avant chaque grande avancée technique, du vol humain à l’énergie électrique, des hordes de prétendus experts vous expliquaient pourquoi cela n’arriverait jamais. En réalité, la plupart des gens ne croient qu’à ce qu’ils voient. » Si vous n’êtes pas convaincus par l’IAG, c’est que vous êtes un idiot naïf disent ses partisans, inversant la charge de la preuve, alors qu’ils sont bien plus que d’autres les idiots utiles de ce qu’ils dénoncent et vénèrent à la fois.
« L’idée de donner naissance à des dieux-machines est évidemment très flatteuse pour l’ego », affirme la philosophe Shannon Vallor de l’Edinburgh Futures Institute (voir notre article sur son livre, « L’IA n’est qu’un miroir »). « C’est incroyablement séduisant de penser que l’on pose soi-même les fondements de cette transcendance ». C’est un autre point commun avec les théories du complot. Une partie de l’attrait réside dans le désir de trouver un sens à un monde chaotique et parfois dénué de sens et dans l’aspiration à être une personne consciente du danger. Pour David Krueger, chercheur à l’Université de Montréal et ancien directeur de recherche à l’Institut de sécurité de l’IA du Royaume-Uni, nombre de personnes travaillant sur l’IA considèrent cette technologie comme notre successeur naturel. « Ils voient cela comme une forme de maternité » dont ils ont la charge, explique-t-il. Jeremy Cohen, lui, dresse des parallèles entre de nombreuses théories du complot moderne et le mouvement New Age, qui connut son apogée dans les années 1970 et 1980. Ses adeptes croyaient que l’humanité était sur le point d’accéder à une ère de bien-être spirituel et d’éveil de la conscience, instaurant un monde plus paisible et prospère. L’idée était qu’en s’adonnant à un ensemble de pratiques pseudo-religieuses, les humains transcenderaient leurs limites et accéderaient à une sorte d’utopie hippie. Pour Cohen, nous sommes confrontés aux mêmes attentes à l’égard de l’IAG : que ce soit par la destruction ou la sublimation de l’humanité, elle seule permettra de surmonter les problèmes auxquels l’humanité est confrontée. Pour Yudkowsky et Soares, les enjeux de l’IAG sont plus importants que le risque nucléaire ou le risque climatique.
Pour beaucoup de ceux qui optent pour cette croyance, l’IAG arrivera d’un seul coup, sous la forme d’une singularité technologique introduite par l’auteur de science-fiction Vernor Vinge dans les années 80. Un moment transcendant où l’humanité, telle que nous la connaissons, changera à jamais. Pour Shannon Vallor, ce système de croyance est remarquable par la façon dont la foi en la technologie a remplacé la foi en l’humanité. Malgré son côté ésotérique, la pensée New Age était au moins motivée par l’idée que les gens avaient le potentiel de changer le monde par eux-mêmes, pourvu qu’ils puissent y accéder. Avec la quête de l’IA générale, nous avons abandonné cette confiance en nous et adhéré à l’idée que seule la technologie peut nous sauver, explique-t-elle. C’est une pensée séduisante, voire réconfortante, pour beaucoup. « Nous vivons à une époque où les autres voies d’amélioration matérielle de la vie humaine et de nos sociétés semblent épuisées », affirme Vallor. La technologie promettait autrefois un avenir meilleur : le progrès était une échelle que nous devions gravir vers l’épanouissement humain et social. « Nous avons dépassé ce stade », déclare Vallor. « Je pense que ce qui redonne espoir à beaucoup et leur permet de retrouver cet optimisme quant à l’avenir, c’est l’IA générale. » Poussons cette idée à son terme et, une fois encore, l’IA générale devient une sorte de divinité, capable de soulager les souffrances terrestres, affirme Vallor. Kelly Joyce, sociologue à l’Université de Caroline du Nord, qui étudie comment les croyances culturelles, politiques et économiques façonnent notre rapport à la technologie, considère toutes ces prédictions extravagantes concernant l’IA générale comme quelque chose de plus banal : un exemple parmi d’autres de la tendance actuelle du secteur technologique à faire des promesses excessives. « Ce qui m’intrigue, c’est que nous nous laissions prendre au piège. »
« À chaque fois », dit-elle. « Il existe une conviction profonde que la technologie est supérieure aux êtres humains. » Joyce pense que c’est pourquoi, lorsque l’engouement s’installe, les gens sont prédisposés à y croire. « C’est une religion », dit-elle. « Nous croyons en la technologie. La technologie est divine. Il est très difficile de s’y opposer. Les gens ne veulent pas l’entendre. »
Le fantasme d’ordinateurs capables de faire presque tout ce qu’un humain peut faire est séduisant. Mais comme beaucoup de théories du complot répandues, elle a des conséquences bien réelles. Elle fausse notre perception des enjeux, déstabilise l’industrie pour l’éloigner d’applications immédiates… Et surtout, elle nous invite à la paresse. A quoi bon s’acharner à résoudre les problèmes du monde réel, quand les machines s’en chargeront demain ? Le projet pharaonique de l’IA engloutit désormais des centaines de milliards de dollars et détourne nombre d’investissements de technologies plus immédiates, capables de changer dès à présent la vie des gens.
Tina Law, spécialiste des politiques technologiques à l’Université de Californie à Davis, s’inquiète du fait que les décideurs politiques soient davantage influencés par le discours selon lequel l’IA finira par nous anéantir que par les préoccupations réelles concernant l’impact concret et immédiat de l’IA sur la vie des gens dès aujourd’hui. La question des inégalités est occultée par la notion de risque existentiel. « Le battage médiatique est une stratégie lucrative pour les entreprises technologiques », affirme Law. Ce battage médiatique repose en grande partie sur l’idée que ce qui se passe est inévitable : si nous ne le construisons pas, quelqu’un d’autre le fera. « Quand quelque chose est présenté comme inévitable », rappelle Law, « les gens doutent non seulement de leur capacité à résister, mais aussi de leur droit à le faire. » Tout le monde se retrouve piégé.
Selon Milton Mueller, du Georgia Institute of Technology, spécialiste des politiques et de la réglementation technologiques, le champ de distorsion lié à l’IAG ne se limite pas aux politiques technologiques. La course à l’IA générale est comparée à la course à la bombe atomique, explique-t-il. « Celui qui y parviendra en premier aura un pouvoir absolu sur tous les autres. C’est une idée folle et dangereuse qui faussera profondément notre approche de la politique étrangère. » Les entreprises (et les gouvernements) ont tout intérêt à promouvoir le mythe de l’IA générale, explique encore Mueller, car elles peuvent ainsi prétendre être les premières à y parvenir. Mais comme il s’agit d’une course sans consensus sur la ligne d’arrivée, le mythe peut être entretenu tant qu’il est utile. Ou tant que les investisseurs sont prêts à y croire. Il est facile d’imaginer comment cela se déroule. Ce n’est ni l’utopie ni l’enfer : c’est OpenAI et ses pairs qui s’enrichissent considérablement.
Voilà. Le grand complot de l’IAG est enfin résolu, ironise Heaven. « Et peut-être cela nous ramène-t-il à la question du complot, et à un rebondissement inattendu dans cette histoire. Jusqu’ici, nous avons ignoré un aspect courant de la pensée conspirationniste : l’existence d’un groupe de personnalités influentes tirant les ficelles en coulisses et la conviction que, par la recherche de la vérité, les croyants peuvent démasquer cette cabale ». L’IAG n’accuse publiquement aucune force occulte d’entraver son développement ou d’en dissimuler les secrets. Aucun complot n’est ourdi par les Illuminati ou le Forum économique mondial… ici, ceux-là même qui dénoncent les dangers fomentent la cabale. Ceux qui propagent la théorie du complot de l’IAG sont ses principaux instigateurs. Les géants de la Silicon Valley investissent toutes leurs ressources dans la création d’une IAG à des fins lucratives. Le mythe de l’IAG sert leurs intérêts plus que ceux de quiconque. Comme le souligne Vallor : « Si OpenAI affirme construire une machine qui rendra les entreprises encore plus puissantes qu’elles ne le sont aujourd’hui, elle n’obtiendra pas l’adhésion du public nécessaire. » « N’oubliez pas : vous créez un dieu et vous finissez par lui ressembler », ironise Heaven. « Beaucoup pensent que s’ils y parviennent en premier, ils pourront dominer le monde ».
À bien des égards, conclut Heaven, je pense que l’idée même d’IAG repose sur une vision déformée de ce que l’on attend de la technologie, et même de ce qu’est l’intelligence. En résumé, l’argument en faveur de l’IA générale repose sur le postulat qu’une technologie, l’IA, a progressé très rapidement et continuera de progresser. Mais abstraction faite des objections techniques – que se passera-t-il si les progrès cessent ? –, il ne reste plus que l’idée que l’intelligence est une ressource dont on peut augmenter la quantité grâce aux données, à la puissance de calcul ou aux réseaux neuronaux adéquats. Or, ce n’est pas le cas. L’intelligence n’est pas une quantité que l’on peut accroître indéfiniment. Des personnes intelligentes peuvent exceller dans un domaine et être moins douées dans d’autres. Tout comme les babioles dopées à l’IA peuvent exceller dans une tâche et être nulles dans bien d’autres, surtout toutes celles, innombrables, qui échappent à leurs données et continueront de leur échapper.
De l’IAG au fantasme des trombones
Ce fantasme d’automatisation totale que produirait l’IAG est aussi la symbolique du jeu du maximiseur de trombone. Le jeu met en scène, très concrètement, une idée développée par le chantre du transhumanisme d’extrême droite, Nick Bostrom, dès 2002, à savoir celle du « risque existentiel » que ferait peser sur nous cette intelligence artificielle superintelligente, capable de créer des situations pouvant détruire toute vie sur terre. Pour Bostrom, l’usine à trombone est un démonstrateur, où une IA qui aurait pour seul objectif de produire des trombones, pourrait exploiter toutes les ressources pour se faire jusqu’à leur plus total épuisement, en optimisant son objectif sans limites.
Cette démonstration, pourtant extrêmement simpliste, a marqué les esprits. Son aporie même, qui fait d’un objectif absurde le démonstrateur ultime de l’intelligence des machines, demeure particulièrement problématique. Puisqu’il n’y a ici aucune intelligence des machines, mais bien au contraire, la démonstration de leur pure aberration. Or, la crainte que les systèmes d’IA puissent interpréter les commandes de manière catastrophique « repose sur des hypothèses douteuses quant au déploiement de la technologie dans le monde réel », comme le disaient les chercheurs Arvind Narayanan et Sayash Kapoor. Le jeu est bien plus un simulateur de marché qu’un jeu sur l’IA. Universal Paperclips incite les joueurs à l’empathie avec ses buts, notamment en proposant de nouvelles fonctionnalités pour les assouvir, et c’est bien notre empathie avec le jeu qui conduit l’IA à détruire l’humanité pour accomplir son but absurde de productivité sans limite. Son créateur, Frank Lantz, raconte d’ailleurs que ce n’est pas l’augmentation des chiffres, mais la manière dont ils augmentent qui incite les joueurs à cliquer et à faire cœur avec les objectifs du jeu. « Les jeux incrémentaux sont très bruts. Ils s’attachent à un processus pour faire que les joueurs deviennent obsédés par sa croissance». L’interface épurée hypnotise par la répétition. « Le joueur détruit l’univers avec le même sentiment d’éloignement que lorsqu’on commande un pull en ligne ». Cette fiction est censée nous prévenir que l’IA pourrait avoir des motivations très différentes de l’homme.
Pourtant le jeu, très scripté, ne montre en rien que l’IA pourrait raisonner, planifier ou comprendre le monde physique ou le dominer. Il masque surtout que des fonctionnalités déclenchent des possibilités et que celles-ci sont prévues par l’interface et le concepteur du jeu. La fable du maximiseur de trombone ne démontre en rien que l’IA pourrait prendre le contrôle du monde, mais que ses objectifs et fonctions, eux, sont le produit de celui qui les a programmés. Le maximiseur de trombone n’accomplit aucune démonstration qu’une intelligence artificielle générale conduirait à l’extermination du genre humain. Comme l’ont dit Kate Crawford ou Melanie Mitchell, les voix les plus fortes qui débattent des dangers potentiels de la superintelligence sont celles d’hommes blancs aisés et racistes, et, pour eux, la plus grande menace est peut-être l’émergence d’un prédateur au sommet de l’intelligence artificielle, mais qui est certainement personne d’autre qu’eux-mêmes. Le capitalisme est un bien plus grand maximiseur que l’IA. Les entreprises maximisent le cours de leurs actions sans se soucier des coûts, qu’ils soient humains, environnementaux ou autres. Ce processus d’optimisation est bien plus incontrôlable et pourrait bien rendre notre planète inhabitable bien avant que nous sachions comment créer une IA optimisant les trombones.
Hubert Guillaud