Dans la même rubrique
- ↪ QuitGPT (1/4) : de la politisation du boycott
- ↪ Vérification d’âge (3/4) : la panique morale en roue libre
- ↪ Vérification d’âge (2/4) : de l’impunité des géants à la criminalisation des usagers
- ↪ Vérification d’âge (1/4) : vers un internet de moins en moins sûr
- ↪ Syndicats : négociez les algorithmes !
Si les boycotts montrent une efficacité limitée, la contestation même désordonnée de la tech gagne du terrain, estime l’historien Brian Merchant, dans sa newsletter.
Aux Etats-Unis, les sondages d’opinion (comme celui du Pew Internet ou de YouGov) montrent que les Américains sont plus inquiets qu’enthousiastes à l’égard de l’IA. Les contestations contre le déploiement de Data centers s’organisent et rencontrent souvent un certain succès, voire quelques victoires. Dans les Etats qui ont proposé des réglementations pour encadrer l’IA, comme New York, le Colorado ou la Californie, le soutien est majoritaire. « Une grande partie de cette mobilisation est alimentée par les critiques de la gauche à l’égard des systèmes d’IA. Que ce soit quand elle dénonce l’impact que l’IA aurait sur le travail lorsqu’elle serait gérée par la direction (comme ce fut le cas avec les grèves des acteurs et scénaristes menées par les syndicats, ou la loi californienne No Robo Bosses Act …), le coût en ressources et en énergie des centres de données, la pratique consistant à exploiter des œuvres sans consentement pour l’entraînement des modèles (dénoncée avec force par des artistes de gauche comme Molly Crabapple dès les débuts de Midjourney et mis en avant récemment dans l’émission 60 minutes de CBS News)… Les libéraux de gauche ne peuvent s’attribuer tout le mérite de cet alarmisme : les PDG des entreprises d’IA eux-mêmes s’efforcent de faire savoir à tous qu’ils entendent automatiser les emplois du monde entier et qu’ils craignent de créer un monde à la Skynet », ironise Merchant.
La gauche passerait-elle à côté de l’IA ?
Pour les défenseurs de l’IA, pourtant, « la gauche passerait à côté de l’IA », explique Dan Kagan-Kans, accusant les pourfendeurs de l’IA de ne la décrire que comme une machine à défaillance qui ne produirait pas grand-chose d’intéressant. Or si en 2021 on pouvait considérer l’IA comme des « perroquets stochastiques », peut-on encore l’affirmer aujourd’hui ?
Pour Kagan-Kans, les critiques d’Emily Bender qui décrivent l’IA comme une arnaque ou de Cory Doctorow qui décrit l’IA comme un pyramide de Ponzi, donnent l’impression « d’une vision du capitalisme non pas comme un système capable d’externaliser injustement les préjudices, ni comme un système fondamentalement négatif, mais comme un système essentiellement factice ». S’il pointe également que les thuriféraires de la Tech semblent empêtrés dans leurs propres contradictions (puisqu’ils ne cessent de prévenir que leur technologie pourrait détruire le monde, tout en la développant), les contempteurs de l’IA seraient coincés dans une critique qui peinerait à reconnaître les progrès que l’IA a réalisé depuis le lancement de ChatGPT (notamment, bien sûr, les progrès de l’IA en terme de capacités de programmation, que nous évoquions ici et là).
Pour Seán Ó hÉigeartaigh, figure du long-termisme, la critique universitaire de gauche de l’IA est gangrénée par des pessimistes. Les chercheurs les plus optimistes envers l’IA sont toujours dans l’industrie et ont accès à des moyens, des ressources et des outils à la pointe qui leur permettent de saisir les progrès actuels de l’IA. Les critiques universitaires ne seraient que celles d’universitaires sans moyens et aigris, un ramassis de pessimistes qui n’ont pas su faire carrière dans l’industrie. Une critique bien facile et très approximative, qui oublie que le monde de l’entreprise supporte finalement très mal les critiques, comme le montraient les réactions aux boycotts et aux contestations internes que nous évoquions précédemment. Une critique qui oublie également que le monde de l’entreprise reste activement inconscient des problèmes qu’elle génère. La critique des perroquets stochastiques d’Emily Bender, Timnit Gebru, Angelina McMillan-Major et Margaret Mitchell n’est pas venue d’un monde universitaire débranché des réalités de l’industrie, mais de son sein, comme le montrait l’excellent article de Tom Simonite racontant l’histoire du licenciement de Timnit Grebu en 2021 – et que vous pouvez relire dans la traduction qui vient de paraître chez Audimat édition sous le titre de Ethique Fail.
Le cœur de la critique de Kagan-Kans consiste à dire que la gauche n’a pas tendance à croire que l’IA puisse apporter quelque chose à l’humanité. « Plus concrètement, le fait de ne pas prendre l’IA au sérieux pourrait aveugler la gauche quant à ses applications politiques. (…) On pourrait craindre que la gauche s’abstienne d’utiliser ces outils lorsque la droite ne le fait pas, que ce soit en politique, lors de campagnes ou dans l’élaboration des politiques publiques. » Des données vont déjà dans ce sens : 44 % des consultants politiques républicains utilisent quotidiennement l’IA dans le cadre de leur travail, contre 28 % chez les démocrates, selon l’Association américaine des consultants politiques. Pas sûr que ce soit un argument très percutant. A défaut d’y répondre en tout cas, on a déjà vu, dans nos pages, des questions sur l’usage de l’IA et notamment de savoir s’il pouvait soutenir la contestation de gauche.
La polémique des perroquets
Mais surtout, comme l’explique en réponse Margaret Mitchell elle-même, cette critique qui affirme que les contempteurs de l’IA seraient déconnectés de ses progrès est bien pauvre. Leur raisonnement tient d’un simple sophisme : « l’IA est capable de réaliser des choses impressionnantes => c’est tellement impressionnant que je dirais qu’elle peut raisonner => les détracteurs de l’IA nient qu’elle puisse être impressionnante => les détracteurs de l’IA nient qu’elle puisse être capable de raisonner => les détracteurs de l’IA invoquent souvent la métaphore du « perroquet stochastique » => par conséquent, la métaphore du « perroquet stochastique » est erronée => par conséquent, les détracteurs de l’IA ont tort en général. »
Or, rappelle Mitchell qui invite à relire l’article des perroquets stochastiques, cette critique n’a jamais dit que les LLM ne pouvaient pas être utiles et n’a pas désigné tous les systèmes d’IA comme étant des perroquets (seulement les grands modèles de langage). « La stochasticité (qui est un synonyme de probabiliste, NDE) est d’une puissance remarquable ». Un LLM peut vous dire à quel point il aime le camping, même s’il n’en a jamais fait. Ils utilisent nos pensées les plus profondes apprises dans leurs données d’entraînement et nous les renvoient : « Je pense », pourrait-il dire, avant d’enchaîner avec l’implicature correspondante : « Je suis ». « La stochasticité et la capacité à reproduire quasiment tout ce qui est écrit sur Internet (et ailleurs) alimentent des systèmes de conversation IA incroyablement performants, fascinants… et trompeurs. » Ils donnent l’impression de « comprendre » et de « penser » comme des humains. « Autrement dit, on pourrait croire que les modèles de langage ne sont pas des perroquets stochastiques, car ce sont de très bons perroquets stochastiques ». Mais ils nous font croire que « la capacité à s’exprimer serait désormais la preuve de l’intelligence ». Les chatbots modernes effectuent un traitement pour transformer la saisie linguistique d’un utilisateur en une réponse correctement formulée. Ce processus est de plus en plus souvent désigné par le terme « raisonnement », qui évoque la cognition humaine, même si une terminologie informatique comme « traitement orienté vers un but » serait plus appropriée, rappelle la chercheuse. Mais ces métaphores sont rarement remises en question ou réajustées. Celles qui entourent l’IA se sont révélées particulièrement productives, mais les termes d’intelligence, d’apprentissage, de compréhension, d’attention, de chaîne de pensée, de raisonnement… nous induisent en erreur. Ces termes nous conduisent dans la situation actuelle où « la distinction entre langage littéral et métaphorique s’estompe dans le discours sur l’IA ». « Les métaphores se retournent contre elles-mêmes : que font les systèmes d’IA avant de produire une réponse ? Ils raisonnent. Comment le savons-nous ? Parce que nous appelons cela du raisonnement. »
Or, rappelle-t-elle, « la métaphore du perroquet stochastique est utile pour identifier ces pièges anthropomorphiques et les déjouer ». Utiliser des termes humains pour les appliquer à un système fondamentalement différent est à la fois un réflexe humain tout à fait naturel et un obstacle majeur à la compréhension de ce qui se passe réellement. « Ces termes n’éclairent pas tant les systèmes d’IA qu’ils ne les projettent, et ce qui se perd dans cette projection, c’est la clarté sur la nature même de ces systèmes. »
L’idée que le concept de « perroquet stochastique » soit erroné parce que les LLM peuvent être utiles ou sont capables de prouesses techniques repose sur une mauvaise compréhension du terme. Le terme « met en garde contre la perte de contact entre les données d’entrée et la réponse de sortie, ce qui conduit à un type particulier d’erreur de raisonnement – une erreur ancienne et néfaste – où les sorties d’un système sont prises pour des preuves de sa nature intrinsèque. Les LLM produisent un langage fluide. Or, le langage fluide est ce que les humains associent à l’intelligence. Par conséquent, selon ce raisonnement, les LLM sont intelligents. Il s’agit d’une erreur de logique que ce cadre conceptuel visait précisément à dénoncer. »
Ce que rappelle Mitchell, c’est que la critique n’a jamais considéré ces outils comme des gadgets, mais a toujours pointé leurs limites et leurs impacts.
A l’inverse, ceux qui s’énervent de la déconsidération que semble porter le terme de perroquets, expliquent que ce terme signifierait que l’IA ne serait qu’une mode passagère. C’est ce qu’affirme par exemple le chercheur norvégien, Henrik Skaug Saetra, dans un récent article qui s’inquiète des conséquences de l’amélioration des outils d’IA.
C’est peut-être oublier quand même que la critique de l’IA ne les a pas seulement décrit comme des perroquets, mais a aussi beaucoup montré leurs impacts et effets politiques, économiques et sociaux. Alors certes, plus ces systèmes sont sophistiqués et intégrés, dans les processus de travail notamment, plus ils risquent de devenir indispensables. Saetra rappelle que le sociologue industriel, Stephen Barley distinguait les changements technologiques de substitution (un outil en remplace un autre) des changements infrastructurels (un outil devient une nouvelle infrastructure qui transforme l’organisation du travail). Pour Saetra, le remplacement des codeurs par des machines vise à déplacer le goulot d’étranglement qu’ils représentaient, comme le passage à la PAO a défait le travail des compositeurs, avec pour conséquence, la prolétarisation du travail graphique. « Lorsque les dirigeants de Spotify ou de Google se vantent que l’IA écrit 25 % ou 30 % de leur code, ils ne parlent pas seulement d’efficacité : ils parlent de l’érosion du pouvoir des ingénieurs. » Pour Saetra, la critique distante du perroquet qui semblait dire que ces outils n’étaient pas puissants ne suffit plus. On ne peut pas minimiser leurs portées et leurs effets. « Les perroquets sont désormais aux commandes. Ce ne sont ni des dieux, ni des intelligences artificielles, ni des êtres capables de comprendre l’univers. Mais ils réorganisent
le monde du travail. Et si nous voulons façonner, ralentir, réorienter ou maîtriser ce processus, nous devrions commencer par l’observer de front – sans slogans rassurants, et sans le luxe du mépris.»
Mais à nouveau, la critique des perroquets n’a jamais dit que ces machines étaient peu puissantes… Pire, les mouvements qu’on fait depuis ses autrices, ont bien plus montré qu’elles étaient bien plus critiques de leurs effets sociaux qu’autre chose. Pour ma part, on fait surtout ici aux autrices des perroquets stochastiques un bien mauvais procès.
La gauche minimise-t-elle le pouvoir de l’IA ?
Croire que la gauche minimise le pouvoir de l’IA signifie surtout ne pas lire les innombrables critiques qu’elle adresse.
Dans son article, Dan Kagan-Kans, estime que la gauche passerait à côté de l’opportunité d’améliorer la gouvernance de l’IA. Dean W. Ball, l’un des principaux rédacteurs de la politique d’IA à la Maison Blanche, affirme avec conviction qu’en ne prenant pas au sérieux les capacités de l’IA, la gauche passerait à côté d’importantes opportunités d’améliorer sa gouvernance. « La gauche a elle aussi besoin d’un État performant », soutient Ball. « Si j’étais à gauche, ma première question serait : comment pouvons-nous utiliser l’IA pour renforcer considérablement les capacités de l’État et étendre significativement l’aptitude du gouvernement à fournir des services publics ? (…) Quelle forme prendrait le mieux un revenu de base universel si celui-ci devenait nécessaire ? Et si c’était souhaité ? Peut-on concevoir des traités pour ralentir la course à la superintelligence et réduire le risque de catastrophe ? Quelle est la dimension éthique du post-humanisme ? »
Autant de questions qui sont pourtant posées à gauche. Et par laquelle, elle répond bien souvent que les questions sont mal posées, par exemple en observant que l’IA n’améliore pas les services publics, mais les dégrade. Que l’efficacité de l’IA vise surtout à faire de la technologie la finalité, sans questionner ses lacunes. En se disputant sur l’idée d’un revenu universel, qui est aujourd’hui une idée qui ne flotte plus que dans les discours ultralibéraux (sans jamais la traiter réellement d’ailleurs, comme le soulignait Tim Wu). Même les moratoires ou les lois pour limiter la prolifération de l’IA dans certains secteurs, sont bien plus proposées par des collectifs syndicaux que par les défenseurs de l’IA – sans être le moins du monde écoutés. « Rares sont ceux, à gauche, qui se penchent sur ces questions de manière à susciter un consensus », estime Kagan Kans.
Effectivement, notamment si le consensus en la matière signifie surtout accepter le déploiement de l’IA et croire en sa puissance.
Hubert Guillaud