L’IA n’est qu’un miroir

L’IA n’est qu’un miroir, une surface inerte nous captivant avec les illusions de profondeur qu’elle nous renvoie, explique la philosophe Shannon Vallor, qui nous invite à retrouver confiance dans nos capacités humaines.

Hubert Guillaud

Dans son livre, The AI mirror (Oxford university press, 2024), la philosophe Shannon Vallor de l’Edinburgh Futures Institute, compare l’IA au Cloud Gate, cette sculpture monumentale de l’artiste Anish Kapoor qui se trouve à l’extérieur, dans la ville de Chicago, et qui ressemble à un miroir en forme de haricot géant. Quand on regarde le monde depuis ce miroir, tout y est déformé, selon l’endroit d’où on regarde. Parfois les choses sont agrandies, d’autres fois rétrécies ou tordues. Cela rappelle l’apprentissage automatique, « reflétant les modèles trouvés dans nos données, mais d’une manière qui n’est jamais neutre ou « objective » », explique la spécialiste de l’IA. Une métaphore qui est devenue la base de ses cours et de son livre, rapporte Fast Company. « Les miroirs de l’IA nous ressemblent beaucoup parce qu’ils reflètent leurs entrées et leurs données d’entraînement, avec tous les biais et particularités que cela implique. Et alors que d’autres métaphores pour désigner l’IA peuvent donner l’impression que nous sommes confrontés à une intelligence vivante (comme les perroquets stochastiques), celle du miroir semble plus approprié parce qu’elle montre que l’IA n’est pas sensible, juste une surface plane et inerte, nous captivant avec ses illusions de profondeur délirantes ». Avec le risque, que comme Narcisse, notre propre humanité soit sacrifiée à ce reflet. « Les systèmes d’IA peuvent refléter une image du comportement ou des valeurs humaines, mais, ils ne connaissent pas plus l’expérience vécue de la pensée et du sentiment que nos miroirs de chambre à coucher ne connaissent nos maux et nos douleurs intérieures ». Nos machines n’optimisent que l’efficacité et le profit, au risque de perdre de vue toutes les autres valeurs.

Dans Vox, la philosophe expliquait que le risque existentiel de l’IA n’est pas qu’elle nous submerge, mais qu’elle nous manipule et nous fasse renoncer à notre propre pouvoir, à notre autonomie et notre liberté, qu’on pense que nous devrions confier notre avenir à l’IA parce qu’elle serait plus rationnelle ou objective. Le problème fondamental du sens de l’existence c’est que nous devons le créer nous-mêmes, l’autofabriquer disait le philosophe José Ortega y Gasset. Or, la rhétorique autour de la puissance de l’IA nous invite à renoncer à notre liberté. La technologie ne peut pas nous servir à tomber dans un profond anti-humanisme. « Il y a une sorte de vide dans le transhumanisme en ce sens qu’il ne sait pas ce que nous devons souhaiter, il souhaite juste avoir le pouvoir de créer autre chose – de créer la liberté de dépasser notre corps, la mort, nos limites. Mais il s’agit toujours de liberté de, mais jamais de liberté pour. Liberté pour quoi ? Quelle est la vision positive vers laquelle nous voulons nous diriger ? (…) Pour moi, cette abstraction – l’idée d’une morale universelle pure selon laquelle des créatures qui sont complètement différentes de nous pourraient d’une manière ou d’une autre faire mieux que nous – je pense que cela ne fait que méconnaître fondamentalement ce qu’est la moralité. »

« Nous devons reconstruire notre confiance dans les capacités des humains à raisonner avec sagesse, à prendre des décisions collectives », explique-t-elle encore dans une interview pour Nautil.us. « Nous ne parviendrons pas à faire face à l’urgence climatique ou à la fracture de la démocratie si nous ne parvenons pas à réaffirmer notre confiance dans la pensée et le jugement humains, alors que toute la pensée de l’IA va à l’encontre de cela ». L’IA n’est que le miroir de la performance humaine, pas son dépassement. Elle est très douée pour faire semblant de raisonner.

Geoffrey Hinton a suggéré qu’un LLM peut avoir des sentiments. Mais il n’y parvient qu’en supprimant le concept d’émotion et en le transformant en simple réaction comportementaliste. « À partir de là, il devient très facile d’affirmer une parenté entre les machines et les humains, car vous avez déjà transformé l’humain en une machine sans esprit. » L’intelligence n’est pas ce que nous faisons, rappelle Vallor. Pour Sam Altman, l’AGI est une machine qui peut effectuer toutes les tâches économiquement utiles que les humains font. « Tout ce que nous avons comme objectif de l’IA générale, c’est quelque chose par lequel votre patron peut vous remplacer », ironise la philosophe. « Il peut être aussi insensé qu’un grille-pain, à condition qu’il puisse faire votre travail. Et c’est ce que sont les LLM : ce sont des grille-pain insensés qui font beaucoup de travail cognitif sans réfléchir ».

« Ce qui nous déroute, c’est que nous pouvons ressentir des émotions en réponse à une œuvre d’art générée par l’IA. Mais ce n’est pas surprenant, car la machine renvoie des permutations des modèles que les humains ont créés (…) et notre réponse émotionnelle n’est pas codée dans le stimulus, mais construite dans nos esprits ». Mais en tant qu’humains, nous ne sommes pas enfermés dans les modèles que nous avons ingérés, nous pouvons par exemple affirmer de nouvelles revendications morales.

Dans la Silicon Valley, l’efficacité est une fin en soi. Mais il n’y a pas de solution efficace au problème de la justice, rappelle la philosophe. Les thuriféraires de l’IA cherchent surtout à justifier le fait de priver les humains de leur capacité à se gouverner eux-mêmes. Le risque, c’est que par leurs excès, ils encouragent surtout les humains à s’éloigner de la technologie et à en provoquer le rejet. « Les outils ont été des instruments de notre libération, de notre création, de meilleures façons de prendre soin les uns des autres et des autres formes de vie sur cette planète, et je ne veux pas laisser passer cela, pour renforcer cette division artificielle entre l’humanité et les machines. La technologie, à la base, peut être une activité aussi humaine que n’importe quelle autre. Nous venons de perdre ce lien. »

La couverture du livre de Shannon Vallor, AI mirror.