La confiance des dirigeants d’entreprise dans le potentiel de l’IA pour accroître la productivité est mise à rude épreuve par leurs propres employés, rapporte le Wall Street Journal. Alors que les entreprises investissent fortement dans l’IA, les employés « affirment que l’IA ne leur permet pas, pour l’instant, de gagner beaucoup de temps au quotidien, et nombreux sont ceux qui se disent dépassés par la complexité de son intégration à leurs fonctions ». Pire encore, explique la journaliste Lindsay Ellis, le fossé entre l’expérience réelle des cadres supérieurs et celle des employés en matière d’IA générative est considérable. « Deux tiers des employés non cadres ont déclaré avoir gagné moins de deux heures par semaine, voire aucune, grâce à l’IA. À l’inverse, plus de 40 % des cadres ont affirmé que cette technologie leur avait permis d’économiser plus de huit heures de travail hebdomadaires.» Enfin, la plupart des employés déclarent les utiliser pour des tâches basiques, pour générer des brouillons ou remplacer les moteurs de recherche, mais bien peu d’employés les utilisent pour des tâches plus complexes comme l’analyse de données ou la génération de code. Enfin, ceux qui déclarent gagner du temps grâce à l’IA reconnaissent qu’une grande partie de ce temps est absorbée par la correction des erreurs et la refonte du contenu généré par l’IA.
Dans une tribune pour Tech Policy Press, la sociologue Diana Enriquez dresse le même constat. Dans un marché du travail atone, les cadres intermédiaires sont de plus en plus contraints de « feindre la réussite en matière d’IA ». Alors qu’ils sont eux-mêmes de plus en plus souvent gérés par des systèmes automatisés, on leur demande aussi de plus en plus de justifier l’engouement suscité par l’IA. Ils sont mis sous pression par la direction pour adopter une vision« optimiste de l’IA (…) qui les oblige à maintenir l’illusion d’un déploiement de l’IA couronné de succès ». Il en résulte une augmentation de l’anxiété, de l’épuisement professionnel et une baisse de la productivité, au lieu d’une amélioration. Dans le monde des plateformes que la sociologue a étudié, on constatait déjà la tension entre la rigidité et l’inexactitude fréquentes des instructions fournies par les outils automatiques par rapport à la complexité du réel, par exemple en leur intimant de suivre un itinéraire sans tenir compte de sa disponibilité. « Dans ces environnements de travail, les personnes sont perçues comme des problèmes à résoudre et l’automatisation est considérée comme correcte en raison de sa rationalité supposée ». Pour la sociologue, les cadres intermédiaires subissent une pression croissante pour se familiariser avec l’IA et démontrer une utilisation quotidienne, même lorsqu’elle ne leur est pas utile, ni à eux ni à leurs équipes.
Mêmes constats pour les chercheurs de SciencePo, Gabriel Alcaras et Donato Ricci dans une étude pour le programme de recherche Ecologies of LLM Practices du Medialab, qui s’interroge justement sur les pratiques professionnelles situées, dans leur environnement. Que font les LLM au travail ? « Ils n’automatisent ni n’augmentent les tâches de manière directe », répondent les chercheurs de SciencesPo. Pour eux, leur intégration nécessite un « travail de configuration » important pour adapter un système générique à une tâche spécifique. Ce travail de configuration nécessite de discrétiser leur activité, c’est-à-dire de la décomposer en unités traitables par le système. Ensuite, l’utilisation du LLM génère une surcharge de travail qui perturbe les routines, comme de devoir évaluer les réponses et les corriger. C’est peu à peu que les utilisateurs adaptent leurs pratiques à la rigidité des systèmes et leur trouve une place au sein de leurs pratiques. Mais à mesure que les chatbots absorbent certaines tâches, ils transforment le travail et l’orientent vers la manipulation des résultats et éloignent ceux qui les utilisent du sentiment d’accomplissement. Bref, là encore l’adaptation de l’IA au travail n’est pas si simple.
MAJ du 09/02/2026 : Une étude d’Anthropic auprès de 52 jeunes ingénieurs logiciels invités à accomplir des tâches de code avec l’IA a montré que ceux-ci étaient certes « accélérés » par l’utilisation de l’IA, mais que son usage se faisait au détriment de l’amélioration des compétences et de la maîtrise de nouveaux savoir-faire. Sans surprise, là encore, la façon dont les étudiants ont utilisé l’IA n’a pas les mêmes effets. Ceux qui l’utilisent pour poser des questions pour expliquer le code pendant sa génération ou qui posent des questions conceptuelles, plutôt que de faire travailler l’IA à leur place, ont une meilleure mémorisation des problèmes que les autres, explique PCMag. Qui pointe également vers une étude menée par les chercheurs du laboratoire Metr, qui montrait que l’IA ralentissait en réalité les programmeurs qui l’utilisaient : le temps passé à interagir avec elle étant égal, voire supérieur, au temps gagné grâce à son assistance.
MAJ du 24/02/2026 : Dans un très long article pour The Atlantic, le journaliste Josh Tyrangiel questionne l’impact de l’IA au travail. Il rappelle très justement que pour l’instant, nous ne voyons pas dans les statistiques de l’emploi d’effets de l’IA. Mais que cela ne veut pas dire qu’ils n’aient pas lieu.
Dans les “Canaries papers”, Erik Brynjolfsson, le célèbre directeur du Stanford Digital Economy Lab, Bharat Chandar et Ruyu Chen ont analysé des millions de fiches de paie de travailleurs exposés à l’IA générative pour montrer notamment que les jeunes de 22 à 25 ans (les canaris), ont connu une baisse d’emploi d’environ 13% depuis fin 2022. Mais là encore, il n’est pas sûr que la baisse de l’emploi de ceux qui entrent en emploi soit lié uniquement au déploiement de l’IA. L’emploi des jeunes est souvent cyclique. La même période a été marquée par une forte hausse des taux d’intérêt, une source de turbulence bien plus probable. “Ce manque de certitude ne doit pas être confondu avec un manque d’inquiétude”, rappelle Tyrangiel. Il est possible que le marché du travail soit plus fragile qu’il n’y paraît, mais que cette fragilité soit absorbée par les entreprises plutôt que de se refléter dans l’emploi.
Tyrangiel rappelle que “les marchés du travail ont un taux d’ajustement naturel. Si, sur une période de 30 ans, 3 % des employés d’une profession prennent leur retraite ou perdent leur emploi chaque année, cela passerait presque inaperçu. Pourtant, dix ans plus tard, un tiers des emplois dans ces professions auront disparu”. Les personnes qui s’occupaient des ascenceurs et ceux qui faisaient payer les péages ont connu une lente obsolescence sans que l’économie n’en souffre. Mais le problème, c’est la vitesse à laquelle les changements se produisent, explique David Autor. Pour l’économiste Daron Acemoglu : « l’histoire nous apprend que, en réalité, cela se fera beaucoup plus lentement. »
Pour l’économiste Anton Korinek, directeur du programme « Économie de l’IA transformatrice » à l’Université de Virginie, “cette fois, ce sera peut-être différent”. Pour lui, la concurrence force l’adoption de l’IA. Les cabinets de conseils, par exemple, sont contraints de baisser leurs tarifs à mesure qu’ils adoptent l’IA. Korinek reconnaît pourtant que les chiffres sur la destabilisation du travail par l’IA ne sont pas encore concluants, et historiquement, les nouvelles technologies ont créé plus d’emplois qu’elles n’en ont détruit. Ce qui est en train de changer, c’est que les dirigeants de sociétés émergentes spécialisées dans l’IA, comme Anthropic, Stripe et Waymo – qui ont pourtant été longtemps étonnamment bavardes sur l’IA et l’emploi – s’expriment de moins en moins sur le sujet. Ce qui change aussi, c’est que les investisseurs attendent des résultats. “Et pour un PDG, le moyen le plus rapide d’obtenir des résultats est de réduire les effectifs”. Pour l’influent Reid Hoffman, cofondateur de LinkedIn, les licenciements sont là, mais ils ne suffisent pas. « Il faut présenter des pistes et des idées pour tirer profit de l’IA autrement qu’en réduisant les coûts. Comment augmenter les revenus ? Comment aider les employés à devenir plus efficaces grâce à l’IA ? » Mais est-ce vraiment la préoccupation des PDG ?
Tyrangiel continue son récit d’une manière un peu décousu, en allant voir tant Bernie Sanders que Steve Bannon. L’un comme l’autre lui font surtout part de la haine de l’IA dans les classes populaires américaines.
Il clôture son article en estimant qu’il faudrait améliorer l’étude de l’évolution des métiers. Mais, avec le démantèlement des services publics américains, c’est plutôt à l’inverse qu’on assiste ! “La plupart des études économiques qui tentent d’évaluer l’impact de l’IA sur la demande de main-d’œuvre s’appuient sur l’enquête sur la population active (Current Population Survey) du Bureau des statistiques du travail (BLS). « C’est la meilleure source disponible », a déclaré McEntarfer. « Mais l’échantillon est assez restreint. Il ne porte que sur 60 000 ménages et n’a pas augmenté depuis 20 ans. Les taux de réponse ont diminué. » Une première étape évidente pour comprendre ce qui se passe dans notre économie serait d’élargir la taille de l’échantillon de l’enquête et d’y ajouter un volet consacré à l’IA.
L’utilisation de ces données au travail nécessiterait quelques économistes supplémentaires et quelques millions de dollars – un investissement minime. Or, le budget du BLS est en baisse depuis des décennies. Les États-Unis ont créé le BLS car ils estimaient que le premier devoir d’une démocratie était de savoir ce qui arrivait à ses citoyens. Si nous avons perdu de vue cette conviction – si nous sommes incapables de mesurer la réalité, si nous rechignons à compter – alors bonne chance avec ces machines.”
Stream "Ça (dys)fonctionne"
- ↪ Pourquoi le déploiement de projet échoue-t-il ?
- ↪ La reconnaissance faciale, en toute impunité
- ↪ Le biais anti-humain : des préférences des IA pour les contenus IA
- ↪ Le coût caché de l’IA c’est la vérification
- ↪ Une histoire des rapports de l’Etat au logiciel libre
- ↪ Résister à l’empire des Gafams
- ↪ Une bulle… de pouvoir
- ↪ Le produit toxique des Big Tech ne sont pas les réseaux sociaux…
- ↪ Palantir, l’entreprise métapolitique
- ↪ L’épuisement de l’IA