Les chercheurs Antonio Aloisi et Valerio De Stefano sont les auteurs de Your Boss Is an Algorithm (Bloomsbury, 2022, non traduit). Dans un article de recherche pour un ouvrage collectif à paraître (Artificial Intelligence and Labour Law, M. Biasi ed.), ils posent une question pertinente sur l’usage de l’IA au travail : « que font ces nouveaux patrons algorithmiques au travail ? »
L’IA remodèle les rapports de force au travail, répondent-ils. « Loin d’être de simples outils d’optimisation, les systèmes algorithmiques amplifient de plus en plus les prérogatives managériales, en les intégrant à des processus automatisés difficiles à examiner ou à contester. Ces évolutions donnent lieu à un paradoxe : managers et employés sont simultanément augmentés et dépossédés de leur pouvoir, pris au piège de systèmes qui intensifient le contrôle tout en érodant l’autonomie ».
De la vulnérabilité des employés soumis aux machines
Pour les deux chercheurs, les garanties existantes, allant des droits à la protection des données aux droits à l’information et à la consultation, sont mal adaptées pour faire face à cette transformation. Ils critiquent « l’illusion de la conformité procédurale » et appellent à une refonte structurelle de la gouvernance des technologies au travail. Plutôt que de renforcer les hiérarchies verticales, l’IA pourrait être mise à profit pour démocratiser le monde du travail, accroître l’autonomie et permettre de nouveaux modèles de participation, estiment-ils. Mais pour y parvenir, il faut remettre en question les présupposés socio-juridiques qui sous-tendent les formes actuelles de contrôle numérique et d’imaginer d’autres avenirs où la technologie est au service des travailleurs, et non seulement de leurs dirigeants.
« L’une des dimensions les plus préoccupantes de l’intelligence artificielle dans les environnements de travail contemporains est le degré d’influence quasi illimitée que ces systèmes peuvent exercer, souvent au détriment des contrepoids traditionnels conçus pour limiter l’autorité managériale ». « Au lieu de repenser le travail de manière à transcender, voire à réinventer, les paradigmes obsolètes de commandement et de contrôle, l’IA est trop souvent déployée pour reproduire, et dans certains cas, exacerber, les rigidités et les hiérarchies mêmes qu’elle était censée démanteler ».
Pour les deux chercheurs, les systèmes d’IA sont de plus en plus déployés pour soutenir, amplifier et parfois même remplacer les rôles traditionnellement confiés aux décideurs humains : les chefs ou, mieux encore, les employeurs. Un phénomène que les chercheurs désignent comme « l’augmentation des prérogatives managériales classiques ». Si les motivations de cette évolution peuvent varier, elles se regroupent généralement autour d’une triade de justifications bien connue : une efficacité accrue (souvent assimilée à une réduction des coûts), une précision améliorée et une cohérence opérationnelle. Il est donc essentiel de se demander non seulement si ces résultats promis sont atteints, mais aussi à quel prix, notamment en termes d’atteinte aux droits des travailleurs et d’impact plus large sur la qualité des conditions de travail.
De la vulnérabilité des entreprises qui intègrent des outils d’IA
Compte tenu de la concentration du marché des fournisseurs d’IA et de la structure dominée par les PME dans la plupart des économies, les entreprises intégrant ces outils deviennent elles-mêmes progressivement plus vulnérables. Faute de capacité à concevoir ces systèmes en interne, elles sont contraintes de louer ou d’acheter des technologies prêtes à l’emploi. Au final, elles sont confrontées aux mêmes risques systémiques que leurs employés, notamment parce que les systèmes d’IA en question sont majoritairement développés par des entreprises américaines, dont les logiques de conception et les cadres de conformité sont ancrés dans une culture socio-juridique sensiblement différente de celle des pays européens et de l’Union européenne. À cet égard, le problème est double. D’une part, ces technologies risquent d’éroder le savoir-faire organisationnel et nuire à la compétitivité. D’autre part, elles donnent lieu à ce que les chercheurs appellent « la dépossession des entreprises », un phénomène par lequel les entreprises et leurs dirigeants – sans parler de leurs employés – sont partiellement dépassés, surpassés, voire manœuvrés par des systèmes qu’ils ne maîtrisent ni ne comprennent pleinement. Pourtant, ces mêmes acteurs demeurent légalement et éthiquement responsables des actions et des résultats des systèmes qu’ils ont adoptés.
Les grands modèles de langage et les systèmes de prise de décision automatisée, bien que techniquement distincts, reposent néanmoins sur une « infrastructure » commune, qui combine plateformes, données personnelles et processus d’apprentissage automatique. En substance, l’IA n’est pas un monolithe, mais un phénomène multicouche. Il est donc essentiel de déplacer l’attention des technologies les plus spectaculaires vers les contextes et les usages spécifiques dans lesquels elles sont déployées. Des travailleurs occupant un large éventail de postes administratifs et cognitifs ont commencé à intégrer des outils d’IA générative dans leurs tâches quotidiennes. Les premiers résultats suggèrent que cette « adoption discrète », libère du temps et ouvre de nouvelles perspectives d’autonomie, dans un environnement de travail plus satisfaisant.
Cependant, cette émancipation est loin d’être acquise, explique Sarah O’Connor dans le Financial Times qui rappelle que selon une grande enquête britannique la « latitude décisionnelle » des salariés est en chute libre depuis les années 90. « En 1992, 62 % des travailleurs interrogés déclaraient disposer d’une grande latitude décisionnelle. En 2024, ils n’étaient plus que 34 % à l’affirmer. Avant 2017, ce déclin était surtout visible chez les personnes occupant des emplois peu rémunérés. Mais entre 2017 et 2024, la latitude décisionnelle a également diminué chez les cadres et les travailleurs hautement qualifiés. » Pour le chercheur Alan Felstead, le facteur le plus probable de cette chute est « l’utilisation accrue des technologies numériques » au travail. Les logiciels ont rendu le travail plus structuré et prescriptif, tout en améliorant la standardisation et la productivité.
Dans de nombreux cas, les gains de productivité ne sont pas réorientés vers l’amélioration de l’autonomie ou l’amélioration de la qualité du travail, au contraire, concluent Antonio Aloisi et Valerio De Stefano. Il faut faire plus avec moins, au risque d’un managérialisme en roue libre.
Pour les deux chercheurs, les outils d’IA ne sont ni des outils neutres ni des outils efficaces, mais des moyens de prédiction et de production qui doivent être interrogés à travers le prisme du pouvoir. Le risque est que le monde du travail se retrouve contronté à un « trou noir » de pouvoir algorithmique incontrôlé.
Vers une asymétrie de pouvoir sans contrepoids
Dans la plupart des systèmes juridiques, le contrat de travail confère à l’une des parties, (l’employeur), le pouvoir unilatéral de commander à l’autre. Cette asymétrie est justifiée au nom de l’ efficacité organisationnelle, permettant aux entreprises de coordonner l’activité productive avec un minimum de frictions. Le travailleur est censé accepter les changements unilatéraux apportés à sa discipline de travail, avec peu ou pas de possibilité de consentement ou d’objection, même si le droit a souligné que ce pouvoir n’était pas inconditionnel via des mécanismes de contrôle et d’équilibre destinés à limiter ses excès. Dans toutes les juridictions, ces contraintes juridiques remplissent une double fonction : elles sont censées aligner l’autorité managériale sur les valeurs des sociétés démocratiques et garantir que les processus décisionnels sont prévisibles, transparents et susceptibles de contestation. En bref, elles visent à rendre le pouvoir responsable et légitime aux yeux des personnes qui le subissent, comme c’est le cas des lois qui encadrent la surveillance des employés, qui limitent le temps de travail ou qui exigent un motif valable pour un licenciement ainsi que les droits d’information, de consultation, de négociation et d’action collectives.
Toute la question désormais est de savoir si ces « contrepoids » peuvent résister aux turbulences causées par l’IA et les systèmes de prise de décision automatisée. Autrement dit de savoir si ces limites ont été soigneusement élaborées pour trouver un équilibre délicat, quoique imparfait, entre des intérêts concurrents.
Mais que se passe-t-il quand l’employeur est augmenté d’une forme de pouvoir bien plus puissante, comme c’est le cas des systèmes algorithmiques et d’IA ?
Le travail atypique dans l’économie des plateformes a servi de laboratoire à ces outils et pratiques qui, depuis, ont commencé à se répandre sur l’ensemble du marché du travail. C’est également pourquoi les interventions sectorielles, comme la directive sur le travail sur plateforme de la Commission européenne, bien que louables dans leur ambition, risquent de ne pas apporter de réponse crédible à la tendance structurelle plus large. Pourtant, la gestion pilotée par l’IA est souvent présentée comme « inoffensive ». Elle ne serait qu’une « baguette magique » capable de résoudre nombre de problèmes du travail… Une vision qui vient d’abord alimenter un discours puissant qui « favorise une culture de complaisance et d’acceptation non critique ».
En vérité, les logiciels basés sur les données sont de plus en plus impliqués dans tout le spectre des pouvoirs de l’employeur, de l’embauche au licenciement. Mais, « les nouvelles formes de gestion numérisée ne remplacent pas les structures d’autorité traditionnelles ; elles interagissent plutôt avec elles et les renforcent souvent. En pratique, les gestionnaires ont tendance à déployer ces technologies pour routiniser, étendre et consolider leur contrôle, amplifiant ainsi les sources et la portée de leur autorité. De ce fait, les prérogatives managériales se sont partiellement éloignées de ce qui était autrefois un régime d’autorité patronale plus discret et prévisible, donnant naissance à une forme de supervision et de gouvernance plus diffuse, persistante et technocratique », au risque de produire une « surveillance des travailleurs sans limites», comme le dénonçaient Kate Crawford, Ifeoma Ajunwa et Jason Schultz (voir également notre dossier). « Les systèmes de gestion automatisée peuvent intensifier les prérogatives managériales, amplifiant et intégrant les biais structurels et de conception au cœur même de l’architecture de la gouvernance du lieu de travail »… permettant d’étendre le contrôle et la surveillance au suivi cognitif, aux espaces privés et au-delà des horaires de travail. « Pire encore, la nature mécaniste de ces systèmes, combinée à leur capacité à extrapoler des schémas qui ne font que reproduire le statu quo, affaiblit les mécanismes de responsabilisation en créant un voile d’impénétrabilité et d’incompréhension ». Au niveau individuel, la plupart des travailleurs ignorent qu’ils sont « surveillés, évalués ou organisés » par des algorithmes, et sont tenus à distance du fonctionnement de ces systèmes et des critères qu’ils appliquent, ce qui érode la confiance. Au niveau collectif, le pouvoir de l’IA exerce un effet dissuasif sur l’exercice des droits collectifs, puisque la dégradation algorithmique peut être liée à l’engagement syndical, au risque de rendre la représentation collective impossible.
Mais ces effets néfastes ont aussi des répercussions au niveau des entreprises elles-mêmes. Nombre d’entreprises utilisent des logiciels non européens, qu’elles ne maîtrisent pas et l’IA Act européen réserve aux déployeurs de systèmes beaucoup plus de contraintes qu’aux fournisseurs de systèmes d’IA. « La course actuelle à la « transformation par l’IA » des entreprises pourrait bien se révéler une pilule amère enrobée d’innovation ». Derrière la dépossession des entreprises, comme le pointait un éditorial du Financial Times : les gestionnaires commencent à déléguer la réflexion critique au système lui-même, cédant progressivement leur jugement et leur flexibilité à des machines qui sont, au mieux, sélectivement compétentes et, au pire, capricieuses et défaillantes. Leurs responsabilités pourraient se retourner contre elles. « En matière de réglementation sociale, les employeurs qui utilisent des systèmes algorithmiques sont tenus de démontrer et de documenter leur conformité à un large éventail d’obligations. Autrement dit, certaines réglementations numériques, comme la loi sur l’IA, ne s’appliquent pas en vase clos. D’où l’importance d’adopter une conception multidimensionnelle de la conformité, qui prenne en compte non seulement les normes techniques, mais aussi les droits des travailleurs, les principes de protection des données et les effets structurels de l’automatisation sur la gouvernance du travail ». Le dilemme est donc de savoir comment concilier les règles qui offrent une sécurité juridique aux employeurs avec les garanties qui protègent réellement les droits des travailleurs.
Dans ce contexte, la question juridique centrale est l’adéquation des mécanismes de contrôle existants. Par exemple, lorsque le pouvoir est fragmenté entre plusieurs entités, l’efficacité des recours existants est diluée. La responsabilité devient diffuse, et les mécanismes conçus pour contrôler les risques de sur-pouvoir managériaux deviennent inopérants. D’un point de vue individuel, engager la responsabilité des responsables du traitement des données ou des déployeurs d’IA devant les tribunaux peut s’avérer extrêmement difficile. D’un point de vue collectif, le défi est encore plus grand : contraindre un développeur, souvent basé dans des juridictions éloignées, à s’asseoir à la table des négociations et à « négocier l’algorithme » demeure un objectif largement idéal. Cette dynamique compromet l’application des garanties juridiques.
La protection des données risque d’être de plus en plus insuffisante
Les chercheurs donnent un autre exemple : le droit de la protection des données est souvent cité comme un outil prometteur pour insuffler de la transparence et permettre un examen attentif des décisions prises par l’IA. Par exemple les droits de notification et d’accès, de contestation et de rectification des décisions, l’obligation de réaliser des analyses d’impact relatives à la protection des données, et des limitations à la collecte de données et aux utilisations secondaires qui s’écartent de la finalité initiale de la collecte.. permettent souvent de rendre concret l’application de la protection des données. Mais ces droits ne sont pas suffisants.
Premièrement, le cadre actuel, uniforme et standardisé, repose sur une logique individualiste et axée sur le consommateur (et attend toujours d’être complété par des instruments sectoriels adaptés au monde du travail). De plus, le contexte réglementaire évolue : la perspective d’une déréglementation, à peine déguisée en simplification, plane désormais sur le RGPD.
« Deuxièmement, et c’est plus grave encore, une focalisation excessive sur les données personnelles risque de renforcer un raisonnement erroné : elle oriente l’attention vers le vecteur – la technologie elle-même – plutôt que vers les effets qu’elle produit, en particulier lorsque ces effets façonnent concrètement la vie, les opportunités et les droits des individus au travail ».
Les droits à l’information et à la consultation relatifs aux systèmes automatisés sont tout aussi insuffisants, Ils peuvent créer une illusion de transparence et d’activation des droits collectifs. On pourrait au contraire affirmer que « les systèmes d’IA se substituent de fait au cœur de la négociation collective, en permettant au système, et par extension à l’employeur, de fixer unilatéralement des conditions de travail essentielles, telles que la répartition des tâches, le temps de travail, les critères d’évaluation et même la modulation des salaires ». « Dans ce contexte, se contenter de droits à l’information et à la consultation n’est pas un compromis pragmatique: cela revient à vider de sa substance même la négociation collective ». Les employeurs ne doivent rendre des comptes que sur les procédures. Dans la loi sur la protection des données personnelles et l’intelligence artificielle – et l’on pourrait dire la même chose de la nouvelle initiative du Parlement européen sur la gestion des actifs numériques au travail – la logique est inversée. Ici, l’information et la consultation ne servent pas de contraintes, mais potentiellement de légitimations procédurales d’un système qui a déjà déplacé le pouvoir en amont, loin de la table des négociations et dans les rouages internes d’une « autorité codée ». « En effet, lorsque la technologie joue le rôle de l’employeur sans les devoirs, l’obligation de rendre des comptes nie la visibilité qui incombe aux véritables employeurs : la consultation devient une formalité a posteriori. Ce qui relevait traditionnellement du champ de la négociation collective est rendu intouchable car préstructuré par une conception technique ».
« Il est donc impératif de modifier notre approche théorique et notre stratégie réglementaire lorsqu’il s’agit d’aborder les systèmes d’IA dans le monde du travail. Ce serait une erreur d’aborder ces technologies uniquement sous l’angle de la législation sur la protection des données et la sécurité, ou par une approche fragmentaire, fonction par fonction, qui associe les droits à la vie privée à, par exemple, les dispositions relatives à la non-discrimination ou à la santé et la sécurité au travail. Jusqu’à récemment, les technologies sur le lieu de travail ciblaient principalement les actifs de l’entreprise (par exemple, les machines), produisant des effets indirects sur le travail. Ces changements relevaient des prérogatives managériales et étaient généralement protégés par la liberté d’entreprendre. Lorsque les systèmes d’IA régissent les personnes plutôt que les outils, y compris sur le lieu de travail, l’accent réglementaire devrait passer des libertés économiques à la protection des droits fondamentaux. Dans ce contexte, le droit de la protection des données à lui seul est insuffisant pour faire face aux risques posés par l’IA.»
Bien que la protection des données soit importante, elle est loin de couvrir l’ensemble des préoccupations qui surgissent dans les relations de travail. « De nombreux préjudices associés aux systèmes algorithmiques comme l’opacité, le renforcement du contrôle ou les résultats discriminatoires ne découlent pas nécessairement d’atteintes à la vie privée et ne se limitent pas à la violation du droit au respect de la vie privée des travailleurs. Pour bien appréhender les risques liés à la gestion automatisée des données, la protection de la vie privée doit être replacée dans le contexte plus large des lieux de travail, où l’autorité managériale imprègne toute la personne du travailleur. Le pouvoir de l’employeur ne s’exerce pas de manière cloisonnée – affectant la rémunération un jour, le temps de travail un autre, et la vie privée ou la discrimination à d’autres occasions. Au contraire, chaque expression de la prérogative managériale engage le travailleur de manière multidimensionnelle. Elle cible la personne dans son ensemble, avec des implications potentielles simultanées dans de multiples domaines juridiques et personnels. C’est pourquoi les réponses aux abus de pouvoir de l’employeur doivent aller au-delà de la protection des données et s’appuyer sur les outils traditionnels du droit du travail – notamment les droits collectifs des travailleurs, mais aussi les protections individuelles qui imposent à l’employeur des obligations de justification et de proportionnalité ». On peut penser par exemple au fait que les plateformes débranchent leurs employés au prétexte d’une mauvaise note du client ou d’une rapidité d’exécution insuffisante, sans possibilité de recours, ou au fait que sur les plateformes de travail, il soit très difficile aux employés de contacter l’employeur…
« Les systèmes algorithmiques et d’IA au travail incarnent en réalité une forme de pouvoir radicalement nouvelle, capable d’étendre excessivement les pouvoirs managériaux et de supplanter les mécanismes de contrôle et d’équilibre établis ». « Ils ne fragmentent pas le pouvoir de l’employeur : ils l’étendent et l’intensifient ». C’est précisément pourquoi ils doivent être traités comme une catégorie réglementaire et conceptuelle distincte au sein de la notion d’autorité patronale. Il serait erroné de les considérer comme des intrusions techniques isolées plutôt que comme des expressions d’une autorité managériale unifiée et étendue.
« Les technologies ne doivent pas être considérées comme de simples actifs de l’entreprise, fondés sur des droits de propriété. Compte tenu de leur impact considérable et de leur influence sur le comportement, les conditions et les perspectives des travailleurs, des garanties renforcées, notamment des formes de codétermination, devraient être mises en place. L’ensemble des principes du droit du travail doit être déployé : justification des décisions, droits à la codétermination, dialogue social, transparence et, le cas échéant, interdictions pures et simples». « Le pouvoir doit être à la fois autorisé et encadré pour rester légitime ».
Ce que font les patrons algorithmiques au travail, estiment les chercheurs : c’est une transformation structurelle du pouvoir et non une simple évolution. L’IA et les systèmes de gestion automatisée intensifient, consolident et obscurcissent les prérogatives managériales, intégrant le pouvoir de l’employeur dans des systèmes techniques difficiles à examiner ou à contester. Il en résulte un paradoxe : l’autorité managériale est à la fois renforcée et supplantée. Les décideurs peuvent se fier à des résultats qu’ils ne comprennent pas pleinement, tandis que les travailleurs sont confrontés à des structures de contrôle opaques et axées sur les données qui résistent à toute responsabilisation. Par conséquent, les cadres juridiques existants, tels que la loi sur la protection des données et les droits à l’information et à la consultation en vertu de la loi sur l’IA ou de la loi sur la protection des données personnelles sont insuffisants. Ils fonctionnent souvent selon une logique fragmentée et individualisée, mal adaptée pour appréhender les mutations systémiques du pouvoir.
Une nouvelle approche est donc nécessaire. Plutôt que de traiter l’IA comme un actif neutre pour l’entreprise, l’IA doit être appréhendée comme une forme d’autorité distincte qui nécessite des garanties renforcées, faisant appel à des outils juridiques spécifiques et à l’ensemble des droits du travail et des mécanismes de contrôle habituellement utilisés pour « dompter » les prérogatives managériales, et notamment les droits à la négociation collective et à la codécision.
Si l’IA est un instrument de pouvoir, elle recèle également le potentiel de démocratiser ce pouvoir, estiment pourtant Antonio Aloisi et Valerio De Stefano. Correctement conçue et déployée de manière responsable, l’IA pourrait être mise à profit pour créer des environnements de travail plus sûrs, plus inclusifs et plus participatifs. Une vérité souvent négligée est que l’IA peut servir de catalyseur pour repenser les structures de travail, la dynamique d’équipe et l’organisation de l’entreprise, par exemple en permettant de s’extraire de l’occupation permanente que les entreprises survalorisent, ce « théâtre de la productivité ». Les transformations technologiques pourraient permettre d’accorder aux travailleurs des niveaux croissants de pouvoir et d’autonomie, leur permettant d’organiser leurs tâches, de structurer leurs horaires et de consacrer du temps à des efforts créatifs et innovants. La littérature montre que les environnements qui soutiennent l’autonomie personnelle tendent à renforcer le sens des responsabilités des travailleurs, à stimuler la motivation intrinsèque et à promouvoir le développement des compétences.
« Pourtant, les travailleurs sont fréquemment exclus de la définition des aspects fondamentaux de leur travail, tels que la définition des objectifs, le choix des méthodes, la détermination des échéanciers et la participation à la conception des systèmes de mesure du rendement ». Et il est probable que la généralisation des outils d’IA et de contrôle algorithmique les en éloigne toujours plus.
Plus qu’un outil d’émancipation, « l’IA est utilisée pour aggraver les asymétries en intégrant le contrôle à l’architecture même des processus de travail ».
Les débats sur l’essor de l’IA agentive, conçue non seulement pour répondre à des sollicitations, mais aussi pour agir de manière autonome, prendre des décisions et exécuter des séquences de tâches complexes promettent une intervention humaine toujours plus minimale. La question du pouvoir d’agir des travailleurs – leur capacité à agir, et à influencer leurs propres conditions de travail – reste étonnamment absente de ce débat. Ce pouvoir d’agir peut s’épanouir dans des environnements anti-hiérarchiques, caractérisés par des structures démocratiques et des dispositions progressistes et souhaitables, mais trop souvent relégués au second plan. Or, les hiérarchies existantes au travail ne sont pas innées. Bien que souvent justifiées par l’efficacité, elles restent, en particulier dans leurs formes les plus rigides et stéréotypées, sujettes à contestation. Une approche de conception technologique centrée sur le travailleur pourrait être l’occasion de réexaminer ces hypothèses. Elle pourrait permettre de remettre en question les idées reçues sur la verticalité des structures organisationnelles pour privilégier des modèles plus responsabilisants, inclusifs et à l’écoute des personnes traditionnellement exclues de la prise de décision. Jusqu’à présent, ces théories sont restées largement confinées aux cercles universitaires ou à des modèles organisationnels marginaux, tels que les coopératives de travailleurs. La recherche a cependant démontré que la consultation entre travailleurs, gestionnaires et représentants du comité d’entreprise peut produire des résultats gagnant-gagnant, améliorant à la fois la performance organisationnelle et le bien-être des employés. De même, les résultats tendent à être plus positifs lorsque les travailleurs ou leurs représentants sont consultés lors de l’introduction et de l’utilisation des technologies d’IA sur le lieu de travail. Ils sont mieux placés pour sélectionner des technologies fonctionnelles, définir des limites claires, identifier les indicateurs clés et éviter les erreurs, en adoptant une attitude pragmatique. L’IA pourrait-elle ouvrir une nouvelle voie, permettant de repenser les lieux de travail selon des modalités plus participatives ?
Pas sûr que nous en prenions la voie. Mais cette histoire là reste encore à écrire.