Réguler la surveillance au travail

Alors que la surveillance numérique au travail ne cesse de s’étendre et de s’intensifier, la régulation, elle, semble à la traîne, comme débordée par la prolifération des outils et la multiplication des formes de surveillance. Pourtant, comme nous le disait la sociologue Karen Levy, la surveillance ne produit rien d’autre qu’un accablement des travailleurs, renvoyant tous les problèmes à leur seule responsabilité. Quels leviers sont disponibles pour tenter de faire bouger les lignes avant notre submersion ? 

Hubert Guillaud

Comme nous le disions dans la précédente partie de notre dossier sur la surveillance au travail, les technologies numériques ont permis une expansion sans précédent du volume et du type de données collectées sur les travailleurs. La capacité à les analyser permet aux employeurs de tirer d’innombrables conclusions sur la productivité de leurs salariés… 

Pourtant, concrètement, ces analyses sont bien souvent problématiques quand ce n’est pas défaillantes. En rendant fonctionnelles les statistiques, les indicateurs rétroagissent sur les comportements. La granularité et l’individualisation des métriques permettent de multiplier et d’accroître les pressions au travail, tous les dysfonctionnements étant renvoyés aux pratiques individuelles, « faisant peser toutes les contraintes sur le plus petit et le plus faible maillon de la chaîne », comme l’explique la sociologue Karen Levy dans son livre. Enfin, parce que dans le contexte du travail, les connaissances acquises par les données réorganisent et renforcent d’abord des déséquilibres de pouvoirs majeurs. La régulation de la surveillance n’arrive pas à limiter la recherche de l’amélioration de la production que la surveillance vise à faire advenir. Nous sommes confrontés à une surveillance qui se démultiplie sans parvenir à renforcer les protections légales des travailleurs, seules à même de les protéger d’une exploitation renforcée. 

La lutte contre la surveillance devrait nous mobiliser

« Des caméras alimentées par l’IA qui suivent l’attention des camionneurs aux scanners portables qui surveillent la vitesse d’emballage et de tri des colis des employés des entrepôts d’Amazon, en passant par les logiciels de vidéoconférence qui surveillent les conversations des employés pendant les réunions, dans de nombreux secteurs les entreprises utilisent de plus en plus d’outils automatisés pour collecter des données sur les travailleurs, puis utilisent ces données pour prendre des décisions automatisées sur les tâches et les horaires des travailleurs, les salaires, les promotions, la discipline et même les licenciements », explique le politologue Alexander Hertel-Fernandez sur le blog du LPE Project. Hertel-Fernandez est l’auteur d’une étude sur le management automatisé et la surveillance des travailleurs qui montre que les 2/3 des travailleurs Américains sont sous surveillance sur leur lieu de travail. Cette surveillance est désormais aussi commune pour les cols bleus que pour les cols blancs. Bien qu’elle soit souvent invisible, masquée sous les outils numériques que tous utilisent au quotidien, elle n’est pas sans conséquences : elle a un impact sur la santé et la sécurité des travailleurs.

Pour le chercheur, la montée de la surveillance nécessite d’établir des protections adaptées qui devraient recevoir du soutien de tous les travailleurs, tant celle-ci transcende les classes sociales, les professions et les secteurs. Les organisations du travail ont largement documenté comment cette surveillance érode les droits à l’action collective, intensifie les rythmes de travail, discrimine les femmes, les travailleurs âgés ou les travailleurs handicapés. Le problème pourtant, c’est que le régulateur manque de données sur cette surveillance, d’où l’importance de son enquête. Celle-ci montre d’ailleurs, que le facteur prédictif principal de l’adoption de la surveillance électronique est la taille de l’entreprise : plus l’entreprise est grande, plus la surveillance est intense et variée. L’étude montre également que plus les travailleurs sont soumis à une surveillance intensive, plus l’anxiété grimpe, notamment parce que l’intensité de la surveillance signifie d’abord une intensification des cadences. Ce couplage intensification/anxiété se retrouve dans tous les secteurs, et pas seulement les plus documentés, comme la logistique ou l’industrie. Enfin, les effets négatifs sur la santé et le bien être sont plus forts là où la surveillance est mobilisée pour renforcer la discipline et limiter l’expression. Pour le chercheur, ces résultats suggèrent que ce n’est pas nécessairement la surveillance qui est problématique, mais la manière dont elle est utilisée par le management. Parmi les mesures à prendre pour rétablir l’équilibre, le politologue suggère d’améliorer la transparence de la surveillance, des indicateurs de productivité et des quotas. Mais si le problème est l’intensité de la surveillance, la documenter ne suffira pas à la faire refluer. 

L’impossible transparence de la surveillance

Pourtant, c’est à l’exact inverse que l’on assiste. La surveillance et ses indicateurs relèvent partout d’une opacité qui ne cesse de se renforcer, comme pour toujours mieux s’invisibiliser, à l’image des calculs d’Uber qui ne cessent d’évoluer pour échapper à la documentation comme à la régulation. En 2020, les livreurs de la plateforme Shipt, qui appartient à la chaîne de grande distribution américaine Target, ont vu leurs salaires s’effondrer. Ils ont alors créé un outil pour comprendre l’évolution de l’algorithme, expliquait la chercheuse Dana Calacci pour IEEE Spectrum, qui rappelle que l’asymétrie d’information est un moyen de contrôle (et ce d’autant que ces travailleurs indépendants, par contrat, n’ont pas de droits sur les données). Les livreurs ont utilisé les résultats de l’Observatoire des algorithmes des travailleurs, qui corroboraient l’effondrement de rémunération constaté, pour appuyer leurs revendications pour un salaire minimum garanti. Dans un rapport, le Worker Info Exchange estime que les applications de covoiturage et de livraisons devraient être contraintes de publier des données sur la charge de travail des chauffeurs et les rémunérations, d’autant que le déficit de données actuel pourrait même dissimuler d’importants vols de salaires (et pas seulement des pourboires). Des exemples qui rappellent qu’il n’y a pas d’alternative à la transparence des données, ce qui n’empêche pas celle-ci de continuer à échapper à tous. Accéder aux données reste le premier levier pour observer la surveillance et la limiter.

Image : Page d’accueil de l’observatoire algorithmique des travailleurs.

L’année dernière, le LPE Project avait publié plusieurs articles pour questionner les limites de la surveillance. La chercheuse Karen Levy y montrait que non seulement la surveillance s’opacifie, mais que les autorités en favorisent l’extension, plutôt que de chercher à la contraindre et à la limiter. La sociologue parle d’ailleurs « d’interopérabilité de la surveillance » pour pointer la compatibilité des différentes formes de surveillance, que ce soit celle des autorités de contrôle, comme celle des employeurs ou celle des tiers auxquels les employeurs accordent des accès. 

L’extension, l’intensification et l’élargissement de la surveillance se fait au détriment des employés, pris en tenaille par de nouvelles injonctions liées aux objectifs multiples et contradictoires de tous ceux qui ont accès aux données produites par ces surveillances. Les surveillances “gouvernementales, patronales et commerciales” se superposent pour créer de nouvelles rigidités au travail. Le problème est que cette conjonction d’objectifs complémentaires laisse peu d’espace aux travailleurs pour résister à ces pressions concomitantes, pour résister à “un régime de surveillance supérieur à la somme de ses parties”. La surveillance est d’autant plus opaque qu’elle sert les intérêts de trop d’acteurs pour devenir transparente. Cette surveillance alimente en données des acteurs avec lesquels les entreprises ont des partenariats commerciaux, comme leurs clients. Mais pas seulement. Outre la police et les services sociaux, de plus en plus d’intermédiaires de données tentent d’en tirer profit, à l’image de services de crédits qui proposent des avances sur salaires aux employés

La surveillance produit les cadences, modifie les conditions d’emploi

La spécialiste de l’économie des plateformes, Sarrah Kassem , auteure de Work and Alienation in the Platform Economy: Amazon and the Power of Organization, expliquait quant à elle que les travailleurs des entrepôts d’Amazon sont dépendants d’un « régime de productivité algorithmique », qui les pousse à respecter des taux « d’unités par heure », c’est-à-dire rien d’autre que des cadences, imposées par les tâches, les volumes, et les moyennes productives des autres employés auxquelles chacun est comparé. Si les solidarités collectives et les résistances sont possibles, elles sont rendues très difficiles, du fait des innombrables types de contrats qui se rencontrent dans les entrepôts (fixes, intérimaires, sous-traitants, indépendants… avec des horaires fluctuants…) et des manœuvres anti-syndicales d’Amazon. 

Dans les chaînes de production numériques hyper-taylorisées du Mechanical Turk d’Amazon par contre, la surveillance, elle, est totale. La grande précarité du travail et l’absence de relation avec les autres travailleurs rend l’organisation collective encore plus compliquée, même si, à l’initiative des travailleurs, des espaces alternatifs de solidarité et de lutte ont parfois réussi à émerger. Pour le chercheur Reed Shaw, qui s’est lui aussi intéressé aux entrepôts d’Amazon, la surveillance modifie les conditions d’emploi. Si le taux de blessure y est deux fois supérieur à la moyenne nationale, c’est que l’unité de mesure du travail d’Amazon, focalise sur le temps pendant lequel les travailleurs sont inactifs entre deux colis scannés. Le nombre d’unités traitées par heure favorise l’intensification du travail qui génère en réponse une augmentation du risque de blessure et d’accident. Pour Shaw, c’est l’intensification que le taylorisme numérique produit le coupable : c’est donc sur la régulation des cadences qu’il faut pouvoir agir. D’autant que les systèmes de mesures ne s’adaptent pas à certains types d’employés, comme les femmes enceintes ou les travailleurs handicapés, qui sont encore plus sévèrement punis par les systèmes qui évaluent les cadences sans aménagements. Pour Shaw, “la surveillance généralisée des employés devrait être considérée comme modifiant le contexte de l’emploi d’une manière qui menace un large éventail de lois et de protections du droit du travail”

Vers une surveillance sans échappatoire

Pour le professeur de droit Matthew Bodie, co-auteur de Reconstructing the Corporation: From Shareholder Primacy to Shared Governance, la surveillance des employés procède d’une nouvelle collecte de données et propose une nouvelle création de valeur permettant aux employeurs de tirer une nouvelle valeur de la relation de travail, explique-t-il, sans qu’il n’y ait de recours ni de droits pour les travailleurs fournisseurs de données, ni de modalités pour exercer leur pouvoir collectifs sur ces données. Pour Bodie, la frontière traditionnelle entre les informations de travail et les informations personnelles, est en train de devenir totalement floue. Toutes sortes d’informations personnelles peuvent désormais être convoquées comme “pertinentes” pour évaluer la performance individuelle au travail : notre santé, nos relations avec nos collègues, nos opinions politiques, notre consommation de caféine, notre disposition au conflit… (sans que cette “pertinence” ne soit jamais évaluée, comme le soulignaient les chercheurs Mona Sloane, Rumman Chowdhury et Emmanuel Moss dans un excellent article qui dénonçait la prétention à la connaissance des systèmes). La réponse instinctive à ce problème consisterait à renforcer la protection de la vie privée sur les lieux de travail, mais cette réponse ne convainc pas Bodie, notamment parce qu’il suffit d’un pseudo consentement imposé dans une relation de travail par nature déséquilibrée pour vider ce renforcement de sa substance. 

La relation aux données ne cesse de devenir de plus en plus déséquilibrée”, constate le chercheur. C’est par les données sur les chauffeurs et leurs clients que les entreprises de covoiturage fixent les prix et affectent les chauffeurs, sans que les conducteurs puissent avoir la main sur ce qui leur est soustrait. Bodie est pessimiste : désormais, “la relation de travail nécessite un flux de données trop important pour espérer ne jamais l’arrêter”. Selon lui, les travailleurs ont besoin de plus de droits sur leurs données et leur utilisation, à l’image de ceux que déploient le RGDP en Europe (comme le droit de limitation des finalités ou les droits d’opposition à certains types de prise de décision automatisée). Reste pourtant à trouver les modalités d’action collectives. Ici, Bodie dresse un comparatif avec l’hypersurveillance des athlètes de haut niveau, qui, malgré la démultiplication d’information sur leurs performances, gardent des droits sur leurs données voire des voix collectives pour négocier la portée de la collecte de données par les équipes. Les organisations syndicales devraient avoir la capacité de négocier avec les employeurs par l’accès aux données et leur partage – mais seulement 6% des employés du secteur privé sont syndiqués aux États-Unis. Les travailleurs sans représentation collective n’ont donc aucune perspective de pouvoir collectif sur la collecte. D’autres structures organisationnelles pourraient également faire levier, allant de l’actionnariat salarié aux coopératives de plateformes, en passant par la codétermination…  et invite à imaginer des “conseils de données” habilitées à examiner toute collecte ou utilisation de données des employés. “Nous devons donner aux travailleurs la possibilité d’avoir leur mot à dire dans la gestion des données et les droits sur les données qu’ils fournissent.” Oui ! Mais là encore la contribution ne trouve pas le levier de cette activation. 

On pourrait croire à lire ces billets, que le RGPD est l’alpha et l’omega de la solution. C’est oublier pourtant, comme le rappelle son intitulé complet, que celui-ci n’est pas qu’une protection vis-à-vis du traitement des données à caractère personnelles, mais qu’il organise également leur libre circulation, sous conditions.

Les calculs sont surtout opaques pour invisibiliser leurs incohérences et  renforcer leur opacité

Ce que ces billets disent assez imparfaitement, c’est ce que change cette surveillance, ses impacts et les modalités de cet impact. Ce qui se joue dans le renforcement de la surveillance au travail est pourtant très fort au niveau RH et plus encore au niveau de la question salariale. Les données sont de plus en plus utilisées pour produire des indicateurs de performances souvent problématiques sur de plus en plus d’employés, comme s’en émouvait un article du Washington Post prédisant l’arrivée du licenciement algorithmique. La surveillance a un impact direct sur l’employabilité, le recrutement et sur la rémunération. C’est ce qu’expliquait dans un autre billet du LPE Project la professeure de droit Veena Dubal. Dans le monde des plateformes de livraison ou de transport, la rémunération n’est pas fixe. Elle est à la fois “imprévisible, variable et personnalisée”. En cas de forte demande par exemple, les prix des courses vont augmenter et les revenus des coursiers également. Mais il n’y a pas que cette tension entre l’offre et la demande qui explique les variations, et même quand c’est cette explication qui domine, les variations demeurent incohérentes. En fait, la rémunération algorithmique n’est pas du tout une forme applicative et parfaite du marché, comme elle voudrait nous le faire croire. Au contraire.

Les incohérences sont nombreuses, explique Dubal. Parfois vous pouvez obtenir une prime si vous acceptez un trajet supplémentaire, mais bien souvent cette prime n’est pas proposée à un collègue qui a le même historique de circulation. La modularité des incitations de ce type varie sans arrêt, sans que les travailleurs ne parviennent à comprendre leur logique. A l’inverse, vous pouvez attendre ce trajet et cette prime liée à un certain nombre de courses à accomplir, sans que l’algorithme ne vous donne de course, alors que d’autres conducteurs en obtiennent. Le problème, c’est que tout cela n’est pas une question de marché, de malchance ou de hasard, mais bien le résultat d’un calcul. La manipulation des données des conducteurs permet de leur faire croire que les variations de leurs rémunérations tiennent d’un Casino, expliquait dans Fortune Stephanie Vigil, conductrice pour DoorDash, qui rappelle par exemple que les pourboires que les clients donnent ne sont pas attribués directement à leurs livreurs, mais obscurcies par les plateformes pour que les chauffeurs ne privilégient pas les courses avec pourboire. Pour elle, les conducteurs doivent récupérer l’accès à leurs données, comme le défend l’association DriverRights. Les bas salaires et les pourboires sont devenus la règle chez les plateformes de livraison de nourriture, rappelait Inayat Sabhikhi de One Faire Wage dans Points, l’année dernière, rappelant qu’elles ont toutes pratiqué le vol de pourboires et que toutes les organisations réclament désormais la transparence sur ceux-ci… sans l’obtenir. 

La surveillance pour produire des discriminations

De plus en plus de travailleurs du transport et de la logistique sont confrontés à un salaire constamment fluctuant lié à la gestion algorithmique du travail, explique encore Dubal. “Dans le cadre de ces nouveaux régimes de rémunération, les travailleurs perçoivent des salaires différents – calculés à l’aide de formules opaques et en constante évolution reflétant l’emplacement, le comportement, la demande, l’offre et d’autres facteurs de chaque conducteur – pour un travail globalement similaire.” Le problème de ces situations, n’est pas seulement celui d’une rémunération variable basée sur la performance, mais la conjonction de cette variabilité avec une autre : celle de la répartition du travail basée non seulement sur le comportement des travailleurs, mais également sur d’autres critères liés eux à la profitabilité que le calcul opère pour l’entreprise entre tous les critères. Elle produit une “discrimination salariale algorithmique” (voir également son papier de recherche) qui permet aux entreprises de personnaliser et différencier les salaires d’une manière inconnue à ceux que ce calcul impacte, en les payant pour qu’ils se comportent de la manière dont l’entreprise le souhaite, à la limite de ce qu’ils sont disposés à accepter. L’asymétrie d’information laisse à l’entreprise toute latitude d’ajustement. Enfin, “la discrimination salariale algorithmique crée un marché du travail dans lequel des personnes qui effectuent le même travail, avec les mêmes compétences, pour la même entreprise, en même temps, peuvent percevoir une rémunération horaire différente, le tout via un système obscur qui ne permet ni de prédire ni de comprendre sa rémunération. 

Pourtant, rappelle la chercheuse, les lois internationales du travail rappellent qu’à travail égal salaire égal, et que les entreprises ne peuvent pas introduire de règles nouvelles ou opaques pour obscurcir le calcul du salaire. “Si un mineur devait être payé en fonction de la quantité de charbon qu’il extrayait, la société minière ne pouvait pas peser le charbon après l’avoir fait passer à travers un tamis”. Pourtant, c’est ce que font les calculs algorithmiques. Ils ruinent les logiques d’équité, notamment parce que le salarié ne peut pas connaître les critères que l’entreprise a déterminé pour évaluer son travail ou le planifier, et que le calcul rend le salaire de chaque personne différent, même si le travail est le même au même moment, comme c’est le cas entre les conductrice et les conducteurs d’Uber : les femmes gagnant 7% de moins que les hommes

En plus de saper l’équité salariale, la rémunération algorithmique est sans cesse changeante, ce qui fait que des pratiques rémunératrices peuvent ne plus le devenir d’une manière qui semble aléatoire au travailleur, alors qu’elles sont calculées. Les conducteurs parlent d’une “mécanique de casino”. Pour la chercheuse, le fait de reconnaître les coursiers comme des salariés ou de fixer des prix planchers pourraient améliorer les choses bien sûr. Mais la rémunération variable automatisée nécessite, elle, une réglementation supplémentaire. La contre-collecte de données (organisés par les travailleurs indépendants pour documenter les algorithmes auxquels ils n’ont pas accès, à l’image de ce que le Worker Info Exchange a mis en place pour et avec les chauffeurs d’Uber) ou les appels à une plus grande transparence des calculs oeuvrent dans le bon sens, mais sont également insuffisants. La chercheuse invite à aller plus loin via une “abolition de l’extraction de données au travail”. L’extraction de données au travail n’est pas nécessaire à la gestion du travail, rappelle-t-elle en invitant à en finir avec le calcul algorithmique au travail. Radical ! 

Réguler le croisement de données

Sans être aussi radical qu’elle, il me semble que le problème, ici, tient du fait que nous sommes en train d’autoriser des croisements de données qui ne devraient pas l’être. A l’ère de l’Intelligence artificielle, les entreprises ont intégré l’idée que pour améliorer leurs calculs, elles devaient disposer de toujours plus de données et que de leurs croisements sortiront des indicateurs de performance toujours plus optimaux. Mais on ne s’est jamais posé la question de savoir si certains croisements n’étaient pas souhaitables, voire contraires à l’esprit du droit du travail. Que se passe-t-il quand le calcul du salaire est corrélé au planning afin d’optimiser les deux, voire l’un plus que l’autre, comme le montrait le scandale Orion à la SNCF, où dans les entrepôts du hub logistique néerlandais, où les informations de planning sont corrélées avec le calcul de primes, pour les limiter. C’est typiquement ce que montre Veena Dubal quand elle souligne que la prime devient inaccessible à un chauffeur parce que son obtention vient en conflit avec l’objectif de réduction des coûts que programme également le système d’Uber. Pour ma part, il me semble qu’à l’heure où l’on promet de pouvoir croiser toutes les données les unes avec les autres, il est temps de se demander quelles données RH ne doivent pas être croisées entre elles. Pour poser la question des limites à la surveillance, il est nécessaire de regarder ce que produit l’interconnexion de ces données et de montrer qu’il y a des croisements de données, des calculs qui ne devraient pas être possibles. A l’heure où les entreprises partent du principe que toutes les données sont associables pour produire de meilleurs calculs et de meilleurs indicateurs, la piste qui n’est jamais évoquée dans cette libération des calculs, c’est la régulation de leurs croisements. Peut-être que certains croisements ne devraient pas être rendus possibles, parce qu’ils transforment profondément l’esprit de la loi qui régit le code du travail. En tout cas, à l’heure où tous les croisements de données sont autorisés, nous interroger sur ce qui ne devrait pas être corrélé est assurément un exercice qui pêche par son absence.

Pas de transparence sans lutte sociale

En fait, les appels à la transparence se démultiplient sans être suivis d’effets, d’abord parce que le régulateur n’incite pas à la transparence, mais surtout, parce qu’à elle-seule, la transparence ne suffit pas à produire le progrès social.  

En septembre, la Stanford Social Innovation Review publiait un dossier sur les questions de technologies au travail. Parmi les contributions, celle de Christina Colclough et Kate Lappin revenait sur la nécessité de se mobiliser pour que le développement technique au travail soit plus maîtrisé qu’il n’est (on avait déjà rencontré les stimulantes réflexions de Christina Colclough en défense de l’algogouvernance). « Les systèmes numériques au travail sont souvent présentés comme augmentant l’efficacité et la productivité et rendant les décisions plus neutres, en supprimant la subjectivité humaine. Mais trop souvent, les algorithmes reproduisent et intensifient les inégalités et les préjugés, conduisent à une demande croissante de productivité des travailleurs et utilisent les données des employés de manière à la fois opaque et abusive. Aujourd’hui, les travailleurs n’ont aucune idée des données qui sont collectées par devers eux ni de la manière dont elles sont utilisées pour évaluer leurs performances, alors que des jugements sont souvent effectués par des systèmes automatisés tiers, dont les fonctionnements ne sont jamais explicités ». Alors que les cas problématiques documentés sont nombreux, la même cause produit les mêmes effets : « lorsque les travailleurs n’ont pas accès aux algorithmes utilisés par les employeurs, il est presque impossible de prouver qu’il y a eu discrimination ». La transparence en matière de salaires et de conditions de travail est censée être la règle, mais les systèmes numériques propriétaires sapent ce principe. 

Construire des syndicats puissants pour dominer le bossware de l’IA.

Pour l’améliorer, plusieurs initiatives sont mobilisables, comme la formation en négociation sur la numérisation dispensée par le syndicat Public Service International ou encore le guide de la gouvernance des systèmes algorithmiques au travail du Why Not Lab, le cabinet de conseil de Colclough, qui permet aux syndicats d’adresser des questions aux directions sur les systèmes utilisés ou encore la clause du droit d’entrée numérique que les syndicats proposent d’introduire dans les conventions collectives, afin que les technologies utilisées par les employeurs soient mieux documentées. Les deux autrices défendent une gouvernance inclusive des systèmes avec ceux qui sont affectés par eux. Le Community and Public Sector Union australien qui représente les travailleurs qui gèrent le système de protection sociale a négocié avec succès un ensemble de clauses dans sa nouvelle convention collective pour permettre aux travailleurs sociaux de dénoncer des utilisations d’algorithmes contraire à l’éthique, afin qu’à l’avenir un scandale comme celui du robot-dette (un programme gouvernemental qui a envoyé des demandes de remboursement de dettes à plus de 400 000 bénéficiaires de prestations sociales) ne puisse plus être possible. Reste, rappellent les deux chercheuses et militantes, qu’aucun des progrès obtenus par des travailleurs n’a été obtenu facilement : tous sont le résultat d’une lutte soutenue, et celle-ci doit désormais se faire jusqu’aux outils numériques !

Un autre article sur la surveillance des lieux de travail, explique que celle-ci n’a plus du tout comme enjeu le déploiement de caméras de surveillance. La surveillance des cadences et des comportements est désormais l’objet d’innombrables dispositifs embarqués… La pandémie a favorisé l’essor de systèmes de surveillance, comme le montrait un rapport de Data & Society sur « le patron perpétuel ». Le rapport de Coworker sur le déploiement des « petites technologies de surveillance », mais omniprésentes (qu’on évoquait dans cet article) rappelait déjà que c’est un essaim de solutions qui se déversent désormais sur les employés. A l’image des outils de surveillance des postures comme StrongArm ou Modjul qui commencent à coloniser les entrepôts de Walmart et d’Amazon et qui transforment la question de la sécurité au travail en score que les employés doivent respecter. 

Le patron perpétuel, un rapport de Data & Society

Les conséquences sont diverses : augmentation de la discrimination, de la surveillance, atteintes à la vie privée et aux droits d’organisation collective, marchandisation des données, impossibilité de se déconnecter… « La surveillance n’est pas simplement une pratique commerciale invasive, mais un principe opérationnel visant à contrôler les travailleurs et à optimiser les profits »

Le Bossware : « une pratique commerciale déloyale »

Avec sa verve à nulle autre pareille, Cory Doctorow explique que les logiciels du patronat sont aussi défaillants que l’a été la gestion scientifique du travail inventée par « l’escroc » Frederic Taylor. Taylor a fait croire aux riches industriels qu’il pouvait augmenter la productivité des ouvriers en « transformant leur travail en une sorte de kabuki de l’obéissance ». Les employés n’étaient pas plus efficaces, mais avaient l’air plus obéissants, ironise-t-il, à la plus grande satisfaction de leurs patrons. Les employeurs ont pourtant bien remarqué que leurs revenus ne s’amélioraient pas avec le taylorisme, mais Taylor leur a fait croire que c’était parce que cette gestion scientifique n’était pas encore assez aboutie. « Plus ses conseils étaient mauvais, plus il y avait de raisons de le payer pour plus de conseils ». « Le taylorisme est une arnaque parfaite pour les riches et les puissants. Il alimente leurs préjugés et leur méfiance envers leurs employés, et leur confiance mal placée en leur propre capacité à comprendre le travail de leurs employés mieux que leurs employés. » 

Ce management scientifique du travail est désormais disponible sous formes d’innombrables applications, explique Doctorow. C’est ce qu’on appelle le « bossware », le matériel du patron. « Les travailleurs indépendants sont au cœur du bossware ». Alors que le travailleur indépendant rêve de devenir son propre patron, il est en fait totalement dépendant d’un téléphone qui le surveille et le discipline en continue. Et l’IA vient renouveler cette bulle du bossware, qui continue à venir convaincre les patrons que l’IA va pouvoir faire votre travail à votre place, comme il a été convaincu que la gestion scientifique du travail allait améliorer la productivité. 

Pour Alvaro Bedoya, commissaire à la Commission fédérale du travail américaine (FTC) qui s’intéresse à la protection des travailleurs, cette gestion algorithmique du travail devrait être considérée comme illégale, explique-t-il dans une stimulante défense. En moyenne, rappelle ce dernier, un employé d’un centre d’appels est soumis à au moins 5 formes de surveillance qui pèsent sur lui, le dénigrent et ne tolèrent aucune discussion. A savoir, une surveillance vidéo sous IA, une surveillance vocale sous IA qui prétend mesurer leur empathie, une IA qui chronomètre leurs appels, une autre qui analyse les sentiments durant l’appel et une dernière qui évalue la réussite des employés à atteindre des objectifs arbitraires. Bedoya estime que ces surveillances pourraient être qualifiées de pratiques commerciales déloyales… Prouver une pratique commerciale déloyale nécessite de démontrer qu’elle cause un « préjudice substantiel », qu’elle ne peut pas être « raisonnablement évitée » et qu’elle n’est pas corrigée par un « avantage compensatoire ». Dans son discours, Bedoya fait valoir que la gestion algorithmique du travail satisfait à ces trois critères… et que la FTC qui est chargée de réguler les pratiques commerciales déloyales devrait être capable d’agir. Par exemple, il est clair que l’augmentation des cadences que produit le bossware conduit à des préjudices sur la santé des employés. Que l’autoritarisme des applications de surveillance des chauffeurs-livreurs ne peut pas être évité. Enfin, elles ne proposent aucun avantage compensatoire, au contraire. La gestion algorithmique du travail produit surtout des sanctions arbitraires, comme quand les opérateurs de centres d’appels qui ont un accent, du Sud des Etats-Unis ou des Philippines, sont évalués négativement par les IA qui sont chargés de détecter leur émotion. « Les travailleurs devraient avoir le droit de savoir quelles données les concernant sont collectées, par qui elles sont partagées et comment elles sont utilisées. Nous devrions tous avoir ce droit. »

« Les gens riches peuvent rester irrationnels plus longtemps que vous ne pouvez rester solvables. Les marchés ne résoudront pas ce problème, mais le pouvoir des travailleurs le peut », conclut Doctorow.

Reste que démontrer l’arbitraire et pire encore l’absurdité des calculs reste extrêmement difficile

Dans un autre billet, l’infatigable Doctorow revient sur le travail d’un groupe de chercheurs et de hackers européens, Reversing Works (une division spécialisée du collectif AI Forensics, ex-Tracking Exposed), qui ont contribué à un travail d’ingénierie inversée sur l’application de livraison italienne Glovo/Foodinho, multicondamnée par les autorités italiennes pour atteinte à la vie privée. Dans un rapport publié par l’Institut syndical européen en novembre 2023, on apprenait que l’application démultipliait l’utilisation de données problématiques, surveillait les travailleurs au-delà de leurs heures de travail, utilisait un score de notation des travailleurs et envoyait d’innombrables informations confidentielles à des tiers. Pour Doctorow, ce mode d’enquête et de révélation présente un réel potentiel pour les organisations syndicales qui cherchent à protéger les travailleurs et promet également de développer des outils d’action directe qui permettent aux travailleurs de retrouver du pouvoir. « Ce n’est qu’en s’emparant des moyens de calcul que les travailleurs et les syndicats peuvent renverser la situation face au système de domination, à la fois en modifiant directement les conditions de leur emploi et en produisant les preuves nécessaires à ces démonstrations. Autant d’outils que les régulateurs pourraient également utiliser pour forcer les employeurs à rendre ces changements permanents. » Comme l’expliquait le collectif dans un communiqué, le RGPD est insuffisamment utilisé par les syndicats, notamment parce que « la vie privée est un droit individuel qui n’est pas considéré comme un outil de lutte des travailleurs », alors qu’il permet de contester nombre de pratiques déloyales. 

Reste que la production de « contre-données » – comme l’ont fait Reversing Works avec Glovo, le Worker Info Exchange ou le Stop-Club au Brésil ou encore Driver’s seat, une coopérative de chauffeurs qui aide les conducteurs à utiliser leurs données pour optimiser leurs revenus – n’est pas si simple. Le problème, bien sûr, c’est que ces collectes sont compliquées et fragiles à mettre en place et leurs résultats pas toujours assurés. En 2021 par exemple, des livreurs de Doordash avaient mis au point un outil pour observer les pourboires qu’ils recevaient sur l’application pour veiller à ce que l’entreprise ne les accapare pas… jusqu’à ce que l’entreprise ferme l’accès aux données. Sans compter que bien souvent, le législateur ne permet pas aux employés de produire des données en parallèle de celles de l’employeur. 

Pas plus qu’il n’oblige les entreprises au partage de données à leurs employés et à leurs représentants… Le problème, c’est que le RGPD en consacrant exclusivement un droit aux données personnelles a oublié d’armer le droit aux données collectives. C’est bien souvent au prétexte que les données mobilisées par les entreprises sont personnelles que les collectifs de travail et les syndicats ne peuvent y avoir accès, alors que leur traitement collectif, lui, est possible pour les entreprises. 

Limiter les cadences comme on lutte contre le morcellement des horaires

Autre piste d’action pour limiter la surveillance au travail : mettre des seuils aux cadences que la convergence des systèmes de surveillance numérique tentent d’optimiser ! La réponse consiste alors pour le régulateur à poser des limites aux cadences (à l’image d’une récente loi californienne et de la décision de la Cnil contre Amazon Logistic) tout comme il intervient parfois pour définir des limites aux morcellement horaires du travail en définissant par exemple des durées minimales de travail journalier. 

Reste que légiférer pour faire que les outils de contrôle du travail rendent des comptes est difficile, comme le montre l’échec de la loi new-yorkaise à imposer des audits aux outils d’embauches automatisés qui continuent à proposer peu de recours et de garantie aux chercheurs d’emplois (voir notre article sur la question, qui pointait les limites de la régulation des outils de recrutement automatisés). 

Autre risque : le caractère discrétionnaire et opaque des promotions et avantages, à l’image du titre de « Master » qu’Amazon attribue à certains travailleurs du Mechanical Turk selon un score de confiance confidentiel : une forme de plafond de verre algorithmique que dénonçait la chercheuse Lilly Irani. Même chose quand Amazon finalement note les travailleurs de ses entrepôts selon leur rapidité d’exécution ou leur taux d’erreur, sans prendre en compte les particularités de ses employés, indifférent aux situations, au genre, au handicap… ou au taux d’accident provoqué. Ajoutez à cela le fait que les données permettent de fixer des objectifs dynamiques, des performances changeantes et opaques… et vous avez un cocktail de paramètres opaques qui vient directement impacter et fragiliser le droit du travail. 

Il n’y aura pas de limites à la surveillance sans consacrer un droit d’accès aux données pour les travailleurs

Qui décide de la signification que les traitements produisent depuis les données ? Telles sont les questions que pose un intéressant travail sur la dataification du travailleur réalisé par la chercheuse Alexandra Mateescu pour Data & Society. La chercheuse y rappelle simplement que le management algorithmique ne peut pas remplacer les règles qui garantissent des droits équitables, comme le pointait déjà l’AI Now Institute. Quant à l’information des salariés sur la collecte et le traitement des données les concernant, elle est bien souvent insuffisante pour remédier aux problèmes. Le management algorithmique ne peut pas remplacer les droits des travailleurs, bien au contraire, il les sape. 

Pour dépasser ces problèmes, nombre de travailleurs tentent de s’organiser pour reprendre la main sur leurs données, explique Alexandra Mateescu. Mais ces tentatives nécessitent de leur part une organisation, une expertise et des moyens dont ils ne disposent pas toujours

Les syndicats sont néanmoins de plus en plus conscients de l’impact des données et tentent de plus en plus souvent d’inclure des dispositions relatives à celles-ci dans leurs négociations, comme le montrait la chercheuse Lisa Kresge dans un rapport pour le Labor Center de Berkeley. Une coalition de syndicats de services publics européens a mis en place un espace de ressource (en français) pour faciliter les négociations sur les enjeux numériques. Reste que la question des données et de leur accès demeure trop souvent secondaire dans les négociations syndicales. On le comprend. Mais il n’y aura pas de limites à la surveillance sans consacrer un droit d’accès et de traitement pour les travailleurs et leurs représentants. 

Hubert Guillaud