Perdu(e)s dans les transformations des recommandations

Partout, les recommandations sont en train d’être recomposées par l’IAification. Ce qui permettait d’être mis en visibilité ne fonctionne plus.

Hubert Guillaud

Au Royaume-Uni, des utilisatrices de Linked-in ont changé leur genre et leur prénom pour un prénom masculin sur la plateforme, voir ont réécrit leur profils et leurs posts sous une forme plus « masculine » en utilisant un vocabulaire plus offensif avec des termes plus marqués comme « stratégique » et « leader » (autant de traits de personnalités, de qualités comportementales pour beaucoup liées au vocabulaire utilisé et qu’on recouvre du terme de soft skills, et qui sont éminemment genrés, comme le soulignait une récente étude de la Dares)… et ont constaté une forte augmentation de leur engagement, rapporte The Guardian. Le journal britannique relate de nombreuses expériences informelles et empiriques au cours desquelles des femmes et des hommes travaillant dans des secteurs similaires ont publié le même contenu et où les hommes ont obtenu une portée considérablement supérieure. En France aussi, le phénomène a connu un peu d’écho, rapporte la journaliste Mathilde Saliou pour Next

Des études ont depuis longtemps démontré que les femmes rencontrent des obstacles supplémentaires à leur visibilité sur les réseaux sociaux. Un article publié en 2025 dans Nature Communications s’est penché sur l’autopromotion des travaux des universitaires sur Linked-in et a constaté que les femmes le faisaient 28 % moins souvent que les hommes. Comme le soulignent les auteurs, des recherches menées dans d’autres domaines indiquent déjà que les femmes ont appris à taire leurs réussites, en partie à cause des « réactions négatives » qu’elles suscitent lorsqu’elles prennent la parole. Ce mélange de réticence et de silence culturellement imposé constitue potentiellement un frein majeur à leur réussite sur Linked-In, un réseau saturé d’autopromoteurs (qui sont, en effet, majoritairement des hommes), rappelle la journaliste Isabel Berwick dans le Financial Times, en réagissant à la polémique.

Des utilisatrices de Linked-in ont lancé la campagne « Fairness in the Feed » (Équité dans le fil d’actualité), exigeant la transparence de la plateforme. Elles dénoncent un biais antiféministe de l’algorithme du fil d’actualité de la plateforme, ce que Linked-in dément, réaffirmant que « modifier le genre indiqué sur votre profil n’a aucune incidence sur l’affichage de votre contenu ». Linked-in explique que la diffusion des publications dépend de leur contenu, ainsi que de l’identité professionnelle et des compétences de l’auteur. L’entreprise indique évaluer régulièrement ses algorithmes, notamment en vérifiant les disparités liées au genre. Un porte-parole de Linked-in a suggéré que la récente baisse de la visibilité de certains utilisateurs était due à une augmentation considérable du volume de contenu sur le réseau, ajoutant que le nombre de commentaires avait progressé de 24 % et que les mises en ligne de vidéos avaient connu une hausse équivalente au cours du dernier trimestre… Mais cela n’a pas empêché les doutes des utilisatrices de perdurer, et d’une manière assez légitime puisque les mots utilisés dans le système d’IA de Linked-in ont des poids et que l’usage des mots est souvent assez genré. Linked-in peut affirmer qu’il surveille régulièrement son algorithme, comme le disait l’un de ses ingénieurs, ou expliquer régulièrement sur son blog officiel le fonctionnement de son flux d’actualité, sa complexité même le rend douteux et opaque aux utilisatrices et aux utilisateurs.

Dans sa newsletter, la journaliste Mathilde Saliou pointe notamment vers l’analyse accomplie par le chercheur indépendant Martyn Redstone qui a tenté une reconstruction systématique de l’architecture de recommandation de Linked-in, basée exclusivement sur ses publications techniques. L’analyse identifie les mécanismes de risques structurels par lesquels des inégalités de visibilité peuvent apparaître pour les groupes protégés par la loi, même en l’absence de discrimination intentionnelle. Il démontre comment des propriétés telles que « la compression d’identité, l’homophilie du réseau, la recherche pondérée par la popularité, le classement optimisé pour l’engagement, l’amplification par les notifications et les boucles de rétroaction d’attribution peuvent interagir pour produire des disparités persistantes en termes de portée et d’exposition ». Le rapport décrit également des stratégies d’atténuation techniquement réalisables – telles que la récupération équitable des résultats, la pondération des graphes pour limiter l’homophilie, la correction des interactions toxiques, les contrôles de parité des notifications et l’audit d’attribution contrefactuel – qui pourraient être mises en œuvre sans accès au code propriétaire.

Pour Redstone, les utilisatrices et utilisateurs peuvent se sentir « shadowbannés » même en l’absence de tout mécanisme de ce type. Il rappelle d’abord que le système transforme chaque personne en un vecteur unique, fusionnant identité, comportement et contexte de manière à encoder involontairement des caractéristiques protégées. Que le graphe amplifie les comportements majoritaires, renforçant encore la domination des groupes déjà dominants. Que le modèle de recherche privilégie les utilisateurs ayant un historique de publications régulier et un fort engagement, et pénalise ceux qui publient moins, quelque soit la raison pour laquelle ils publient moins. Que le modèle de classement de Linked-in comme de nombreux autres réseaux sociaux, considère la controverse et l’hostilité comme des signaux d’engagement précieux. Que le système de notification creuse l’écart, donnant aux utilisateurs à fort engagement un avantage encore plus grand. Enfin, que les modèles d’attribution valorisent les comportements des groupes majoritaires, orientant l’optimisation des plateformes vers des expériences qui les privilégient davantage. Aucun de ces mécanismes n’est intentionnellement biaisé, rappelle Redstone, mais, ensemble, « ils créent un système où les utilisateurs marginalisés sont systématiquement désavantagés ». Pour les plateformes, les inégalités structurelles apparaissent comme ne relevant pas de discriminations explicites.

Pour Redstone, Linked-in pourrait améliorer les choses en diminuant sa dépendance aux indicateurs de popularité, chercher à diminuer l’homophilie des graphes, améliorer la répartition des notifications entre les groupes démographiques… Et produire des audits continus des « disparités de portée ». Pour Redstone, « l’architecture ne peut pas se corriger d’elle-même. Sans garde-fous délibérés, les systèmes optimisés pour l’engagement reproduiront et amplifieront toujours les inégalités sociales ». Un propos qui n’est pas sans rappeler ce que disait déjà le chercheur Arvind Narayanan quand il dénonçait les boucles de l’amplification algorithmique.

L’IAification des réseaux sociaux

Pour le Journal du Net, Emmanuelle Petiau revient sur les derniers changements de l’algorithme de Linked-in et explique que désormais, publier ne suffit plus. En fait, depuis octobre 2025, le système de recommandation de Linked-in a profondément changé. Linked-in a passé son flux de recommandation à l’IA avec « 360brew » qui a profondément changé les règles de visibilité. La plateforme ne cherche plus les contenus intéressants, mais plutôt les profils (même si on peut être bien plus sceptique quand on nous annonce que la plateforme dévalorise les contenus génériques, alors qu’elle semble plus que jamais privilégier des contenus sous IA…). Le consultant Xavier Degraux propose des explications assez proches, mais pas toujours, par exemple sur le fait que l’enregistrement des billets serait peu valorisé dans 360brew. Ces évolutions récentes que les usagères et usagers de Linked-in n’ont pas vu passer permettent certainement d’expliquer le doute qui a pu saisir les utilisatrices et nombre d’utilisateurs quant à la chute et à la transformation de leur audience.

Les modalités de recommandations des réseaux sociaux n’ont eu de cesse de changer et d’évoluer. Mais depuis peu, elles sont surtout bouleversées par l’IA. C’est le cas par exemple de l’algorithme de X, rapporte le Siècle Digital, qui vient de publier sur Github de nombreux éléments de son algorithme de recommandation. Les algorithmes de recommandation de X sont désormais pilotés par Grok, l’IA générative de X. « Les poids attribués aux actions positives ou négatives ne sont plus publics, contrairement à la version de 2023. Les paramètres internes Grok, tout comme les données ayant servi à son entraînement, ne sont pas divulgués également. » « La logique est désormais centrée sur la réaction réelle des utilisateurs, évaluée presque en temps réel. Pour les entreprises, cette ouverture agit comme une carte partielle, car elle permet de comprendre la philosophie du système, sans offrir de levier mécanique garanti. » C’est toute la difficulté à laquelle sont confrontés les utilisateurs et utilisatrices expérimentés : ne plus comprendre les leviers qui leurs permettent de se démarquer des autres.

Sur Youtube, les utilisateurs se posent des questions similaires, rapporte le journaliste David Julien Rahmil pour l’ADN. Et il est probable que l’intégration de l’IA dans tous les systèmes de recommandations provoquent la même perplexité.

Fort de ces éclairages, la grogne des utilisatrices de Linked-in doit peut-être être lue autrement. Ce que la colère des utilisatrices de Linked-in exprime, c’est peut-être que la plateforme n’a pas été suffisamment pédagogue dans les changements qu’elle a apportés. Que la nouvelle complexité des modalités de recommandations sous IA est peu lisible pour les utilisatrices et utilisateurs, notamment pour une partie de celles et ceux qui parvenaient à se jouer des contraintes et modifications algorithmiques. Avec l’IA, à mesure que les systèmes se complexifient, l’asymétrie de pouvoir se renforce, comme si les systèmes voulaient seuls avoir la main et rendre toujours plus difficile la maîtrise de la visibilité. La grogne des utilisatrices de Linked-in nous montre surtout que les gens ne comprennent pas les rets dans lesquels ils sont pris et dans lesquels ils se débattent. Ils pensent que leurs pratiques, que les compétences que cela leur demande de développer, seront récompensées, alors qu’elles sont surtout sans cesse recomposées par les transformations des systèmes de recommandations. En « s’iaifiant », les systèmes de recommandation deviennent plus complexes et moins lisibles, recomposant le public qui parvenait à tirer partie des flux de recommandation. Derrière la grogne, il faut sans doute lire le fait que les usagers des médias sociaux perdent toujours un peu plus la main sur les recommandations, que les astuces et bonnes pratiques ne cessent d’être reconfigurées laissant les usagers dénués de modalités pour tirer partie d’un classement IAifié qui serait parfaitement pur. Les utilisateurs voudraient comprendre les règles qui semblent devenir de plus en plus obscures, et les laissent avec de moins en moins de pouvoir pour s’y adapter. La grogne exprime un mécontentement contre des règles que les plateformes définissent sans eux. Au risque d’ailleurs que les effets de bords de ces ajustements sous IA bénéficient d’abord aux contenus sous IA, optimisés pour l’engagement. Et quand on constate que sur la plupart des réseaux sociaux, l’essentiel des recommandations promeuvent de plus en plus de contenus sous IA, il y a effectivement de quoi s’inquiéter.

Les réseaux sociaux et les grands acteurs de l’IA semblent eux-mêmes commencer à s’inquiéter des perturbations que la généralisation des contenus sous IA introduisent. Il est presque paradoxal que ce soit TikTok qui annonce qu’il va permettre aux utilisateurs de contrôler la quantité de contenu généré par l’IA qu’ils voient. Dans ses paramètres de réglage, TikTok a annoncé l’arrivée d’un nouveau curseur IA  qui permettra de régler le niveau de contenu génératif visible, pour autant que l’entreprise arrive à bien les identifier, expliquait il y a quelques mois The Verge. Il y a quelques jours, c’est OpenAI qui constatait qu’il ne peut pas prospérer dans un écosystème informationnel qu’il fragilise« ChatGPT peut aider les internautes à trouver des informations locales, à condition que des journalistes locaux continuent de les couvrir ». Reste à savoir comment OpenAI va ralentir l’érosion des modèles économiques de la presse. Pour l’instant, il annonce un partenariat avec Axios, un grand groupe de presse d’informations locales et promet de publier plus d’informations sur la manière dont les utilisateurs utilisent l’IA pour s’informer. Pas sûr que cela suffise. OpenAI ici, cherche avant tout à continuer à obtenir de l’information de qualité tout en œuvrant à sa disparition. Enfin, ces transformations ne répondent pas ni au besoin de compréhension des leviers que les utilisateurs peuvent avoir sur les paramètres, les laissant de plus en plus démunis, sans possibilités d’actions pour booster leur visibilité. C’est comme si nous assistions à une capture du pouvoir de visibilité par les seules plateformes, sans plus aucun moyen pour les utilisateurs d’y faire leur chemin… Une capture qui pourrait bien générer de plus en plus de grogne. 

Les derniers jours des réseaux sociaux

C’est d’ailleurs ce que l’on constate déjà. L’engagement reflue. « Alors que le contenu prolifère, l’engagement s’évapore. Les taux d’interaction moyens sur les principales plateformes chutent rapidement : les publications Facebook et X atteignent péniblement un taux d’engagement moyen de 0,15 %, tandis qu’Instagram a chuté de 24 % sur un an. Même TikTok stagne. Les utilisateurs ne communiquent plus comme avant sur les réseaux sociaux ; ils se contentent de parcourir du contenu produit en masse, souvent grâce à l’IA, dans le seul but de susciter l’engagement. Et ce contenu est souvent de piètre qualité : moins de la moitié des adultes américains jugent désormais les informations qu’ils voient sur les réseaux sociaux « plutôt fiables », contre environ deux tiers au milieu des années 2010. »

« Les jeunes adultes sont les plus touchés, ce qui n’est pas surprenant ; nés avec le numérique, ils comprennent mieux que le contenu qu’ils consultent n’est pas forcément produit par des humains. Et pourtant, ils continuent de scroller. Le fil d’actualité n’est plus une source d’information ni un moyen d’affirmer sa présence sociale, mais plutôt un outil de régulation émotionnelle, se renouvelant sans cesse avec juste assez de nouveautés pour apaiser l’envie de s’arrêter. Le défilement est devenu une forme de dissociation ambiante, mi-consciente, mi-compulsive, plus proche du grattage d’une démangeaison que de la recherche d’un contenu précis. On sait que le fil d’actualité est faux, mais ça nous est égal. Les plateformes n’ont guère intérêt à endiguer ce phénomène. Les faux comptes sont peu coûteux, infatigables et lucratifs. Les systèmes conçus pour favoriser les échanges entre utilisateurs filtrent désormais systématiquement ce type d’activité, car la notion d’engagement a évolué. L’engagement se mesure maintenant à l’attention brute de l’utilisateur – temps passé, impressions, vitesse de défilement – et le résultat est un monde en ligne où l’on est constamment interpellé, mais jamais vraiment écouté. »

L’agonie des réseaux sociaux ne sera pas un fracas, mais un simple haussement d’épaules, explique le chercheur James O’Sullivan dans Noema

Même les grandes plateformes perçoivent ce changement de cap. Instagram privilégie désormais les messages privés, X met en avant les cercles réservés aux abonnés et TikTok expérimente les communautés privées. Derrière ces évolutions se cache la reconnaissance implicite que le défilement infini, saturé de bots et de contenus artificiels, atteint déjà ses limites de tolérance.

« Les réseaux sociaux se sont construits sur l’attention, non seulement sur la promesse de capter la vôtre, mais aussi sur la possibilité de capter une part de celle des autres. Après deux décennies, le mécanisme s’est inversé, remplaçant la connexion par l’épuisement. (…) Le temps passé sur ces plateformes reste considérable : on y fait défiler les contenus non par plaisir, mais par incapacité à s’arrêter. »

Certains créateurs jettent l’éponge. Face à la concurrence d’acteurs virtuels qui ne dorment jamais, la course à la visibilité leur paraît non seulement épuisante, mais absurde. Pourquoi poster un selfie quand une IA peut en générer un plus joli ? Pourquoi se creuser la tête quand ChatGPT peut produire un contenu plus rapidement ? Nous vivons les derniers jours des réseaux sociaux, non pas par manque de contenu, mais parce que l’économie de l’attention a atteint ses limites : notre capacité d’attention est épuisée. Les réseaux sociaux ne sont plus un lieu où l’on a envie d’être, mais une surface à survoler.

Reste à savoir si l’on peut s’en passer ? « L’adolescente qui refuse TikTok risque de se retrouver incapable de décrypter les références, les mèmes et les microcultures qui constituent le langage courant de ses pairs. » Ces plateformes n’ont pas seulement capturé l’attention, elles ont aussi confiné les espaces communs où s’échangent les capitaux sociaux, économiques et culturels. Reste qu’à mesure que les médias sociaux s’effondrent sur eux-mêmes, l’avenir se dessine vers un réseau plus discret, plus fragmenté, plus humain, qui ne prétend plus être tout, partout et pour tous. Les applications de messagerie comme Signal deviennent discrètement des infrastructures dominantes de la vie sociale numérique, non pas parce qu’elles promettent la découverte, mais justement parce qu’elles ne le font pas. Dans ces espaces, un message a souvent plus de sens car il est généralement adressé, et non diffusé de manière systématique.

« Les derniers jours des réseaux sociaux pourraient bien marquer le début d’une ère plus humaine : un web qui se souvient de la raison même de notre présence en ligne : non pas pour être exploités, mais pour être entendus ; non pas pour devenir viraux, mais pour retrouver nos semblables ; non pas pour faire défiler, mais pour créer du lien. Nous avons bâti ces systèmes, et nous pouvons assurément en construire de meilleurs. La question est de savoir si nous y parviendrons ou si nous continuerons à nous noyer. »

Hubert Guillaud

Cet édito a été publié à l’origine pour la lettre Café IA du 6 février 2026.