La désinformation est terminée !

La difficulté à contenir la désinformation a été un échec. Elle n’est pas tant terminée que plus distribuée que jamais, sans que la recherche n’ait réussi à produire de preuves sur son fonctionnement concret.

Hubert Guillaud

La panique morale de la désinformation sur les réseaux sociaux serait-elle terminée ? C’est ce que suggère Politico. En 2016, quand Trump a emporté l’élection présidentielle américaine ou quand le Brexit l’a emporté au Royaume-Uni, tout le monde a accusé la désinformation et les réseaux sociaux. “S’en est suivi près d’une décennie d’inquiétude face à la désinformation, les législateurs se demandant quelles idées les plateformes de réseaux sociaux devraient autoriser à se propager et se désolant de voir que tout ce débat rongeait irrémédiablement les fondements de la société”. Pour Kelly McBride, chercheuse en éthique des médias au Poynter Institute, cette fois-ci, “personne n’a été trompé en votant pour Trump” – même si c’est peut-être un peu plus compliqué que cela, la différence de 250 000 voix entre Trump et Harris, pouvant aussi s’expliquer par la grande différence d’amplification des discours conservateurs, comme ceux de Musk et Trump par rapport à Harris. La panique de la désinformation a culminé avec le Covid et l’insurrection du 6 janvier 2021 au Capitole. Depuis 10 ans, la désinformation est devenue une obsession des médias et des élites politiques… Mais ce domaine d’études qui s’est démultiplié ces dernières années, est entré également en crise estime un article de la revue de Harvard consacrée au sujet : désinformés sur la désinformation

De la difficulté à mesurer la désinformation

Après 10 années de travaux, on a l’impression que l’étude de la désinformation n’arrive toujours pas à répondre à la question fondamentale des impacts réels de la désinformation, comme de ses effets sur les élections ou ses liens avec l’extrémisme et la radicalisation, cinglent les chercheuses, Irene Pasquetto, Gabrielle Lim et Samantha Bradshaw. Une question aussi fondamentale que la définition de la désinformation fait toujours débat et le rôle que joue celle-ci sur la société génère des conversations extrêmement polarisantes. Même la question de savoir si Facebook, X, ou l’ingérence russe ont influencé de manière significative les résultats des élections de 2016 n’est toujours pas tranchée. Pour Kathleen Hall Jamieson, auteure de Cyberwar : How Russian Hackers and Trolls Helped Elect a President: What We Don’t, Can’t, and Do Know (2018), le différentiel de voix dans les Etats clefs entre Clinton et Trump n’était que de 80 000 voix, une différence très faible qui plaide pour que certains messages aient conduits les électeurs démocrates à rester chez eux plutôt que d’aller voter. Pour Thomas Rid, auteur de Active Measures : the secret story of disinformation and political warfare (Mac Millan, 2020), il est peu probable que l’ingérence russe ait eut un effet sur le vote américain. L’étude la plus récente, montre plutôt que l’exposition aux comptes de désinformation russes était fortement concentrée : seulement 1 % des utilisateurs représentaient 70 % des expositions. Que cette concentration a surtout agit sur des comptes républicains que démocrates et que l’exposition aux campagnes d’ingérences russe ne montre pas de changement d’attitude du comportement électoral. Nous serions finalement plus têtus que crédules, comme le disait Hugo Mercier.

Depuis le début la désinformation repose sur le fait que des acteurs malveillants diffuseraient des informations fausses que les gens absorberaient sans le savoir ce qui ferait évoluer leurs croyances et comportements. Depuis le début, l’antidote s’est concentré à corriger les informations, en exerçant une pression sur les médias sociaux pour qu’ils suppriment, signalent ou dépriorisent ces contenus problématiques – sans là non plus apporter beaucoup de preuves que la vérification des faits fonctionne, comme le pointait Nature, en faisant le bilan du fact-checking à l’heure où les plateformes envisagent de l’abandonner (voire également la synthèse qu’en livre le Conseil national du numérique). Le problème était nouveau parce que l’influence des réseaux sociaux était nouveau, explique clairement Politico. Le cœur de la désinformation provenant d’acteurs hostiles, souvent étrangers, polluant le discours public. Les études ont pourtant fini par montrer que la désinformation la plus flagrante n’est généralement consommée que par un petit groupe de personnes très investies et encline au conspirationnisme. La désinformation la plus puissante n’est pas tant diffusée par des trolls anonymes sur Internet, mais provient plus souvent d’acteurs nationaux établis. Enfin, la grande majorité de cette désinformation tient plutôt de bribes de vérité décontextualisées de manière trompeuse et provient bien plus de débats télévisés ou de rassemblements publics que des médias sociaux.

L’absence de modération oriente les discours vers la droite

En fait, explique Politico, les recherches ont donné peu à peu raison aux plus sceptiques sur l’impact de la désinformation. Aux Etats-Unis enfin, les études sur le sujet ont aussi été la cible de poursuites judiciaires nourries, notamment du camp Républicain. Et les grandes plateformes ont peu à peu changé de politique. Alors qu’en 2021 Meta a suspendu le compte de Trump, en 2023, l’entreprise a cessé de supprimer les publications qui reprenaient les déclarations de Trump, avant de rétablir discrètement son profil. En août, Zuckerberg a envoyé une lettre aux Républicains du Congrès exprimant ses regrets que Meta ait cédé à la pression de l’administration Biden pour censurer les contenus liés au Covid-19. “Le dédain d’Elon Musk pour la modération du contenu sur X a également accéléré le changement des normes du secteur et a contribué à ce que d’autres plateformes réduisent la surveillance du contenu.” Tant et si bien que désormais, les rumeurs sans fondements, comme le fait que les immigrants mangeraient des chats, peuvent s’exprimer sans contraintes. “Le discours public du pays s’est déplacé vers la droite, de sorte qu’il n’est plus nécessaire de regarder les espaces marginaux pour entendre des sentiments anti-immigrés, anti-féministes, anti-trans, anti-LGBTQ”, constate Alice Marwick, la directrice de Data & Society. Et le fait de savoir si ce déplacement est dû au réseaux sociaux reste une question ouverte…

A se demander si, plus que d’avoir été résolues, la désinformation et la polarisation ne sont pas devenues plus communes. Déterminer l’impact de la désinformation sur les comportements politiques est une tâche trop ardue, qui ne peut peut-être pas être quantifiée, explique la chercheuse. Pour Marwick, la criminalité des immigrés ou les diffamation sur les femmes qui couchent pour arriver sont des récits qui persistent depuis des millénaires. “Beaucoup de ces choses persistent, non pas parce que l’information elle-même est vraie ou fausse, mais parce qu’elles correspondent à la compréhension commune des gens sur le fonctionnement du monde”. En 2016, l’analyse se concentrait sur les bots russes et la technologie, explique le professeur de journalisme Reece Peck. La persuasion tient bien plus du charisme, estime-t-il après avoir étudié l’impact des médias alternatifs. Le célèbre podcasteur américain Joe Rogan ne peut pas être battu par la qualité de l’information qu’on pourrait lui opposer. L’idée selon laquelle la qualité de l’information et des faits permet de mettre à mal la désinformation ne fonctionne pas.

Sur Tech Policy Press, la jeune chercheuse Sydney Demets, tente de comprendre pourquoi les podcasts conservateurs sont devenus si persuasifs. La voix, la proximité, la confidence, l’authenticité… génèrent une forme d’intimité et de confiance avec les animateurs. Leur longueur permet également de répéter et d’infuser les convictions des animateurs au public, de plaisanter, sur un ton intime et personnel qui paraît plus authentique que les échanges impersonnels et plus courts que l’on trouve à la radio. Même les blagues racistes permettent de donner l’impression d’être plus authentique que les propos policés des médias traditionnels. Malgré les politiques des plateformes, comme Apple ou Spotify, même les podcasts connus pour leur rhétorique violente ne sont pas modérés. En fait, les propos problématiques n’ont aucune répercussions. Le succès des podcasts s’explique certainement bien plus par le fait qu’ils sont un espace où la modération ne s’applique pas. On comprend alors que toutes les autres plateformes oeuvrent à la limiter, pour bénéficier d’une amplification sans frein et des revenus qui vont avec.

Ce n’est pas la désinformation qui est terminée, mais bien les modalités de sa contention. Peut-être qu’en cherchant la vérité à tout crin, nous nous sommes trompés de cible ? La réponse à la question tient peut-être bien plus à limiter l’amplification que produisent les plateformes qu’à contrôler la vérité ! Mais là non plus, nous n’avons pas encore trouvé les éléments pour limiter l’amplification, contraints par des modèles économiques qui ne cessent de la sublimer. De l’amplification des propos les plus polémiques à la fortune des milliardaires, on a décidément beaucoup de mal à limiter la démesure.

Ajout du 24/01/2025 :

« Les technologies à travers lesquelles nous voyons le public façonnent ce que nous pensons qu’il est »

Dans son excellente newsletter, Henry Farrell propose une explication éclairante sur la désinformation dans les médias sociaux. Pour lui, nous avons tendance à penser la démocratie comme un phénomène qui dépend des connaissances et des capacités individuelles des citoyens quand il s’agit avant d’un problème collectif. Nous voulons des citoyens sages, bien informés et disposés à réfléchir au bien collectif. Mais les citoyens individuellement sont partiaux et peu informés, ce qui donne du crédit à une thèse élitiste et anti-démocratique, qui valorise les élites bien informées sur tous les autres, alors qu’ils sont tout aussi partiaux que les autres. Aider les individus à voir les angles morts de leurs raisonnements individuels ne suffira pas. « Ce dont nous avons besoin, ce sont de meilleurs moyens de penser collectivement », comme le défendaient Hugo Mercier, Melissa Schwartzberg et Henry Farrell dans un article de recherche, qui rappelle qu’une grande partie des travaux sur les biais cognitifs humains suggère que les gens peuvent en fait penser beaucoup mieux collectivement qu’individuellement et qui invite à s’intéresser « aux publics démocratiques ». Le problème, c’est que nous ne savons pas ce que tous les citoyens veulent ou croient. D’où le fait que nous ayons recours à des technologies représentatives plus ou moins efficaces, du vote aux sondages. Mais, ces systèmes ne sont pas que des mesures passives : ils rétroagissent sur les publics, c’est-à-dire que les publics sont aussi façonnés par les technologies qui les représentent. « Les technologies à travers lesquelles nous voyons le public façonnent ce que nous pensons qu’il est » et en retour cela façonne notre comportement et notre orientation politique. X ou Facebook sont profondément des outils pour façonner les publics et nos regards sur ceux-ci.

Pour le comprendre, Farrell donne un exemple éclairant. Dans un article de 2019 de Logic Mag, Gustavo Turner évoquait la pornographie sur internet. Il y expliquait que la présentation et la perception que nous avons de la pornographie est façonnée par les algorithmes, mais que ceux-ci sont plus orientés pour valoriser ce pour quoi les publics sont prêts à payer que ce que les gens veulent voir. Les entreprises de pornographie se concentrent sur leurs clients plus que sur le public, et ce sont les goûts des clients qui façonnent les plateformes. Cela a pour résultat de sur-représenter certaines pratiques sur d’autres, non pas parce qu’elles sont les plus populaires auprès des consommateurs, mais parce qu’elles sont plus susceptibles de convertir le public en clients payants. Ce qui, en retour, à des effets sur le public, par exemple les adolescents, leur apportant une vision très déformée de ce qu’on peut considérer comme des pratiques sexuelles communes. Ce qui produit une vision très déformée de leur réalité. L’exemple permet de comprendre que les perspectives collectives qui émergent des médias sociaux – notre compréhension de ce que le public est et veut – sont façonnées de la même manière par des algorithmes qui sélectionnent certains aspects du public tout en en mettant de côté d’autres. « Le changement le plus important concerne nos croyances sur ce que pensent les autres, que nous mettons constamment à jour en fonction de l’observation sociale que nous faisons ». Musk déforme X pour qu’il serve ses intérêts. « Le résultat est que X/Twitter est un Pornhub où tout est tordu autour des défauts particuliers d’un individu spécifique et visiblement perturbé ». Rien de tout cela n’est un lavage de cerveau du public, explique Farrell. Mais on comprend bien comment les orientations économiques façonnent l’amplification. 

De même, on peut se demander si la polarisation croissante de genre que l’on constate en France comme ailleurs, n’est pas – aussi – un effet de l’exploitation du genre par les plateformes sociaux-publicitaires, comme le suggérait très pertinemment Melkom Boghossian pour la Fondation Jean Jaurès. « La demande de masculinité et de féminité est extrêmement facile à stimuler une fois qu’elle a été ciblée chez les individus. Elle devient une source inépuisable de suggestions de contenus, de formation de l’image du monde et, à terme, de redéfinition des comportements ». Avec le risque est celui d’un renforcement des représentations de genres à l’heure où beaucoup souhaiteraient s’en libérer, c’est-à-dire qu’il devienne impossible de se libérer des contraintes de genres à mesure que nos outils les exploitent et les renforcent.