La responsabilité ne suffit pas

Quand nous affirmons que les médias sociaux sont le lieu du problème, nous considérons que la technologie est le lieu de la solution. Pas sûr que ce soit si simple, nous explique danah boyd.

Hubert Guillaud

Comme à son habitude, danah boyd pose une question très pertinente en nous invitant à distinguer le risque du préjudice

Savoir si l’usage des réseaux sociaux par les adolescents relève d’un risque ou cause un préjudice est une distinction importante. Le préjudice induit une nature causale. En droit, les avocats cherchent des préjudices pour les imputer aux acteurs qui les causent ou les réglementer. Quand une personne cause un préjudice à une autre, nous souhaitons que cette personne soit tenue pour responsable. La difficulté consiste à prouver le lien entre le préjudice subi et l’intentionnalité du concepteur. 

Le risque, lui, nécessite qu’on les identifie et qu’on les gère. « Certains environnements introduisent davantage de risques potentiels et certaines actions les réduisent ». Si la réglementation peut être utilisée pour les réduire, elle ne peut pas les éliminer. Ce qui fait que la réduction du risque se retourne parfois contre les utilisateurs, les tenants responsables de ce qu’ils partagent alors que les effets d’amplification ne sont pas nécessairement de leurs faits. 

Concevoir, éduquer, socialiser et prendre soin : piliers de la réduction des risques

Le ski par exemple est une pratique risquée, explique danah boyd, qui nécessite beaucoup d’éducation, de messages de prévention, et des mesures pour limiter les risques que les gens prennent. Tous les environnements sociaux sont risqués. Traverser la rue l’est également. L’un des éléments clés de la socialisation de l’enfance à l’âge adulte est d’apprendre à évaluer et à réagir aux risques inhérents à l’existence. Nous savons apprendre aux plus jeunes à traverser la rue. Et nous savons également aménager la rue pour diminuer les risques. Pour limiter les risques nous avons donc 3 leviers : agir sur l’environnement, éduquer et socialiser. 

Les médias sociaux peuvent être dangereux pour les plus jeunes. Nous pouvons améliorer leur conception pour qu’ils le soient moins, bien sûr. Le problème, c’est que nous ne savons pas toujours comment améliorer leur conception pour qu’ils soient moins dangereux et ces interventions peuvent se révéler pires qu’on le pense. Cela ne signifie pas qu’on doive renoncer à les améliorer, bien au contraire, mais qu’on ne peut peut-être pas cimenter leur conception dans la loi pas plus que nous ne sommes capables de gérer les risques uniquement en améliorant la conception. Ainsi, nous focaliser sur une meilleure conception de la ville est inutile si nous ne faisons aucun travail pour socialiser et éduquer ceux qui partagent l’espace public… et si nous n’avons aucun dispositif pour venir en aide aux personnes en difficultés. 

Alors oui, des personnes subissent des préjudices sur les médias sociaux, notamment du fait d’autres utilisateurs de ces médias sociaux qui doivent en être tenus responsables (et parfois du fait de la conception même des plateformes). Mais l’on ne peut pas concevoir un système qui permette aux gens d’interagir sans subir jamais de préjudices. Le problème cependant consiste à faire la part entre la responsabilité des utilisateurs et celle des concepteurs de médias sociaux. Il consiste à savoir si certaines formes de conception rendent les préjudices et les risques plus probables. 

Les chercheurs ont largement mis en évidence que le harcèlement scolaire est plus fréquent à l’école que sur les réseaux sociaux, même s’il est plus visible sur ces derniers. Nombre d’écoles agissent en déployant des interventions pour éduquer et socialiser les élèves à ces problèmes. Ces programmes font souvent bien plus pour résoudre le harcèlement que l’amélioration de la conception des bâtiments, ironise la chercheuse – tout en suggérant de taxer les réseaux sociaux pour financer ces interventions dans le domaine scolaire. Bien sûr, les préjudices que subissent les gens sur les réseaux sociaux pourraient être atténués en améliorant le respect de la vie privée des utilisateurs, et pas seulement des plus jeunes d’ailleurs. « Mais même si vous pensez que les enfants sont particulièrement vulnérables, j’aimerais souligner que même si les enfants peuvent avoir besoin d’un siège d’appoint pour que la ceinture de sécurité fonctionne, tout le monde serait mieux loti si nous mettions en place des ceintures de sécurité pour la vie privée plutôt que de dire simplement que les enfants n’ont pas leur place dans les voitures. » Or, les projets de lois visant à exclure les plus jeunes des réseaux sociaux ne proposent de mettre en place aucune ceinture de sécurité, mais seulement de ne pas les accueillir dans les véhicules au risque qu’ils ne puissent plus se déplacer. 

Pourtant, rappelle la chercheuse, il est difficile d’imputer à la technologie la responsabilité des préjudices sociétaux, même si celle-ci amplifie très fortement nos plus mauvais penchants, comme l’intimidation, le harcèlement, le racisme, le sexisme, l’homophobie… Et il est naïf de croire que ces préjudices puissent être réparés par la seule technologie. Nous ne pouvons pas protéger nos enfants des maux de la société, tout comme les parents noirs ne peuvent empêcher leurs enfants d’être victimes du racisme. D’où l’importance d’éduquer les enfants blancs pour voir et résister au racisme. Nous devons aider nos enfants à voir la laideur du monde pour qu’ils deviennent les agents du changement. Les réseaux sociaux rendent nos travers sociaux plus visibles… servons-nous en. Mais éviter les réseaux sociaux ne les fera pas disparaître. Et boyd de noter que souvent, ceux là même qui propagent la haine souhaitent empêcher leurs enfants d’accéder à la technologie, certainement bien plus par peur que les exposer à la différence ne les rende plus tolérants. 

Il ne fait aucun doute que les médias et notamment les réseaux sociaux nous exposent à un monde plus vaste, plus diversifié et plus complexe. « Au début des réseaux sociaux, rappelle la chercheuse, je pensais que le simple fait d’exposer les gens aux autres augmenterait fondamentalement notre tolérance collective. J’ai appris depuis que ce n’était pas si simple et que l’exposition seule ne suffit pas. Mais isoler les gens ou interdire aux plus jeunes d’accéder aux réseaux sociaux, ne nous aidera pas non plus et n’aidera pas nos enfants à acquérir les compétences nécessaires pour vivre ensemble », conclut-elle, faisant écho à l’enjeu que nous avons, collectivement, à prendre soin de la construction du tissu social, comme elle nous y invitait déjà, il y a quelques années, dans un remarquable article

Vérification d’âge : quels murs construisons-nous ?

Cette tribune s’inscrit dans un débat plus large autour du Kids online Safety Act (Kosa), un projet de loi américain très controversé pour protéger les mineurs sur les médias sociaux. Une bonne synthèse des enjeux est résumé dans un rapport dirigé par la chercheuse Alice Marwick (qui est également la directrice de la recherche de Data & Society, le groupe de recherche de Microsoft fondé par danah boyd il y a 10 ans) qui montre les limites de la proposition de loi et notamment le fait que celle-ci puisse permette d’augmenter la censure des contenus en donnant plus de pouvoir aux plateformes sans aider les jeunes qui sont en difficulté sur les médias sociaux. Le cœur du renforcement de la protection repose sur un dispositif de vérification d’âge, compliqué à mettre en œuvre. De nombreux pays l’envisagent, mais aucun n’a pour l’instant trouvé une méthode convaincante. En France où une vérification d’âge doit être mise en place pour l’accès aux sites pornographiques, la Cnil défend le recours à un vérificateur tiers indépendant et le double anonymat… Une solution qui n’a pour l’instant pas d’opérationnalité technique à l’efficacité démontrée. 

Lors d’un débat sur les implications de l’introduction de systèmes de vérification d’âge prévu notamment par ce projet de loi, danah boyd rappelait déjà que nous devrions aider les jeunes plutôt que de construire des murs autour d’eux. Sarah Forland co-auteure d’un rapport sur le sujet pour l’Open Technology Institute du think tank New America estime que la vérification d’âge doit toujours proposer des alternatives, que ces outils doivent maximiser la confidentialité et permettre aux utilisateurs de rester maître des modalités, alors qu’ils introduisent un risque de censure plus fort que jamais. Une réglementation de l’accès à internet selon l’âge semble à beaucoup une mauvaise réglementation mais elle est malgré tout préférable à l’absence de réglementation actuelle. Forland rappelle que si la vérification d’âge est une technologie controversée c’est parce qu’elle est difficile à mettre en œuvre

Dans le monde réel, d’ailleurs, contrairement à ce qu’on en dit souvent, elle marche très mal, rappelle boyd. Aux Etats-Unis, la consommation d’alcool est interdite aux moins de 21 ans, mais le pays a l’un des taux le plus élevé de consommation excessive d’alcool des plus jeunes. Si les plus jeunes ont un problème de consommation excessive, c’est parce que l’interdiction a transformé l’alcool en preuve que vous étiez adulte ce qui a généré une socialisation particulièrement malsaine. Voulons-nous faire la même chose ? Les enfants regardent leurs parents plongés toute la journée sur leur téléphones et on est en train de leur dire qu’ils ne pourront y avoir accès avant 18 ans ! En fait, on fait tout pour ne pas interroger les processus de socialisation et leurs limites. 

Les barrières d’âge n’aident en rien, disait déjà la chercheuse en 2011 ! Pour boyd, il y a d’un côté une crise de fragilité mentale des plus jeunes que nous devons aborder avec des programmes et des centres d’aides où le numérique n’a pas de rôle à jouer. De l’autre, il nous faut réglementer l’industrie technologique, hors de contrôle, ce qui est un tout autre problème qui nécessite de renforcer la confidentialité de tous, pour mieux protéger tout le monde et pas seulement les plus jeunes. boyd rappelle que lorsqu’elle étudiait la Coppa, la loi sur la protection de la vie privée des enfants en ligne, qui a introduit des protections pour les moins de 13 ans, plus de la moitié des parents mentaient sur l’âge de leurs enfants pour leur permettre d’accéder aux services web auxquels ils n’avaient plus droits. 

Pour la sociologue, on cherche à nouveau à répondre à un problème social par une solution technique qui ne le résoudra pas. Pour elle, nous avons bien plus besoin de structures de soins et d’accompagnement pour les plus jeunes que de dispositifs techniques. Nous avons besoin d’être capables d’apporter de l’aide à ceux qui en ont besoin avec des structures ouvertes et discrètes. « Nous devons être capables de prêter attention aux jeunes qui crient à l’aide plutôt que d’essayer de trouver des moyens de les rendre plus invisibles aux yeux des gens qui les entourent. » Pour l’avocat du Digital Trust & Safety Partenership, David Sullivan, c’est comme le filtrage de contenus dans les écoles qui, sous prétexte de protéger les enfants, semble faire bien plus de dégats qu’autre chose, en les empêchant d’accéder à des contenus essentiels. Pour danah boyd : lorsque nous nous concentrons sur la vérification d’âge, nous nous concentrons sur une réponse technique à un problème social, donc sur la technologie plutôt que sur les jeunes. Plutôt que de chercher à refabriquer de la socialisation, nous sommes en plein « solutionnisme techno-légal »

Le risque : croire que le code peut se substituer à la loi

Dans leur article de recherche, où elles développent ce concept, danah boyd et Maria Angel rappellent que le devoir de diligence que Kosa impose aux plateformes est ambiguë. Il tient les entreprises responsables de ne pas avoir pris de mesures raisonnables pour prévenir ou atténuer des risques complexes, comme l’intimidation, l’anxiété ou la dépression, pour lesquels les experts n’ont pas vraiment de solutions. Si la façon dont sont conçus les médias sociaux peuvent parfois donner lieu à des expériences sociales malsaines, déterminer les conséquences des effets de conception n’est pas toujours simple. Or, la diligence dans la modération qu’on demande aux plateformes est profondément ancrée dans une vision déterministe de la technique que les chercheuses appellent « solutionnisme techno-juridique ». C’est la façon même dont le législatif tente de pousser les plateformes à être diligentes qui pose problème. Le cadre réglementaire n’énonce pas d’exigences de conception spécifiques que les plateformes devraient éviter et n’observent que les résultats qu’elles doivent atteindre. « Cela équivaudrait à exiger des constructeurs automobiles qu’ils s’assurent que les conducteurs ne soient jamais distraits par des tiers et que tous les accidents soient évités plutôt que de les obliger à mettre en place des ceintures de sécurité. »

Pour le grand public, l’allégation consistant à penser que les médias sociaux sont nocifs pour les plus jeunes est très répandue. Les décideurs politiques ne se contentent pas d’affirmer que les plateformes de médias sociaux sont le lieu du problème : ils considèrent également la technologie comme le lieu de la solution. « Si les caractéristiques de conception sont le problème, exiger une bonne conception peut faire disparaître les préjudices », estiment ces règlements.  Le risque est de fournir une solution technique à une panique morale. « Lorsque Lessig a soutenu pour la première fois que « le code est la loi », il entendait signaler comment la conception du logiciel joue un rôle régulateur en rendant certains résultats plus ou moins probables. L’une des erreurs commises par les décideurs politiques est de réinterpréter ses propos pour adopter une vision techno-déterministe selon laquelle le code peut agir comme un substitut à la loi pour dicter l’avenir. » « Le problème, c’est que les entreprises technologiques seront obligées par la loi de concevoir leurs systèmes pour des résultats sociaux qu’elles ne peuvent pas contrôler. » Et rien ne prouve qu’une appréciation par les objectifs aidera réellement les jeunes en situation de vulnérabilité ni n’accomplira une meilleure conception. Au contraire. Il est probable qu’une telle politique encourage les entreprises à atteindre leurs objectifs en matière de sécurité en renforçant les logiques solutionnistes, tout en nous détournant d’autres approches fondées sur des preuves. 

Tout le monde répète que les médias sociaux seraient la cause de tous les maux… Mais « quel est l’impact de l’utilisation des médias sociaux sur la santé mentale des jeunes ? », questionnent les deux chercheuses. Les réponses des chercheurs à cette question ne sont pas tranchées. Ceux-ci ont plutôt montré que les problèmes sociaux et psychologiques en ligne ont des racines dans la dynamique sociale hors ligne, comme le harcèlement. Comme le montrait danah boyd dans son livre, C’est compliqué, la technologie est rarement la cause des problèmes des adolescents, mais est souvent l’endroit vers lequel ils se tournent lorsqu’ils sont en difficulté. Pour elle, les médias sociaux permettent de rendre visible les problèmes des jeunes plus qu’ils n’en sont la cause. En fait nous sommes là, face à une question très polarisée, comme l’a montré le journaliste du New York Times, Ezra Klein, en interviewant Jean Twenge qui pense que les médias sociaux ont des effets négatifs sur la santé mentale des jeunes et Lisa Damour qui montre qu’il n’y en est rien. Le lien entre les médias sociaux et la santé mentale des jeunes demeure complexe.

Les entreprises de la tech sont en mesure de concevoir leurs plateformes afin que les jeunes ne soient pas exposés à certains contenus ni ne participent à certaines activités. Mais les entreprises ne pourront jamais contrôler précisément la manière dont les comportements « autorisés » sur leurs plateformes affectent l’expérience et le bien être. Pour le dire plus simplement : les plateformes peuvent certes être mieux conçues, mais elles ne peuvent pas faire que les enfants ne soient pas rejetés par leurs pairs, ou que l’actualité ne provoque pas d’anxiété. En obligeant les plateformes à concevoir des « résultats positifs », les autorités semblent ignorer le caractère émergent du social. Si les entreprises peuvent ne pas montrer certaines publicités, exiger qu’elles produisent des résultats sociétaux positifs suppose qu’elles pourraient avoir un contrôle total sur les comportements sociaux. Le risque est que la réglementation crée des attentes irréalistes sur ce que le design peut faire pour les enfants. 

Or, dans un contexte où des livres ou même la justice raciale sont interdits dans nombre d’écoles américaines, la question de savoir ce qui a un impact négatif sur les jeunes est devenue une question éminemment politique. Les risques d’abus du projet de loi Kosa ont déclenché l’inquiétude de la communauté LGBTQ d’autant que les conservateurs ont plusieurs fois affirmé que le projet de loi avait pour but de protéger les mineurs de l’endoctrinement politique. La politisation des contenus est pourtant bien ce qui se déroule. Après les élections de 2016, les entreprises de médias sociaux ont un temps pris la question de la désinformation au sérieux. Le problème, c’est que la désinformation n’est pas la même pour tous, chacun souhaitant la définir en fonction de ses objectifs politiques. Mais surtout, en demandant aux entreprises technologiques d’améliorer leurs conceptions pour éviter les résultats négatifs, les décideurs politiques renforcent la rhétorique déterministe et solutionniste qui rend l’industrie technologique toxique en premier lieu. Pourtant, ce que les gens font avec une technologie donnée n’est pas déterminé par la conception seule, mais par les choix que les gens font en exploitant ces outils. Comme le disait Morozov lui-même, « en promettant des résultats presque immédiats et beaucoup moins chers, les solutions rapides peuvent facilement saper le soutien à des projets de réforme plus ambitieux, plus stimulants intellectuellement, mais aussi plus exigeants ». Le risque, c’est que le solutionnisme efface les problèmes sociaux d’abus, de pauvreté, d’inégalité… qui sont bien souvent à l’origine des problèmes que les législateurs voudraient atténuer. On ne fera pas disparaître les causes en nettoyant les symptômes !, rappellent les chercheuses. L’accès à des soins pour la santé mentale, la mise en œuvre de programmes d’éducation ont plus de chance de faire bouger les choses que de masquer des contenus sur les réseaux sociaux. 

Les législateurs ont raison d’exiger que les entreprises de médias sociaux cessent d’utiliser une conception manipulatrice pour exploiter les vulnérabilités décisionnelles du public. Tout comme ils l’ont fait avec d’autres formes de médias, les décideurs politiques peuvent et doivent se pencher sur les types de publicité et de fonctionnalités qui devraient être autorisés. Les décideurs politiques devraient réfléchir à ce qui pourrait constituer une « ceinture de sécurité numérique » et l’imposer. Cependant, si les décideurs politiques veulent réellement aider les jeunes à faire face aux difficultés sociales auxquelles ils sont confrontés, ils doivent adopter une approche écologique face à un problème qui a de multiples paramètres. Il n’existe pas de solution miracle. Tenir les entreprises technologiques responsables du bien-être des jeunes est politiquement attrayant, mais cela n’aidera pas les jeunes en situation de vulnérabilité. 

L’aporie de la gouvernance par les risques

Le risque, c’est de croire qu’on peut gouverner les risques depuis les calculs… et que toute régulation ne repose que sur la régulation par le risque, comme l’expliquait Irénée Régnauld, qui dénonce également cette approche paternaliste par le risque et explique que la gestion des risques ne peut pas constituer à elle seule un mode de gouvernement, au risque de verser dans un éternel monitoring ex post de systèmes n’ayant jamais fait l’objet d’aucune débats démocratiques. 

boyd semble bien confiante tout de même. Les entreprises pilotent et orientent à leur gré l’architecture de leurs plateformes, laissant bien peu d’espace à l’éducation et à la socialisation puisqu’on ne peut apprendre des comportements à tenir dans des usines où les convoyeurs changent sans arrêt, comme c’est le cas de leurs algorithmes d’amplification sociale. Les modalités de conception ont bien des effets, que les entreprises savent mesurer et orienter au bénéfice de leurs modèles d’affaires plus que du bien-être des utilisateurs ou de la valeur de leur recommandation pour la société, comme le montrait le chercheur Arvind Narayanan, Pour le dire dans le langage de boyd, les modalités de socialisation changent sans arrêt ce qui limite également nos capacités d’éducation, puisqu’il est bien difficile de comprendre les modulations algorithmiques. Les entreprises ne sont pas vertueuses et peu de choses les poussent à l’être. Bien sûr, les autorités ont des exigences toujours plus fortes de modération renforçant les biais de modération des plateformes, au risque de rendre certains sujets impossibles, et non des moindres. En renforçant le droit à la modération des réseaux sociaux, le risque est que les médias sociaux décident de quelles violences la société peut discuter, expliquait très pertinemment Alizée Vincent pour Arrêt sur Images, en montrant que la censure automatisée conduisait à confondre les violences policières ou sexuelles, avec leur dénonciation. 

TikTok comme Meta par exemple connaissent très bien les effets qu’ont leurs architectures de recommandation sur les gens et notamment sur les plus jeunes. Mark Zuckerberg lui-même convenait d’ailleurs que les utilisateurs ne contrôlent plus leurs flux de médias sociaux. La maîtrise totale de nos flux par les grandes plateformes pourrait avoir pour conséquence de les tenir plus responsables que jamais des risques qu’ils sont censés limiter, explique la journaliste Julia Angwin pour le New York Times. Quand ce à quoi nous accédions était la conséquence des décisions des utilisateurs, il était plus facile pour les entreprises de ne pas être tenues responsables des conséquences. Mais c’est devenu de moins en moins vrai. « Si les plateformes technologiques façonnent activement nos expériences, après tout, peut-être devraient-elles être tenues responsables de la création d’expériences qui nuisent à nos corps, à nos enfants, à nos communautés et à notre démocratie ». Aux Etats-Unis, plusieurs décisions de justice viennent de reconnaître que les plateformes ne pouvaient pas s’abriter derrière le fait qu’elles n’étaient pas responsables des contenus quand leurs algorithmes les orientent d’une manière aussi déterminante. Si le tribunal tient les plateformes responsables de leurs amplifications algorithmiques, cela pourrait les inciter à limiter la distribution de contenus nocifs mais également les conduire à renforcer la censure. 

Qu’en sera-t-il ? L’élection de Trump vient de rebattre profondément les cartes de ce débat.  A terme, il semble certain que ce ne sont pas les utilisateurs qui vont avoir la main. 
David Rotschild, chercheur au Penn Media Accountability Project et co-auteur d’une étude pour Nature qui dénonce l’instrumentation de la désinformation en ligne, explique sur Undark que dire que « les réseaux sociaux sont le problème » propose une solution très simple et facile à appliquer, qui consiste à corriger les algorithmes. Et cela évite la question la plus difficile – celle que nous ne voulons généralement pas aborder – sur la nature humaine. Or la violence ou le racisme… n’ont pas été inventés par les réseaux sociaux. Quand bien même les réseaux sociaux les instrumentisent plus que jamais. Nous ne gouvernerons pas nos disputes sociales seulement en régulant les réseaux sociaux