« Chaque fois que j’utilise mes appareils connectés, je participe à un contrat social algorithmique tacite », explique le chercheur José Marichal. « À l’instar du contrat social métaphorique qui lie les citoyens des démocraties libérales à leurs gouvernements, une grande partie de ma vie culturelle en ligne est régie par un système sociotechnique qui engendre avantages et inconvénients. Les termes de cette relation sont simples : en échange d’une plus grande liberté de choix à l’ère des possibilités infinies, je cède mon autonomie à l’algorithme. (…) Pour Google ou Meta, trop d’exploration vous rend problématique. Une personne qui explore constamment complique la tâche de leurs algorithmes de classification. (…) Si vos comportements sont imprévisibles vous devenez un « bruit statistique » pour le modèle, alors vous êtes un problème algorithmique et un sujet néolibéral indésirable. (…) Nous vivons dans une société ordinale où chacune de nos actions peut être enregistrée, catégorisée et notée. Le danger d’une telle société réside dans l’incapacité d’explorer. La démocratie libérale repose sur la conjecture et la réfutation, sur l’habitude de partager ses opinions sur la vie publique avec ses concitoyens, en admettant la possibilité de se tromper et en modifiant ses convictions en conséquence. De telles habitudes requièrent une ouverture à l’exploration. Or, notre économie algorithmique nous dissuade d’explorer trop largement, car cela nous transforme en consommateurs imprévisibles. »
Le risque, explique Marichal, c’est que « nous perdions notre goût pour les contenus atypiques. C’est-à-dire les contenus culturels qui ne correspondent pas à notre vision du monde façonnée par les algorithmes », résumait-il dans une tribune pour Tech Policy Press. Pire, souligne-t-il, « les expressions trop novatrices ou audacieuses risquent de passer inaperçues, car elles ne correspondent pas aux catégories des algorithmes ». A l’heure des algorithmes, il faut écrire pour ce qu’ils optimisent. « Nous vivons dans une culture de l’optimisation où nos émotions sont instrumentalisées pour confirmer sans cesse nos préférences. »
« Les algorithmes d’apprentissage automatique reposent sur la préemption, plutôt que la dissuasion (qui suppose que les individus peuvent modifier leur comportement pour obtenir des récompenses ou éviter une punition). Cette logique vise à neutraliser les menaces avant même qu’elles n’émergent », expliquait-il encore, nous invitant à nous écarter de « l’arrogance épistémique des machines ». « Un public qui commence à privilégier la prévention à la dissuasion se préoccupe moins des droits procéduraux des personnes ciblées comme déviantes, car elles sont moins perçues comme des sujets autonomes et plus comme des « anomalies » à éliminer. (…) Une culture qui privilégie l’action à la recherche de la vérité est dangereuse pour nous tous. »
« Plus nous privilégions un contrat algorithmique qui répond à nos propres préférences, qui vise à résoudre le problème en optimisant la solution la plus efficace au détriment des relations humaines au sein de la communauté, plus nous sapons la démocratie libérale ». Il nous faut devenir un problème algorithmique, explique-t-il dans son livre – You must become an algorithmic problem, Bristol University Press, 2025 – , c’est-à-dire échapper au calcul des machines… au risque que cela devienne un problème pour chacun puisque qu’échapper aux machines signifie de plus en plus être extrait de la société que celles-ci rendent possible.
Stream "Punchlines"
- ↪ « On est tous en passe de devenir des livreurs Deliveroo »
- ↪ Les réseaux sociaux dans la tourmente
- ↪ Cosplay forensique
- ↪ L’IA ne réforme pas les institutions démocratiques, elle les détruit
- ↪ L’IA sait tout faire… mais ne lui faites pas confiance pour votre déclaration d’impôts
- ↪ World Monitor
- ↪ « Nous avons une compréhension expérientielle des algorithmes »
- ↪ Pourquoi le déploiement de projet échoue-t-il ?
- ↪ La reconnaissance faciale, en toute impunité
- ↪ Le biais anti-humain : des préférences des IA pour les contenus IA