Les algorithmes façonnent profondément l’expérience utilisateur sur les plateformes numériques. La recherche sur la compréhension des algorithmes et de leurs effets par les individus se développe rapidement, mais manque d’un cadre cohérent, estiment les chercheurs Emilija Gagrčin, Teresa K. Naab, Maria F. Grub dans un article pour la revue New Media & Society.
Dans une analyse de la littérature sur la culture algorithmique (algorithmic litteracy), les chercheurs estiment que celle-ci s’acquiert par cycles d’apprentissages expérientiels. Ils proposent un cadre d’analyse pour mieux la saisir en montrant leur dimension cognitive (avons-nous conscience du filtrage réalisé, des données d’entrées, de leur objectifs et de de leur impacts), affective (selon qu’on en apprécie les résultats, qu’on les appréhende, ou qu’on s’y résigne), comportementale (les façons dont on se comporte avec les systèmes, qu’on s’y alligne, qu’on s’y soumette, qu’on tente de les subvertir ou d’y résister…). Mais ce sont là autant de pratiques dont on a du mal à mesurer l’efficacité, et qui relèvent souvent de pratiques plus personnelles que collectives.
Les chercheurs posent la question de savoir ce que produit la littératie algorithmique sur les usagers, par exemple si celle-ci produit une meilleure visibilité, un meilleur contrôle des recommandations ou des formes nouvelles de mobilisations politiques. « L’adoption inégale de l’apprentissage algorithmique risque d’exacerber les inégalités existantes au sein des différentes couches de la population ». Ils soulignent en conclusion, que la compréhension des algorithmes est profondément liée à « l’apprentissage expérientiel », un processus par lequel la connaissance est créée par la transformation de l’expérience.
Reste à savoir si à mesure que les systèmes de recommandations se complexifient, cet apprentissage expérientiel, sera encore possible ?
Face à l’AIification des recommandations, il est probable que notre compréhension des paramètres (ou le fait de croire qu’on puisse agir sur eux) se dilue. Comme nous le disions en évoquant le passage à l’IA des systèmes de recommandation, « les utilisateurs voudraient comprendre les règles qui semblent devenir de plus en plus obscures, et les laissent avec de moins en moins de pouvoir pour s’y adapter ». Bref, notre compréhension expérientielle des algorithmes risque d’être de plus en plus difficile à mesure que leurs fonctionnement se complexifient.
Via Algorithm Watch.
Stream "Ça (dys)fonctionne"
- ↪ Pourquoi le déploiement de projet échoue-t-il ?
- ↪ La reconnaissance faciale, en toute impunité
- ↪ Le biais anti-humain : des préférences des IA pour les contenus IA
- ↪ Le coût caché de l’IA c’est la vérification
- ↪ Une histoire des rapports de l’Etat au logiciel libre
- ↪ Résister à l’empire des Gafams
- ↪ Une bulle… de pouvoir
- ↪ Le produit toxique des Big Tech ne sont pas les réseaux sociaux…
- ↪ Palantir, l’entreprise métapolitique
- ↪ L’épuisement de l’IA