Le Knight-Georgetown Institute (KGI) a réuni un groupe d’experts afin d’évaluer conjointement les recherches existantes et d’élaborer un cadre visant à améliorer l’accès aux données des plateformes. Ce nouveau cadre, « Better Access », constitue un référentiel pour un accès indépendant aux données des plateformes. Il établit des exigences minimales pour les plateformes.
Toutes les données des plateformes n’ont pas la même importance ; certains comptes et contenus exercent une influence bien plus grande que d’autres, expliquent ses promoteurs pour Tech Policy Press. Le cadre « Better Access » se concentre sur le sous-ensemble de publications, de comptes et d’interactions publiques les plus importants pour la vie civique : les données qui révèlent qui détient l’influence, quels contenus se diffusent et comment les entreprises technologiques amplifient, ou atténuent, la voix de certaines personnes.
Ce cadre définit quatre catégories de données à forte influence : les contenus largement diffusés, les comptes gouvernementaux et politiques, les comptes publics et les comptes d’entreprises notables, et les contenus sponsorisés. Ce cadre détaille les seuils applicables à ces catégories. En se concentrant sur ce segment de données plus restreint, il favorise la transparence, la protection de la vie privée et l’éthique, réduisant ainsi les risques pour la vie privée (sans toutefois les éliminer complètement). Il privilégie les comptes et les contenus dont la publicité et la valeur publique sont clairement définies, tout en établissant des conditions d’accès réalistes aux plateformes. Cependant, les données ne sont utiles que si elles sont accessibles et utilisables. C’est pourquoi ce cadre propose trois moyens pour les plateformes de faciliter l’accès aux données : une interface de données proactive, des demandes personnalisées de la part des chercheurs et une collecte de données indépendante. Ensemble, ces mécanismes renforcent la flexibilité, la pertinence, l’intégrité des plateformes et la responsabilité dans divers contextes de recherche.
Un moyen de donner un cadre pertinent et de structurer les rapports de transparence qu’exige la Commission européenne des grandes plateformes, qui peinent à produire des résultats pertinents, faute de savoir quoi leur demander, comme nous le disions il y a quelques années.
Stream "Ça (dys)fonctionne"
- ↪ Tarifs sous IA : vers l’hyper-personnalisation à grande échelle
- ↪ Financer des médias sociaux publics
- ↪ Manipuler la synthèse de document
- ↪ IA et emploi : de quoi l’IA est-elle responsable ?
- ↪ Le piège des newsletters payantes se referme
- ↪ ChatFishing, hameçonnage par l’IA
- ↪ Mais où sont les faux négatifs de la reconnaissance faciale ?
- ↪ Sur la piste des algorithmes… l’opacité est toujours la règle
- ↪ Vers un RGPD révisé au profit de l’IA… et au détriment de nos droits
- ↪ Objectiver la douleur ?