Tim Bernard pour TechPolicy a lu les évaluations de risques systémiques que les principales plateformes sociales ont rendu à la Commission européenne dans le cadre des obligations qui s’imposent à elles avec le Digital Service Act. Le détail permet d’entrevoir la complexité des mesures d’atténuation que les plateformes mettent en place. Il montre par exemple que pour identifier certains contenus problématiques d’autres signaux que l’analyse du contenu peuvent se révéler bien plus utile, comme le comportement, le temps de réaction, les commentaires… Certains risques passent eux totalement à la trappe, comme les attaques par d’autres utilisateurs, les risques liés à l’utilisation excessive ou l’amplification de contenus polarisants et pas seulement ceux pouvant tomber sous le coup de la loi. On voit bien que la commission va devoir mieux orienter les demandes d’information qu’elle réclame aux plateformes (mais ça, la journaliste Gaby Miller nous l’avait déjà dit).
Stream "Ça (dys)fonctionne"
- ↪ LLMO : de l’optimisation de marque dans l’IA générative
- ↪ IA au travail : un malaise persistant
- ↪ De l’hypersurveillance chinoise
- ↪ La course à l’IA est un marathon
- ↪ De l’esthétique fasciste de l’IA
- ↪ La co-science avec l’IA sera-t-elle magique ✨ ?
- ↪ Les sites de rencontre ne protègent pas leurs utilisatrices
- ↪ Sacrifiés
- ↪ L’arsenal technologique pour réprimer l’immigration aux Etats-Unis est prêt !
- ↪ De la difficulté à évaluer l’IA