« À quoi pourraient ressembler nos interactions avec les systèmes algorithmiques s’ils étaient conçus à partir de valeurs féministes ? » C’est la question que pose la designer Nadia Piet dans le cadre du programme de recherche néerlandais RAAIT (Responsible Applied Artificial InTelligence) qui propose une vingtaine de prototypes d’intelligence artificielle qui répondrait à des valeurs féministes. Systèmes de paramétrage des recommandations, systèmes pour montrer que l’algorithme se modifie selon vos comportements, modalités pour exclure certains apprentissages de comportements par le système, systèmes d’alertes qu’on évolue vers une bulle de filtre… Stimulant !
Stream "Ça (dys)fonctionne"
- ↪ Le Doge est mort, pas son esprit !
- ↪ Améliorer l’accès aux données des plateformes
- ↪ Tarifs sous IA : vers l’hyper-personnalisation à grande échelle
- ↪ Financer des médias sociaux publics
- ↪ Manipuler la synthèse de document
- ↪ IA et emploi : de quoi l’IA est-elle responsable ?
- ↪ Le piège des newsletters payantes se referme
- ↪ ChatFishing, hameçonnage par l’IA
- ↪ Mais où sont les faux négatifs de la reconnaissance faciale ?
- ↪ Sur la piste des algorithmes… l’opacité est toujours la règle