« À quoi pourraient ressembler nos interactions avec les systèmes algorithmiques s’ils étaient conçus à partir de valeurs féministes ? » C’est la question que pose la designer Nadia Piet dans le cadre du programme de recherche néerlandais RAAIT (Responsible Applied Artificial InTelligence) qui propose une vingtaine de prototypes d’intelligence artificielle qui répondrait à des valeurs féministes. Systèmes de paramétrage des recommandations, systèmes pour montrer que l’algorithme se modifie selon vos comportements, modalités pour exclure certains apprentissages de comportements par le système, systèmes d’alertes qu’on évolue vers une bulle de filtre… Stimulant !
Stream "Ça (dys)fonctionne"
- ↪ Le produit toxique des Big Tech ne sont pas les réseaux sociaux…
- ↪ Palantir, l’entreprise métapolitique
- ↪ L’épuisement de l’IA
- ↪ L’IA, ce piège de la responsabilité
- ↪ L’allocation de droits n’est pas un problème d’ingénierie
- ↪ Les villes seront-elles les nouveaux régulateurs de la Tech ?
- ↪ ChatGPT, une solution pandémique ?
- ↪ L’Etat dans le nuage
- ↪ La productivité de l’IA au travail est toujours incertaine
- ↪ Recherches financées par les entreprises : un semblant de générosité