« Les systèmes algorithmiques aggravent les inégalités en traitant tout écart par rapport à une norme statistique comme une preuve de risque, et en présentant ce jugement comme le résultat d’une analyse objective plutôt que comme un choix inhérent à la conception du système. Le danger de ces systèmes réside dans leur capacité à blanchir les décisions politiques par des processus techniques. En présentant l’allocation et l’application des lois comme des problèmes d’ingénierie, les institutions peuvent se soustraire à l’examen moral et juridique qui accompagne habituellement les changements de politique. Pour les communautés les plus directement concernées par ces décisions, il en résulte un durcissement des inégalités sociales, imposé par une bureaucratie plus difficile à déceler, à comprendre et, surtout, à combattre. » James O’Sullivan (site).
Stream "Punchlines"
- ↪ L’IA, ce piège de la responsabilité
- ↪ Les villes seront-elles les nouveaux régulateurs de la Tech ?
- ↪ ChatGPT, une solution pandémique ?
- ↪ L’Etat dans le nuage
- ↪ La productivité de l’IA au travail est toujours incertaine
- ↪ Recherches financées par les entreprises : un semblant de générosité
- ↪ Augmentation Washing
- ↪ Doit-on refuser d’utiliser l’IA ?
- ↪ Annotateurs de données d’élite
- ↪ Comment la livraison bouleverse le modèle économique de la restauration