Dans la revue Data & Policy, les juristes Karen Yeung et Wenlong Li ont observé les résultats de quatre expérimentations de reconnaissance faciale en temps réel menées à Londres, aux Pays de Galles, à Berlin et à Nice. En Grande-Bretagne par exemple, aucune information n’a été recueillie sur les faux négatifs générés par les systèmes, comme les personnes fichées mais non identifiées par le logiciel. Nulle part, l’impact négatif des systèmes n’a été observé. Pour les chercheuses, les expérimentations de ce type manquent de rigueur et ne produisent d’ailleurs aucune connaissance nouvelle. Quand on ne cherche pas les défauts, assurément, on ne les trouve pas. Via Algorithm Watch.
Stream "Ça (dys)fonctionne"
- ↪ L’IA, ce piège de la responsabilité
- ↪ L’allocation de droits n’est pas un problème d’ingénierie
- ↪ Les villes seront-elles les nouveaux régulateurs de la Tech ?
- ↪ ChatGPT, une solution pandémique ?
- ↪ L’Etat dans le nuage
- ↪ La productivité de l’IA au travail est toujours incertaine
- ↪ Recherches financées par les entreprises : un semblant de générosité
- ↪ Augmentation Washing
- ↪ Doit-on refuser d’utiliser l’IA ?
- ↪ Annotateurs de données d’élite