Dans la revue Data & Policy, les juristes Karen Yeung et Wenlong Li ont observé les résultats de quatre expérimentations de reconnaissance faciale en temps réel menées à Londres, aux Pays de Galles, à Berlin et à Nice. En Grande-Bretagne par exemple, aucune information n’a été recueillie sur les faux négatifs générés par les systèmes, comme les personnes fichées mais non identifiées par le logiciel. Nulle part, l’impact négatif des systèmes n’a été observé. Pour les chercheuses, les expérimentations de ce type manquent de rigueur et ne produisent d’ailleurs aucune connaissance nouvelle. Quand on ne cherche pas les défauts, assurément, on ne les trouve pas. Via Algorithm Watch.
Stream "Ça (dys)fonctionne"
- ↪ Comment devenir un problème algorithmique ?
- ↪ « On est tous en passe de devenir des livreurs Deliveroo »
- ↪ Les réseaux sociaux dans la tourmente
- ↪ Cosplay forensique
- ↪ L’IA ne réforme pas les institutions démocratiques, elle les détruit
- ↪ L’IA sait tout faire… mais ne lui faites pas confiance pour votre déclaration d’impôts
- ↪ World Monitor
- ↪ « Nous avons une compréhension expérientielle des algorithmes »
- ↪ Pourquoi le déploiement de projet échoue-t-il ?
- ↪ La reconnaissance faciale, en toute impunité