Dans la revue Data & Policy, les juristes Karen Yeung et Wenlong Li ont observé les résultats de quatre expérimentations de reconnaissance faciale en temps réel menées à Londres, aux Pays de Galles, à Berlin et à Nice. En Grande-Bretagne par exemple, aucune information n’a été recueillie sur les faux négatifs générés par les systèmes, comme les personnes fichées mais non identifiées par le logiciel. Nulle part, l’impact négatif des systèmes n’a été observé. Pour les chercheuses, les expérimentations de ce type manquent de rigueur et ne produisent d’ailleurs aucune connaissance nouvelle. Quand on ne cherche pas les défauts, assurément, on ne les trouve pas. Via Algorithm Watch.
Stream "Ça (dys)fonctionne"
- ↪ Le Doge est mort, pas son esprit !
- ↪ Améliorer l’accès aux données des plateformes
- ↪ Tarifs sous IA : vers l’hyper-personnalisation à grande échelle
- ↪ Financer des médias sociaux publics
- ↪ Manipuler la synthèse de document
- ↪ IA et emploi : de quoi l’IA est-elle responsable ?
- ↪ Le piège des newsletters payantes se referme
- ↪ ChatFishing, hameçonnage par l’IA
- ↪ Sur la piste des algorithmes… l’opacité est toujours la règle
- ↪ Vers un RGPD révisé au profit de l’IA… et au détriment de nos droits