Dans la revue Data & Policy, les juristes Karen Yeung et Wenlong Li ont observé les résultats de quatre expérimentations de reconnaissance faciale en temps réel menées à Londres, aux Pays de Galles, à Berlin et à Nice. En Grande-Bretagne par exemple, aucune information n’a été recueillie sur les faux négatifs générés par les systèmes, comme les personnes fichées mais non identifiées par le logiciel. Nulle part, l’impact négatif des systèmes n’a été observé. Pour les chercheuses, les expérimentations de ce type manquent de rigueur et ne produisent d’ailleurs aucune connaissance nouvelle. Quand on ne cherche pas les défauts, assurément, on ne les trouve pas. Via Algorithm Watch.
Stream "Ça (dys)fonctionne"
- ↪ ChatFishing, hameçonnage par l’IA
- ↪ Sur la piste des algorithmes… l’opacité est toujours la règle
- ↪ Vers un RGPD révisé au profit de l’IA… et au détriment de nos droits
- ↪ Objectiver la douleur ?
- ↪ Du fardeau de penser
- ↪ De l’impunité du vol d’identité
- ↪ « L’IA générative est un désastre social »
- ↪ Mon corps électrique
- ↪ Dérégulation de l’IA ? Pas vraiment !
- ↪ Slop : « On est cuits ! »