Sans surprise, les IA préfèrent les textes… écrits par des IA. Des chercheurs ont reproduit des études de discrimination à l’emploi en testant les biais des LLM chargés du recrutement en testant la différence entre des lettres de motivation et des CV écrits par des humains et générés par des IA.
Visiblement, les LLM préfèrent toujours les contenus génératifs sur les contenus humains, que ce soit pour l’embauche, pour la sélection d’articles de recherche ou pour les résumés de films. Mais surtout, soulignent les chercheurs, confrontés au choix entre des contenus génératifs et des contenus humains, les humains choisissent moins fréquemment les textes produits par des LLM que ne le font les produits LLM eux-mêmes. Les résultats montrent que les LLM ont tendance à « discriminer de manière dysfonctionnelle les humains. »
Reste à saisir pourquoi : « nos données ne permettent pas de déterminer si le biais sous-jacent est sui generis ou s’il résulte de formes plus familières de biais sociaux et de discrimination. Il est possible que les choix des LLM révèlent des formes amplifiées de biais négatifs socialement répandus, déclenchés par les marqueurs stylistiques des identités sociales humaines marginalisées. Ainsi, la préférence des LLM pour les LLM découlerait de l’absence de tels marqueurs dans leurs intonations, contrairement à leur présence intermittente dans les intonations humaines.»
A terme, les chercheurs estiment que pointe le risque d’une fracture numérique renforcée, risquant de déclasser les candidats qui n’utilisent pas l’IA, ou pire, ceux qui n’utilisent pas les meilleurs modèles… ou pire, de marginaliser définitivement les humains, par une forme de ségrégation supplémentaire, et qui s’ajoute à celles lui préexistant. Ce qui est sûr, c’est que le biais IA-IA pourrait conférer un avantage indu au contenu généré par l’IA dans nombre de processus décisionnels, comme on le voit déjà dans les flux de recommandations de nombre de réseaux sociaux.
Stream "Ça (dys)fonctionne"
- ↪ La reconnaissance faciale, en toute impunité
- ↪ Le coût caché de l’IA c’est la vérification
- ↪ Une histoire des rapports de l’Etat au logiciel libre
- ↪ Résister à l’empire des Gafams
- ↪ Une bulle… de pouvoir
- ↪ Le produit toxique des Big Tech ne sont pas les réseaux sociaux…
- ↪ Palantir, l’entreprise métapolitique
- ↪ L’épuisement de l’IA
- ↪ L’IA, ce piège de la responsabilité
- ↪ L’allocation de droits n’est pas un problème d’ingénierie