Malgré le fait que les grands volumes de données utilisés pour générer les grands modèles de l’IA générative soient sensiblement les mêmes, les LLM ont des visions du monde sensiblement différentes, expliquent un collectif de chercheurs qui ont interrogé un large panel de systèmes. Ces visions du monde changent selon la langue depuis laquelle ils sont interrogés, mais également selon les modèles utilisés : ils sont plus prochinois si vous les interrogez en chinois par exemple et certains modèles fourbissent des résultats plus libéraux que d’autres. « Les positions idéologiques des LLM reflètent souvent celles de ses créateurs ». L’impartialité réglementaire va être bien difficile à atteindre.
Stream "Ça (dys)fonctionne"
- ↪ L’IA raisonne-t-elle ?
- ↪ Apprêtez-vous à parler aux robots !
- ↪ Le ChatGPT des machines-outils
- ↪ L’automatisation est un problème politique
- ↪ De « l’Excellisation » de l’évaluation
- ↪ Les trois corps du lithium : le géologique, le technologique et le psychique
- ↪ Red-teaming : vers des tests de robustesse de l’IA dans l’intérêt du public
- ↪ Data for Black Lives
- ↪ LLMO : de l’optimisation de marque dans l’IA générative
- ↪ IA au travail : un malaise persistant