Malgré le fait que les grands volumes de données utilisés pour générer les grands modèles de l’IA générative soient sensiblement les mêmes, les LLM ont des visions du monde sensiblement différentes, expliquent un collectif de chercheurs qui ont interrogé un large panel de systèmes. Ces visions du monde changent selon la langue depuis laquelle ils sont interrogés, mais également selon les modèles utilisés : ils sont plus prochinois si vous les interrogez en chinois par exemple et certains modèles fourbissent des résultats plus libéraux que d’autres. « Les positions idéologiques des LLM reflètent souvent celles de ses créateurs ». L’impartialité réglementaire va être bien difficile à atteindre.
Stream "Ça (dys)fonctionne"
- ↪ L’IA, ce piège de la responsabilité
- ↪ L’allocation de droits n’est pas un problème d’ingénierie
- ↪ Les villes seront-elles les nouveaux régulateurs de la Tech ?
- ↪ ChatGPT, une solution pandémique ?
- ↪ L’Etat dans le nuage
- ↪ La productivité de l’IA au travail est toujours incertaine
- ↪ Recherches financées par les entreprises : un semblant de générosité
- ↪ Augmentation Washing
- ↪ Doit-on refuser d’utiliser l’IA ?
- ↪ Annotateurs de données d’élite