Malgré le fait que les grands volumes de données utilisés pour générer les grands modèles de l’IA générative soient sensiblement les mêmes, les LLM ont des visions du monde sensiblement différentes, expliquent un collectif de chercheurs qui ont interrogé un large panel de systèmes. Ces visions du monde changent selon la langue depuis laquelle ils sont interrogés, mais également selon les modèles utilisés : ils sont plus prochinois si vous les interrogez en chinois par exemple et certains modèles fourbissent des résultats plus libéraux que d’autres. « Les positions idéologiques des LLM reflètent souvent celles de ses créateurs ». L’impartialité réglementaire va être bien difficile à atteindre.
Stream "Ça (dys)fonctionne"
- ↪ Aux Etats-Unis, la résistance contre les data centers s’organise
- ↪ Les écrans de voiture en questions
- ↪ « Réduire » la discrimination dans le recrutement ?
- ↪ Le cycle de la violence se poursuivra tant que les médias ne changeront pas
- ↪ Une étiquette électronique ne signifie pas prix dynamiques
- ↪ Pour que tous les Français bénéficient du succès de Mistral
- ↪ Les outils du maître
- ↪ Déréglementation industrialisée
- ↪ La fin du contrôle des chaussures
- ↪ Royaume-Uni : des algorithmes sociaux « suspicieux by design »