Malgré le fait que les grands volumes de données utilisés pour générer les grands modèles de l’IA générative soient sensiblement les mêmes, les LLM ont des visions du monde sensiblement différentes, expliquent un collectif de chercheurs qui ont interrogé un large panel de systèmes. Ces visions du monde changent selon la langue depuis laquelle ils sont interrogés, mais également selon les modèles utilisés : ils sont plus prochinois si vous les interrogez en chinois par exemple et certains modèles fourbissent des résultats plus libéraux que d’autres. « Les positions idéologiques des LLM reflètent souvent celles de ses créateurs ». L’impartialité réglementaire va être bien difficile à atteindre.
Stream "Ça (dys)fonctionne"
- ↪ Les LLM dégradent profondément vos documents
- ↪ Kit d’opposition aux data centers
- ↪ Tokenmaxxing : l’IA par abonnement touche à sa fin
- ↪ La colère contre l’IA est-elle en train de dégénérer ?
- ↪ Comment devenir un problème algorithmique ?
- ↪ « On est tous en passe de devenir des livreurs Deliveroo »
- ↪ Les réseaux sociaux dans la tourmente
- ↪ Cosplay forensique
- ↪ L’IA ne réforme pas les institutions démocratiques, elle les détruit
- ↪ L’IA sait tout faire… mais ne lui faites pas confiance pour votre déclaration d’impôts