La désinformation générée par l’IA submerge la couverture médiatique de la guerre en Iran, rapportent Wired, la BBC, CNN, The Atlantic…. Pour The Guardian, la journaliste Tess Mcclure a mené l’enquête sur une image qui a fait le tour des réseaux, celle du cimetière de Minab, photographié alors qu’il s’apprête à accueillir l’inhumation de plus de 100 jeunes filles de la ville. Une image emblématique de la guerre israélo-américaine contre l’Iran, témoignant de son terrible bilan humain.
En demandant aux services IA comme Gemini ou Grok, les deux répondent que ces images ne sont pas réelles et sont des images provenant de catastrophes antérieures. Les deux IA sont péremptoires et fournissent des sources pour l’image originale, mais qui ne mènent nulle part : soit l’image est introuvable, soit le lien fourni renvoie à un article de presse inexistant.
Les experts, eux, estiment que l’image est authentique : elle n’a pas de signe d’altération et elle correspond aux lieux réels.
Dans les rédactions, les vérificateurs de faits sont constamment débordés par le flux incessant d’images truquées. Aujourd’hui, « près de la moitié, voire plus, des fausses informations virales que nous suivons et démentons sont générées par l’IA », explique l’un d’entre eux. Le phénomène est aggravé par les synthèses d’actualités IA, qui sont pourtant très utilisées par les internautes, alors qu’une étude menée en 2025 a révélé qu’environ la moitié des synthèses générées par l’IA présentaient au moins un problème important de source ou d’exactitude – ce taux atteignant même 76 % pour certains outils, comme l’interface Gemini de Google. Le problème, souligne Mcclure n’est d’ailleurs pas seulement que ces interfaces produisent du faux, mais qu’elles n’identifient pas non plus la réalité. « Le problème est aggravé par la manière péremptoire dont l’IA présente ses conclusions. Elle génère des rapports détaillés, incluant noms, dates, références et sources : un contenu qui laisse supposer une recherche et une compréhension approfondies, mais qui peut en réalité être halluciné ou inexistant. Lorsque le Guardian a interrogé Gemini sur la réponse concernant la photographie de Minab, en demandant : “Je ne pense pas que ce soit correct, pouvez-vous effectuer une nouvelle recherche ?”, Gemini a modifié sa conclusion, mais pour indiquer un autre lieu et une autre année erronés. »
Shirin Anlen et Mahsa Alimardani de l’association Witness, expliquent dans une tribune pour Tech Policy Press qu’on voit apparaître beaucoup d’analyses d’apparence technique pour discréditer faussement des preuves authentiques. Le journaliste de BBC Verify, Shayan Sardarizadeh, a constaté que ce conflit pourrait déjà avoir battu des records en matière de quantité de contenu généré par l’IA et devenu viral en temps de guerre. Le chercheur en OSINT Tal Hagin a également observé que le problème ne se limite plus aux utilisateurs ordinaires des réseaux sociaux trompés ; le volume de ces tromperies a dépassé les capacités de vérification, même des rédactions professionnelles. Dans ce contexte, les preuves authentiques sont non seulement plus difficiles à trouver, mais elles sont activement dissimulées par le flux de contenus. Des preuves d’apparence technique, associées à une allégation mensongère, circulent plus vite que toute correction. Nous sommes en train de basculer dans l’instrumentalisation de la détection par IA et de l’analyse forensique elle-même : des visuels d’apparence technique peuvent créer une illusion d’autorité technique. Nous voici dans le « Cosplay forensique», une forme de déguisement de l’activité d’investigation, comme une fabrication de fausses preuves médico-légales… où l’on trouve par exemple de fausses cartes thermiques pour discréditer des images réelles… Les outils conçus pour détecter la manipulation deviennent des instruments de manipulation, utilisés pour semer le doute et la confusion autour d’événements réels, voire de victimes réelles.
« Le brouillard de l’IA n’a pas besoin que chaque contenu soit fabriqué. Il a besoin que la question « Est-ce réel ? » devienne quasiment insoluble », estime très pertinemment Mahsa Alimardani pour The Atlantic. Le problème est que, dans ce flou, même les preuves ne fonctionnent plus, se désole-t-elle.
La désinformation a pourtant un coût, estimait récemment une étude de Sopra Steria : 417 milliards de dollars. Quant à l’inaction des plateformes face à ces contenus, elle est liée à la grande difficulté à identifier les contenus génératifs, estime le Monde à la suite du site spécialisé Indicator. En fait, la labellisation des contenus IA par les plateformes repose sur des détecteurs automatiques qui ne fonctionnent pas, comme le soulignait le New York Times, mais surtout, les plateformes ne sont pas incitées à modérer ces contenus. « Dans un monde où le président américain diffuse lui-même de fausses informations et utilise massivement des images générées par IA pour communiquer sur les réseaux sociaux, la pression sur les géants de la tech pour supprimer les premières et labelliser les secondes est faible », conclut Le Monde.
Stream "Ça (dys)fonctionne"
- ↪ L’IA ne réforme pas les institutions démocratiques, elle les détruit
- ↪ L’IA sait tout faire… mais ne lui faites pas confiance pour votre déclaration d’impôts
- ↪ World Monitor
- ↪ « Nous avons une compréhension expérientielle des algorithmes »
- ↪ Pourquoi le déploiement de projet échoue-t-il ?
- ↪ La reconnaissance faciale, en toute impunité
- ↪ Le biais anti-humain : des préférences des IA pour les contenus IA
- ↪ Le coût caché de l’IA c’est la vérification
- ↪ Une histoire des rapports de l’Etat au logiciel libre
- ↪ Résister à l’empire des Gafams