banniere

IA et manipulation: Araud partage une vidéo fausse

1 minute, 27 seconds Read

Une vidéo générée par IA alimente la rumeur

Une séquence d’une dizaine de secondes a circulé massivement sur X, prétendant montrer un bombardement sur Tel-Aviv. Dans un contexte où l’intelligence artificielle s’immisce dans tous les pans de la société, ce clip illustre les risques de désinformation.

Selon i24 News, un journaliste basé à Gaza aurait partagé la vidéo et aurait évoqué le nom Suleiman Ahmed. Après vérification, ce dernier a reconnu qu’il ne s’agissait pas d’images réelles et a préféré laisser en ligne le contenu pour rappeler la dure réalité vécue à Gaza.

La diffusion rapide a été amplifiée par le phénomène des réseaux sociaux, alimentant les inquiétudes sur la fiabilité des contenus visuels et sur la capacité des algorithmes à distinguer le vrai du faux.

Correction et responsabilité: qui relaie le faux ?

La plateforme X dispose de Grok, son IA interne chargée d’authentifier les clips. Depuis plusieurs mois, elle est au cœur de polémiques autour des deepfakes et des contenus manipulés.

À l’issue des retours des utilisateurs, X a rectifié son affichage en indiquant qu’il s’agissait d’une vidéo générée par IA et a signalé les défauts typiques d’un tel outil, comme des distorsions visibles des panneaux solaires.

Plusieurs figures publiques, notamment la journaliste Laurence Haïm et l’ancien ambassadeur Gérard Araud, se sont retrouvées prises dans le même piège en relayant le clip avant la vérification. L’épisode souligne l’urgence d’une vérification rapide et d’une meilleure responsabilité médiatique face à l’IA.

Articles associés