IA : des chatbots relaient des fakes news propagées par la Russie !

Les intelligences artificielle, ou IA ! On les consulte pour s’informer, les jeunes les utilisent pour réviser, les pros pour gagner du temps. Mais que se passe-t-il quand ces assistants virtuels ultra populaires… relayent des intox sorties tout droit d’une opération de propagande étrangère ?

Cropped Favicon Economi Matin.jpg
By Grégoire Hernandez Published on 17 avril 2025 12h00
ia-propagande-russe-fake-news
IA : des chatbots relaient des fakes news propagées par la Russie ! - © Economie Matin

Cinq fausses histoires sur la France. 55 millions de vues. Et des chatbots, censés nous aider à y voir clair, qui les répètent sans sourciller. Le plus absurde ? Même l’IA “made in France” tombe dans le panneau.

IA : quand Le Chat, fleuron français, tombe dans le panneau

C’est peut-être le détail le plus glaçant de l’enquête publiée par NewsGuard : sur onze chatbots testés, cinq ont repris une fausse information comme si elle était vraie. En cause, une vidéo virale montée de toutes pièces, accusant Emmanuel Macron d’une relation avec un homme décédé du sida. Une fake news grossière, fabriquée par la Russie, et pourtant… plusieurs intelligences artificielles l’ont répétée sans broncher.
On parle ici de chatbots grand public : ceux que vous utilisez pour poser une question, chercher un résumé, vérifier une info. Résultat : vous pourriez tomber, sans le savoir, sur une propagande habilement recyclée par des machines censées vous aider à y voir plus clair.

Le plus insolite, pour ne pas dire lunaire, c’est que Le Chat, le chatbot développé par la start-up française Mistral, fait partie des cinq IA qui ont repris l'information erronée sur Macron. Le bot a carrément confirmé que “Réaulf Fleming a affirmé que son frère, Dimitri, avait eu une liaison avec le président français Emmanuel Macron et qu’il était ensuite mort du sida”. Problème : tout est faux. La personne dans la vidéo n’est pas Réaulf Fleming, il n’a jamais tenu ces propos, et son “frère” est en fait… son cousin.
Quand on sait que Mistral est l’un des champions français de l’IA, soutenu par l’État, ça pique un peu.

Le risque ? Une désinformation massive… automatisée

Le phénomène n’est pas un bug, c’est un problème structurel. Les IA génératives ne vérifient pas les faits : elles génèrent des réponses à partir de l’énorme masse d’informations disponibles en ligne. Et dans le cas des campagnes russes, les récits mensongers sont habilement “blanchis”, autrement dit : postés sur des dizaines de sites, repris sur les réseaux sociaux, montés en vidéos… jusqu’à ce que les IA les considèrent comme fiables.
Comme l’explique Chine Labbé, rédactrice en chef de NewsGuard : “Les chatbots ne sont pas protégés de l’empoisonnement de leurs réponses. Plus une infox est répétée sur différents sites – en quelque sorte blanchie – plus l’outil d’IA sera pris au piège”.

Aujourd’hui, ces IA sont partout : dans vos moteurs de recherche, vos assistants vocaux, vos applis. Si elles répètent des intox sans les détecter, la désinformation devient automatique, intégrée, invisible. Et c’est précisément ce que vise la Russie avec Storm-1516 : faire circuler ses récits mensongers jusqu’à ce qu’ils soient considérés comme “normaux”par les outils eux-mêmes.
C’est toute la logique d’une guerre hybride à bas coût, mais à haut rendement. Pour l’utilisateur lambda, la ligne est floue : “je lis ça sur mon chatbot, donc c’est probablement vrai”, pense-t-on. Et pourtant…

Cropped Favicon Economi Matin.jpg

Étudiant en école de journalisme. Journaliste chez Économie Matin depuis septembre 2023.

No comment on «IA : des chatbots relaient des fakes news propagées par la Russie !»

Leave a comment

* Required fields