Non, Ibrahim Traoré n’a pas sermonné Félix Tshisekedi : décryptage d’un deepfake viral

Une vidéo, présentée comme un discours du président burkinabè Ibrahim Traoré à l’endroit de son homologue congolais, Félix Tshisekedi, fait le tour des réseaux sociaux depuis la fin de l’année 2025 (ici, ici et notamment). Dans cette séquence de plus de treize minutes, le chef de l’État burkinabè semble adopter un ton autoritaire et aborder la situation sécuritaire dans l’Est de la République démocratique du Congo, appelant son interlocuteur à revoir certaines de ses positions, notamment vis-à-vis des partenaires occidentaux. L’émotion et la gravité du propos ont contribué à la viralité du contenu. Pourtant, l’analyse montre qu’il s’agit d’un deepfake.

A première vue, plusieurs indices visuels trahissent une manipulation par intelligence artificielle. En observant attentivement la séquence, on remarque une synchronisation imparfaite entre les lèvres et les mots prononcés, un défaut fréquent dans les vidéos deepfakes. Ce décalage est également perceptible dans les mouvements des paupières et le clignement des yeux. À l’arrière-plan, un homme visible derrière le président burkinabè ne bouge pratiquement pas durant toute la durée de la vidéo, une incohérence typique des contenus générés ou modifiés par IA, qui peinent souvent à gérer les éléments secondaires de l’image. Plus troublant encore, à certains moments, l’une des mains d’Ibrahim Traoré semble compter six doigts, une anomalie récurrente dans les images artificielles.

Malgré ces incohérences, un premier outil de détection, Hive Moderation, a conclu à 99 % que la vidéo était authentique. Ce résultat s’explique par la course permanente entre les technologies de création de contenus générés par IA et les outils censés les détecter. Certaines méthodes de génération deviennent rapidement suffisamment sophistiquées pour contourner des systèmes de détection pourtant réputés fiables.

Photo authentique animée et audio synthétique

Pour approfondir l’analyse, la vidéo a été soumise à plusieurs autres outils spécialisés. Resemble AI a conclu que l’audio était généré par intelligence artificielle, tandis que Sora a estimé que la vidéo présentait des caractéristiques de contenu synthétique. L’outil TruthScan s’est montré particulièrement précis en établissant que l’audio était synthétique à 99 % et l’image artificielle à 43 %. Selon cet outil, la vidéo est un contenu mixte, combinant des images authentiques et des éléments générés par IA. Cette conclusion se vérifie en observant certaines séquences intégrant de véritables images d’illustration du président Félix Tshisekedi. L’équipe de Vunja Uongo a ensuite consulté les canaux officiels du régime burkinabè afin de retrouver une trace de ce discours. Aucune publication, aucun communiqué et aucune vidéo officielle ne corroborent l’existence d’une telle intervention. 

La recherche inversée d’images a permis d’identifier la photographie utilisée pour générer le deepfake, en circulation depuis au moins août 2024. Une comparaison avec des photos récentes d’Ibrahim Traoré révèle des différences notables, notamment en termes de corpulence. Pour renforcer cette vérification, la blogueuse burkinabè Sandrine Sheïla a été contactée et a confirmé qu’Ibrahim Traoré n’avait jamais tenu un tel discours.

Un contenu satirique détourné

Une seconde recherche inversée d’images à partir de captures de la séquence a permis de remonter au contenu original, publié le 16 décembre 2025 sur YouTube par la chaîne Rêves panafricains. Si la description de la vidéo originale ne précise pas explicitement le caractère fictif du contenu, la biographie de la chaîne est sans ambiguïté. Les responsables y indiquent qu’ils créent des histoires entièrement fictives à des fins de divertissement et que toute ressemblance avec des personnes ou des événements réels serait fortuite. Cette précision confirme que la vidéo n’avait pas vocation à être interprétée comme un discours réel.

En effet, un contenu conçu à l’origine pour faire rire ou provoquer peut, une fois extrait de son contexte, devenir une source majeure de désinformation. Le problème survient lorsque ces contenus quittent leur cadre initial et atterrissent notamment sur les réseaux sociaux où ils circulent souvent sans les précautions ou les avertissements initiaux. Un titre choc, une vidéo spectaculaire ou un discours percutant peuvent alors être pris au sérieux, partagés massivement et influencer l’opinion publique. En République démocratique du Congo, ces médias sont rares, à l’image du journal hebdomadaire Le Grognon. Dans d’autres pays francophones, des exemples plus connus existent, comme Le Gorafi ou encore Les Guignols de l’info.

En ligne, il est important de toujours remonter à la source primaire d’une information avant de la partager. À l’ère de l’intelligence artificielle et de la viralité des réseaux sociaux, la vigilance reste la meilleure arme contre la désinformation. 

La rumeur de la semaine est une rubrique pour décrypter les fausses informations qui circulent sur nos réseaux sociaux et au sein de nos communautés locales sur le terrain.