🎧 Un faux reportage audio attribué à RFI annonce à tort la reddition de Corneille Nangaa

Un faux reportage audio circulant sur les réseaux sociaux a annoncé la reddition de Corneille Nangaa, leader de l’AFC/M23, en se faisant passer pour un contenu de RFI. Pourtant, aucun élément de ce prétendu journal n’a été diffusé par la radio française, et plusieurs indices révèlent qu’il s’agit d’un deepfake.

« Congolaises et Congolais, très chers compatriotes. Moi, Corneille Nangaa Yobeluo, me tiens devant vous, accablé par le poids de mes fautes et consumé par les remords. En créant l’Alliance Fleuve Congo, en m’alliant au M23, et en acceptant le soutien du président rwandais Paul Kagame, j’ai trahi la nation qui m’a vu naître. Ce choix funeste a semé la mort et la désolation dans l’est de notre pays, coûtant la vie à d’innombrables innocents. » C’est ce qu’aurait déclaré Corneille Nangaa, à en croire un reportage attribué à RFI diffusé début avril. « Je me désolidarise totalement du criminel Paul Kagame et de sa bande d’assassins dont les actions ont plongé notre peuple dans le deuil et la douleur. Je demande pardon du plus profond de mon âme à chaque Congolaise et Congolais. Je supplie la communauté nationale et internationale de croire à la sincérité de mes repentirs. Et je sollicite la grâce présidentielle afin de rentrer et contribuer aux côtés du Chef de l’État à la reconstruction de notre nation », aurait-il ajouté. 

Dans cet élément sonore de près de 5 minutes attribué à Radio France Internationale (RFI), une voix ressemblant à celle de Nangaa annonce la reddition du leader de l’Alliance Fleuve Congo-Mouvement du 23 Mars (AFC/M23). On y entend également celles d’Arthur Ponchelet, journaliste au Desk Afrique de ce média français, et d’Aurélie Bazzara-Kibangula, correspondante de France 24 en République démocratique du Congo (RDC). Pourtant, ce contenu n’a jamais été diffusé par RFI. 

Des voix clonées avec l’IA, mais indétectables par les outils classiques

Pour vérifier ce contenu, Vunja Uongo, la cellule de vérification du Studio Hirondelle RDC, a consulté les archives des journaux de RFI sans y retrouver une édition présentée par Arthur Ponchelet en rapport avec ce sujet. La radio française a rapidement publié une mise au point. « En réalité, RFI n’est pas à l’origine de ce contenu. Cet audio a été entièrement généré via l’intelligence artificielle. Les propos attribués aux trois interlocuteurs ont été fabriqués de toutes pièces », a précisé le service de fact-checking de RFI dans un communiqué publié le 4 avril. Toujours selon ce média, le contenu est faux sur la forme comme sur le fond : Corneille Nangaa n’a ni annoncé sa reddition, ni présenté des excuses, ni sollicité de grâce présidentielle.

Les voix de Nangaa et des deux journalistes ont été clonées à l’aide de l’intelligence artificielle. Mais aucun des outils actuels, y compris  Deepware – l’un des plus réputés pour la détection de contenus IA – n’a pu authentifier le caractère artificiel de l’audio.

De son côté, Arthur Ponchelet s’est dit surpris d’entendre sa voix dire des choses qu’il n’a jamais déclarées. « C’est impressionnant à quel point mon timbre est bien imité. Les voix de Nangaa et d’Aurélie sont encore plus crédibles. La mienne l’est un peu moins, comme si elle était voilée », a-t-il déclaré à  Le Figaro, en précisant que le montage pourrait avoir été réalisé à partir de son journal Afrique midi du 31 mars. « Moins de 48 heures plus tard, la vidéo était publiée. C’est fou. Si l’IA arrive à produire ça aujourd’hui, je me demande ce que nous réserve l’avenir », s’est-il étonné. Aurélie Bazzara-Kibangula, quant à elle, a nié catégoriquement : « Ce n’est pas ma voix », a affirmé la journaliste, ajoutant qu’elle n’intervient plus sur RFI. 

L’Alliance fleuve Congo, par la voix de son porte-parole Lawrence Kanyuka, a accusé le gouvernement congolais d’être à l’origine de cette manipulation, dans le but de décrédibiliser le mouvement et « d’occulter l’adhésion massive à l’AFC/M23 tant au niveau national que dans la diaspora »

L’intelligence artificielle, l’alliée-ennemi

Ce n’est pas la première fois qu’un faux reportage de RFI est utilisé pour manipuler l’opinion sur la situation sécuritaire en RDC. En mars, une autre séquence audio annonçait la prétendue démission du président Félix Tshisekedi après des négociations avec les rebelles. Là encore, il s’agissait d’un contenu généré par IA.

Usurper l’identité visuelle ou sonore d’un média reconnu est une stratégie courante chez les propagateurs de fausses informations. L’intelligence artificielle a renforcé cette pratique en rendant possible le clonage de voix et la création de vidéos trompeuses. Désormais, il est courant de tomber sur de faux contenus affichant les logos ou les habillages graphiques de médias réputés comme RFI ou Jeune Afrique. 

Cette usurpation agit comme un biais de jugement : la présence d’un logo familier ou d’une voix connue pousse le public à croire au message sans en vérifier la véracité. À l’ère de l’intelligence artificielle, la désinformation gagne en sophistication, et ses conséquences peuvent être lourdes, surtout dans le contexte sensible de la guerre dans l’Est du pays. Il est donc essentiel de renforcer l’esprit critique et de développer des mécanismes de détection plus efficaces.

La rumeur de la semaine est une rubrique pour décrypter les fausses informations qui circulent sur nos réseaux sociaux et au sein de nos communautés locales sur le terrain. Un décryptage réalisé par Vunja Uongo, l’équipe de la cellule de vérification du Studio Hirondelle RDC.