Artwork

المحتوى المقدم من France Médias Monde. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة France Médias Monde أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.
Player FM - تطبيق بودكاست
انتقل إلى وضع عدم الاتصال باستخدام تطبيق Player FM !
icon Daily Deals

Incendies de Los Angeles: quand des images détournées sèment la confusion

3:07
 
مشاركة
 

Manage episode 461592541 series 2479113
المحتوى المقدم من France Médias Monde. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة France Médias Monde أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

À Los Angeles, les pompiers essayent toujours de contenir les flammes, plus d’une semaine après le début des incendies. Selon le dernier bilan, au moins 24 personnes ont trouvé la mort. Une catastrophe historique, marquée par un flot d'infox d’une rare intensité sur les réseaux. L’origine de ces incendies, le travail des pompiers, les rescapés, rien n’échappe à la désinformation, à tel point que certaines des images les plus partagées en ligne sont irréelles ou sorties de leur contexte.

Si vous avez passé du temps sur les réseaux sociaux ces derniers jours, vous avez probablement été confronté à l’une de ces deux images aériennes, montrant une maison au toit rouge, prétendument épargnée par les flammes à Los Angeles. Tout le quartier semble avoir été détruit, sauf ces luxueuses résidences. Si les deux maisons se ressemblent, ce ne sont pas les mêmes. L’une est en bord de mer, l’autre en pleine ville.

Les internautes qui partagent ces photos affirment qu’elles montreraient « la maison d’un croyant de Los Angeles, miraculeusement protégée par Dieu ». Un récit sur lequel plusieurs auditeurs nous ont alertés.

Image détournée et générée par IA

Vérification faîte, ces deux images n’ont rien à voir avec les incendies en cours à Los Angeles. La première photo est bien authentique, mais elle n’a pas été prise dans la cité des anges. Une recherche par image inversée permet de retrouver sa trace dans la banque d’images de l’Agence France Presse (AFP). On y apprend en légende qu’elle montre une maison dans le quartier de Lahaina, à la suite des incendies mortels à Hawaï, en août 2023. La résidence avait été épargnée notamment grâce à sa toiture en tôle épaisse et à l’absence de végétation à proximité.

Concernant le deuxième cliché, si visuellement tout semble réel, l’image a en réalité été générée par une intelligence artificielle. Le seul moyen de s’en rendre compte consiste à faire une recherche par image inversée sur Google, puis d’aller dans l’onglet « À propos de l’image ». Un message apparaît alors indiquant « image créée avec l’IA de Google ».

Comment Google sait-il que quelqu’un a généré cette image avec son intelligence artificielle ? Pour son outil de génération d’image, baptisé Imagen, la firme américaine utilise ce que l’on appelle des watermarks, des filigranes, invisibles à l’œil nu, mais identifiables par un logiciel. Ce tatouage numérique atteste donc de l’utilisation de l’intelligence artificielle, mais sans faire cette démarche de vérification, il est impossible de s’en rendre compte.

Instrumentalisation complotiste et religieuse

Cette image synthétique fait l’objet de nombreuses instrumentalisations. Religieuse d’abord, avec plusieurs messages parlant d’une intervention divine. Certains affirment, à tort, que cette maison appartenait à une famille chrétienne, d’autres à une famille musulmane.

Et puis certains complotistes ont aussi diffusé cette image, assurant que l’incendie était volontaire et ne ciblait que certaines habitations. Deux récits trompeurs vus des dizaines de millions de fois sur les réseaux sociaux. Résultat, cette infox figure aujourd’hui parmi les images les plus vues concernant les incendies de Los Angeles. On est donc là face à un énième exemple de détournement de l’IA qui perturbe les perceptions d’un événement mondial et invisibilise les vraies images de la catastrophe.

  continue reading

161 حلقات

Artwork
iconمشاركة
 
Manage episode 461592541 series 2479113
المحتوى المقدم من France Médias Monde. يتم تحميل جميع محتويات البودكاست بما في ذلك الحلقات والرسومات وأوصاف البودكاست وتقديمها مباشرة بواسطة France Médias Monde أو شريك منصة البودكاست الخاص بهم. إذا كنت تعتقد أن شخصًا ما يستخدم عملك المحمي بحقوق الطبع والنشر دون إذنك، فيمكنك اتباع العملية الموضحة هنا https://ar.player.fm/legal.

À Los Angeles, les pompiers essayent toujours de contenir les flammes, plus d’une semaine après le début des incendies. Selon le dernier bilan, au moins 24 personnes ont trouvé la mort. Une catastrophe historique, marquée par un flot d'infox d’une rare intensité sur les réseaux. L’origine de ces incendies, le travail des pompiers, les rescapés, rien n’échappe à la désinformation, à tel point que certaines des images les plus partagées en ligne sont irréelles ou sorties de leur contexte.

Si vous avez passé du temps sur les réseaux sociaux ces derniers jours, vous avez probablement été confronté à l’une de ces deux images aériennes, montrant une maison au toit rouge, prétendument épargnée par les flammes à Los Angeles. Tout le quartier semble avoir été détruit, sauf ces luxueuses résidences. Si les deux maisons se ressemblent, ce ne sont pas les mêmes. L’une est en bord de mer, l’autre en pleine ville.

Les internautes qui partagent ces photos affirment qu’elles montreraient « la maison d’un croyant de Los Angeles, miraculeusement protégée par Dieu ». Un récit sur lequel plusieurs auditeurs nous ont alertés.

Image détournée et générée par IA

Vérification faîte, ces deux images n’ont rien à voir avec les incendies en cours à Los Angeles. La première photo est bien authentique, mais elle n’a pas été prise dans la cité des anges. Une recherche par image inversée permet de retrouver sa trace dans la banque d’images de l’Agence France Presse (AFP). On y apprend en légende qu’elle montre une maison dans le quartier de Lahaina, à la suite des incendies mortels à Hawaï, en août 2023. La résidence avait été épargnée notamment grâce à sa toiture en tôle épaisse et à l’absence de végétation à proximité.

Concernant le deuxième cliché, si visuellement tout semble réel, l’image a en réalité été générée par une intelligence artificielle. Le seul moyen de s’en rendre compte consiste à faire une recherche par image inversée sur Google, puis d’aller dans l’onglet « À propos de l’image ». Un message apparaît alors indiquant « image créée avec l’IA de Google ».

Comment Google sait-il que quelqu’un a généré cette image avec son intelligence artificielle ? Pour son outil de génération d’image, baptisé Imagen, la firme américaine utilise ce que l’on appelle des watermarks, des filigranes, invisibles à l’œil nu, mais identifiables par un logiciel. Ce tatouage numérique atteste donc de l’utilisation de l’intelligence artificielle, mais sans faire cette démarche de vérification, il est impossible de s’en rendre compte.

Instrumentalisation complotiste et religieuse

Cette image synthétique fait l’objet de nombreuses instrumentalisations. Religieuse d’abord, avec plusieurs messages parlant d’une intervention divine. Certains affirment, à tort, que cette maison appartenait à une famille chrétienne, d’autres à une famille musulmane.

Et puis certains complotistes ont aussi diffusé cette image, assurant que l’incendie était volontaire et ne ciblait que certaines habitations. Deux récits trompeurs vus des dizaines de millions de fois sur les réseaux sociaux. Résultat, cette infox figure aujourd’hui parmi les images les plus vues concernant les incendies de Los Angeles. On est donc là face à un énième exemple de détournement de l’IA qui perturbe les perceptions d’un événement mondial et invisibilise les vraies images de la catastrophe.

  continue reading

161 حلقات

Todos los episodios

×
 
En Égypte, la tension monte avec les États-Unis au sujet de l’avenir de la Bande de Gaza. Le Caire refuse catégoriquement le plan de Donald Trump qui souhaite déplacer les Gazaouis en Jordanie et en Égypte. En conséquence, le président américain menace d’arrêter les aides versées aux deux pays. Sur les réseaux sociaux, certains diffusent des infox pour semer la confusion et alimenter ces tensions. Ces derniers jours, une vidéo montrant le président tunisien au côté de son homologue égyptien, Abdel Fattah al-Sissi , est devenue virale sur les réseaux sociaux. Dans ce qui ressemble à une conférence de presse, Kaïs Saïed s’exprime durant vingt-secondes derrière son pupitre, dans un luxueux palace. On croit alors l’entendre dire, en arabe, « Je suis venu en Égypte pour soutenir mon frère, le président Abdel Aziz al-Sisi, et je dis à Trump : n'essayez pas de jouer avec le président Abdel Aziz ». Un bandeau textuel apposé sur ces images, semblable à ceux utilisés par les chaînes d’information en continu, affirme que « le président tunisien soutient Sissi et menace Trump ». En réalité, le président tunisien n’a jamais tenu de tels propos. Cette déclaration a été inventée de toutes pièces grâce à l’intelligence artificielle. Les ressorts de la manipulation Une rapide analyse visuelle montre que le mouvement de ses lèvres ne correspond pas avec les mots qu’il prononce. Les détecteurs d’intelligence artificielle que nous avons utilisés confirment également qu’il s’agit d’un deepfake , un hypertrucage synthétique. Grâce à une recherche par image inversée ( voir ici comment faire ), on sait que la vidéo originale qui a été manipulée date du 10 avril 2021. C’était la première visite officielle du président tunisien en Égypte . Les deux chefs d’État avaient discuté de leur coopération économique, culturelle et sécuritaire, mais à aucun moment Kaïs Saïed n’évoque la Bande de Gaza ni ne menace Donald Trump . Si on ne sait pas qui est à l’origine de cette manipulation, ce deepfake est poussé par différents comptes très populaires dans le monde arabe. Certains cumulent plus de 690 000 abonnés. Résultat, l’infox a rapidement dépassé le million de vues, rien que sur X (ex-Twitter). Kim Jong-un ciblé par les infox Le président tunisien n’est pas le seul dirigeant ciblé par les fausses informations. Une rumeur populaire prétend que Kim Jong-un aurait apporté son soutien à l’Égypte face aux pressions de Washington. Cette infox repose sur une vidéo dans laquelle un journaliste semble affirmer, en arabe, que « si l'Égypte est attaquée, cette attaque sera considérée comme une déclaration de guerre à la Corée du Nord ». Vérification faite, cette déclaration est sortie de son contexte. Cet extrait d’une vingtaine de secondes est bien réel, mais il est trompeur. En faisant une recherche par mots-clés, on retrouve la vidéo dans son intégralité sur YouTube. Il s’agit d’une chronique de fact-checking publiée par la chaîne de télé Al Araby, le 18 janvier 2020. Durant près de trois minutes, le journaliste présente et vérifie cette fausse information : quelqu’un a simplement isolé le moment où il lisait la déclaration qu’il allait démentir, pour faire croire, à tort, que c’était vrai. Cette manipulation est un classique de la désinformation, mais reste malheureusement toujours aussi efficace.…
 
Alors que les outils d’IA génératives se perfectionnent de jour en jour, les images synthétiques ciblant des personnalités politiques de premier plan se multiplient, au point, parfois, de tromper la vigilance de certains médias. Ces derniers jours, deux fausses photos ciblant Donald Trump et le premier ministre britannique, Keir Starmer, ont ainsi semé le trouble sur les réseaux sociaux. Si vous suivez l’actualité américaine, vous avez probablement vu passer cette image montrant le président américain aux côtés du Premier ministre israélien Benyamin Netanyahu et du patron de X, Elon Musk. Les trois hommes, en costume, prennent la pose, debout, tout sourire, dans ce qui ressemble à un salon de la Maison Blanche ou à un luxueux palace. À en croire ceux qui la partagent sur les réseaux sociaux, cette « photo » aurait été prise au moment de la visite de Benyamin Netanyahu à Washington, ce mardi 4 février 2025 . Vérification faîte, cette photo n’est pas réelle. Elle a été générée via un outil d’intelligence artificielle générative. En remontant à la source de cette image, grâce à plusieurs recherches par image inversée ( voir ici comment faire ), on retrouve son auteur qui précise bien en commentaire « image créée à l'aide de l'IA ». Cela confirme les résultats des différents détecteurs d’IA que nous avons utilisés. Des incohérences visuelles Plusieurs éléments visuels permettent aussi de repérer des incohérences caractéristiques de l’utilisation de l’intelligence artificielle. Comme souvent, l’IA pêche au niveau des mains. Les doigts des trois hommes sont déformés avec plein de bourrelets. En arrière-plan, un homme semble également ne pas avoir de visage. Malgré ça, l’image reste très crédible et il est facile de tomber dans le panneau. Plusieurs médias italiens l’ont d’ailleurs publié telle quelle, en Une de leur site internet, pour illustrer la rencontre entre le président américain et le Premier ministre israélien. Si Benyamin Netanyahu a bien rencontré Elon Musk et Donald Trump, aucune photo ne les montre ensemble dans la même pièce. Keir Starmer ciblé par des images manipulées Le Premier ministre britannique a pareillement été ciblé par des images artificielles. Une image le montrant en train de déguster un homard dans un restaurant luxueux cumule actuellement des millions de vues sur les réseaux sociaux, X en tête. Des internautes s’en servent pour s’attaquer à la politique sociale menée par cet homme politique de gauche. Sauf que là encore, cette image a, en réalité, été générée par l’intelligence artificielle. Plusieurs éléments le prouvent, à commencer par le logo de Grok, l’outil de génération d’images de X, visible en bas à droite de l’image. Ce tampon atteste de l’utilisation de l’IA. Pour le repérer, il est nécessaire d’ouvrir l’image en intégralité puis, parfois, de zoomer dans la zone concernée. Un poison lent Si elles peuvent paraître anodines, voire comiques pour certaines, ces images artificielles sont nocives pour nos sociétés puisqu'elles brouillent le débat public. L’analyse des échanges sur les réseaux sociaux montre que certains s’appuient sur ces fausses images, pour se forger une opinion. La frontière entre le vrai et le faux devient de plus en plus poreuse. Sur le long terme, ces infox laissent toujours des traces. Cela aboutit à installer un doute permanent, mais aussi à faire émerger des réalités alternatives, dangereuses pour les démocraties.…
 
En République démocratique du Congo, les membres du groupe M23 soutenus par le Rwanda ont pris le contrôle de nombreux quartiers de Goma cette semaine. Face à cette situation jugée préoccupante, la Communauté de développement de l’Afrique australe se réunit ce vendredi 31 janvier, à Harare au Zimbabwe. Ces affrontements s’accompagnent d’une guerre informationnelle sur les réseaux sociaux. Les infox se multiplient notamment à propos de l’implication de puissances étrangères dans le conflit. Alors que le chef de la diplomatie française, Jean-Noël Barrot, est arrivé à Kigali après s’être rendu à Kinshasa, plusieurs publications mensongères affirment que la France aurait décidé de « soutenir militairement le Rwanda face à la RDC ». À en croire ce message activement relayé sur Facebook et TikTok, « trois avions militaires français, chargés de munitions, seraient en route vers Kigali et certains auraient déjà atterri ». Leur objectif serait de « faire tomber Goma coûte que coûte ». La photo qui accompagne ce post montre un A-400M Atlas, un avion de transport français, au sol, sur le tarmac d’un aéroport. Vérification faite, cette fausse information a été fabriquée de toutes pièces. La rumeur ne s’appuie sur rien de factuel puisqu’aucun avion militaire français n’a été vu à Kigali. De plus, la photo partagée sur les réseaux sociaux n’a rien à voir avec la situation en RDC . Grâce à une recherche par image inversée, on retrouve sa trace dans plusieurs articles de presse publiés en 2022. Elle a été prise sur la base de Calvi en Corse, et non au Rwanda. Ni l’armée française, ni l’armée rwandaise n’a d’ailleurs communiqué sur une quelconque livraison de munitions. « Aucun avion français ne transporte des munitions vers Kigali » Contacté par la rédaction de Balobaki, un média de fact-checking congolais , le porte-parole du ministère français de l’Europe et des Affaires étrangères, a démenti ces allégations. « Aucun avion français ne transporte des munitions vers Kigali », a assuré Christophe Lemoine. La France a d’ailleurs fermement condamné l’offensive menée par le M23 et appelé les forces rwandaises a « quitté instamment » la RDC. Ces fausses accusations d’implications militaires visent également d’autres pays, à commencer par l’ Afrique du Sud . Plusieurs publications, cumulant plus d’un million de vues, affirment notamment que les Forces de défense nationales sud-africaines auraient envoyé « quatre avions de combat en RDC pour soutenir l’armée congolaise ». Sauf qu’une nouvelle fois, c’est faux. Aucun chasseur sud-africain n’a été aperçu à Goma. Si la photo publiée sur les réseaux sociaux montre bien un escadron de Gripen, des avions de combat suédois que possède Pretoria, le cliché a été pris il y a plus de dix ans. Face à la viralité de cette fausse information, l’armée sud-africaine a publié un démenti sur ses réseaux sociaux. Un contexte propice à la désinformation Ces deux infox sont loin d’être les seules à circuler sur les réseaux sociaux. La situation en cours dans l’est de la RDC est particulièrement propice à la désinformation. Énormément d’images circulent, dont beaucoup sont sorties de leur contexte. Certains n’hésitent pas également à détourner l’image de certains médias, comme RFI, pour diffuser de fausses informations. Raison pour laquelle il faut rester prudent et penser à remonter à la source en cas de doute.…
 
Serait-il dangereux d’utiliser son téléphone portable à côté d’une bouteille de gaz ? Cette croyance populaire, très ancrée en Afrique et ailleurs dans le monde, réapparaît régulièrement au gré des différents faits divers. Ces derniers jours, une vidéo partagée sur des groupes WhatsApp affirme montrer, à tort, une famille victime d’une explosion de gaz liée à l’utilisation d’un smartphone. C'est un auditeur tchadien qui nous a alerté sur la circulation de ces images choquantes. On y voit plusieurs adultes et des enfants, gravement brûlés, arriver dans la salle d’attente d’un hôpital. L’un d’entre eux, le corps ensanglanté, s’effondre sur le sol, inconscient. Le message qui accompagne cette vidéo l’assure : « Évitons le téléphone à côté de la bouteille de gaz. Regardez cette famille en sang jusqu’aux enfants ». À en croire le drapeau présent dans cette légende, la scène se passerait au Cameroun. Pour savoir ce que montre réellement cette vidéo, nous avons d’abord cherché à la géolocaliser en s’appuyant sur une plaque d’immatriculation visible sur l’un des véhicules stationnés devant l’hôpital. La combinaison des chiffres et des lettres ainsi que les éléments graphiques correspondent aux plaques de l’état de Rivers, dans le sud du Nigeria. Les causes réelles de l'explosion Pour confirmer cette piste, nous avons effectué plusieurs recherches avec les mots-clés, « gas », « explosion » et « Rivers ». Cela nous a permis de retrouver la trace de cette vidéo dans la presse nigériane et de confirmer notre géolocalisation. En croisant plusieurs articles provenant de médias nigérians fiables, on apprend que ces images font suite à une explosion mortelle chez un vendeur de gaz, à Port Harcourt, dans le quartier d’Oroazi, ce que nous a confirmé la rédaction de RFI en Hausa, à Lagos. En réalité, cette explosion n’est pas liée à l’utilisation d’un téléphone portable. Selon plusieurs témoignages , un homme aurait tenté de souder une bouteille de gaz qui fuyait, provoquant involontairement une explosion en chaîne. Le dernier bilan fait état de cinq morts et plus d’une dizaine de blessés. La légende qui circule sur WhatsApp est donc mensongère. Des risques minimes Sur le fond, est-il dangereux d’utiliser son téléphone portable à côté d’une bouteille de gaz ? Pour répondre à cette question, il faut d’abord préciser comment se produit une explosion. « Concrètement, pour qu’il y ait une atmosphère explosive, ce que nous appelons une atex, il faut un combustible, un gaz par exemple comme l’hydrogène, le butane ou le propane, et un comburant, l’oxygène de l’air. Si on a suffisamment de combustible et de comburant, on va avoir un mélange explosif. Pour que l’explosion se produise, il ne manque plus qu’une source d’inflammation. Cela peut être une étincelle électrique, une chaleur excessive ou une flamme par exemple », explique Olivier Cottin, responsable de l’unité Atex , au sein de la direction Incendies, dispersions, et explosions (IDE) de l'Ineris, l’institut national de l'environnement industriel et des risques. « Si les conditions d’utilisation sont normales, c'est-à-dire que la bouteille de gaz est en bon état et qu’il n’y a pas de fuite, alors il n’y a pas de danger immédiat à utiliser son téléphone portable à côté de cette bouteille , précise Olivier Cottin . Pour qu’il ait un risque, il faudrait une fuite dans un milieu confiné. Mais de la même façon, un téléphone en fonctionnement normal ne présente pas de risques. Il ne provoque ni étincelles ni chaleur excessive pouvant faire exploser une atmosphère explosive. Il faudrait donc également que le téléphone dysfonctionne pour enflammer une atex ». En conclusion, le risque zéro n’existe pas, mais si votre bouteille de gaz ne fuit pas et que votre téléphone fonctionne correctement, vous n’avez pas de souci à vous faire.…
 
À Los Angeles, les pompiers essayent toujours de contenir les flammes, plus d’une semaine après le début des incendies. Selon le dernier bilan, au moins 24 personnes ont trouvé la mort. Une catastrophe historique, marquée par un flot d'infox d’une rare intensité sur les réseaux. L’origine de ces incendies, le travail des pompiers, les rescapés, rien n’échappe à la désinformation, à tel point que certaines des images les plus partagées en ligne sont irréelles ou sorties de leur contexte. Si vous avez passé du temps sur les réseaux sociaux ces derniers jours, vous avez probablement été confronté à l’une de ces deux images aériennes, montrant une maison au toit rouge, prétendument épargnée par les flammes à Los Angeles. Tout le quartier semble avoir été détruit, sauf ces luxueuses résidences. Si les deux maisons se ressemblent, ce ne sont pas les mêmes. L’une est en bord de mer, l’autre en pleine ville. Les internautes qui partagent ces photos affirment qu’elles montreraient « la maison d’un croyant de Los Angeles, miraculeusement protégée par Dieu ». Un récit sur lequel plusieurs auditeurs nous ont alertés. Image détournée et générée par IA Vérification faîte, ces deux images n’ont rien à voir avec les incendies en cours à Los Angeles . La première photo est bien authentique, mais elle n’a pas été prise dans la cité des anges. Une recherche par image inversée permet de retrouver sa trace dans la banque d’images de l’Agence France Presse (AFP) . On y apprend en légende qu’elle montre une maison dans le quartier de Lahaina, à la suite des incendies mortels à Hawaï, en août 2023. La résidence avait été épargnée notamment grâce à sa toiture en tôle épaisse et à l’absence de végétation à proximité. Concernant le deuxième cliché, si visuellement tout semble réel, l’image a en réalité été générée par une intelligence artificielle. Le seul moyen de s’en rendre compte consiste à faire une recherche par image inversée sur Google, puis d’aller dans l’onglet « À propos de l’image ». Un message apparaît alors indiquant « image créée avec l’IA de Google ». Comment Google sait-il que quelqu’un a généré cette image avec son intelligence artificielle ? Pour son outil de génération d’image, baptisé Imagen , la firme américaine utilise ce que l’on appelle des watermarks, des filigranes, invisibles à l’œil nu, mais identifiables par un logiciel . Ce tatouage numérique atteste donc de l’utilisation de l’intelligence artificielle, mais sans faire cette démarche de vérification, il est impossible de s’en rendre compte. Instrumentalisation complotiste et religieuse Cette image synthétique fait l’objet de nombreuses instrumentalisations. Religieuse d’abord, avec plusieurs messages parlant d’une intervention divine. Certains affirment, à tort, que cette maison appartenait à une famille chrétienne, d’autres à une famille musulmane. Et puis certains complotistes ont aussi diffusé cette image, assurant que l’incendie était volontaire et ne ciblait que certaines habitations. Deux récits trompeurs vus des dizaines de millions de fois sur les réseaux sociaux. Résultat, cette infox figure aujourd’hui parmi les images les plus vues concernant les incendies de Los Angeles. On est donc là face à un énième exemple de détournement de l’IA qui perturbe les perceptions d’un événement mondial et invisibilise les vraies images de la catastrophe.…
 
« Nous allons nous débarrasser des fact-checkers ». Cette déclaration du patron de Meta, Mark Zuckerberg, ce mardi 7 janvier, a suscité beaucoup d’inquiétude chez les spécialistes de la lutte contre la désinformation. Pendant que certains veulent faire disparaître le fact-checking sur les réseaux, d’autres essayent au contraire de faciliter l’accès à des informations vérifiées. C’est le cas de l'ONG La Réponse Tech qui a récemment lancé, Vera, un bot conversationnel de vérification. Utiliser l’intelligence artificielle pour permettre à tout un chacun de vérifier une information en temps réel. C’est la mission que s’est lancée le collectif citoyen La Réponse Tech en développant Vera, un agent conversationnel numérique , accessible 24 heures sur 24, 7 jours sur 7. Concrètement, il suffit d’appeler le numéro de téléphone de Vera, +33 9 74 99 12 95 ou bien de lui envoyer un message sur WhatsApp, en lui demandant si telle information est vraie ou fausse. Pour cet exemple, nous avons volontairement posé une question sur une infox vérifiée par la cellule Info Vérif de RFI . Mais cette intelligence artificielle se base sur le travail de plusieurs centaines de sources fiables, sélectionnées par un comité d’experts et librement consultables . « À partir de la question posée par l’utilisateur, Vera va d’abord chercher si des rédactions de fact-checking ont traité le sujet. Si ce n’est pas le cas, elle va chercher la réponse auprès de 300 sites de médias reconnus comme fiables, avant d’en faire une synthèse et de la proposer en temps réel », explique son fondateur, Florian Gauthier. Techniquement parlant, Vera se base sur le modèle de langage GPT-4, développé par la société américaine Open AI. Aujourd’hui, Vera est utilisée par environ 700 utilisateurs uniques chaque semaine. Une IA modelée pour éviter les erreurs Comme tout outil basé sur l’intelligence artificielle, Vera n’est pas infaillible. Le risque d’erreur ou de réponse incomplète existe. Mais contrairement à des chatbots comme ChatGPT, Perplexity ou Claude, Vera n’a pas été pensée pour répondre coûte que coûte à la question posée. « Vera a l’interdiction totale, d’imaginer quoi que ce soit. Dès qu’elle va formuler une réponse, c’est que cette réponse a été donnée par une source fiable qui est toujours citée. Si Vera ne trouve pas la réponse dans sa base de données, ce qui arrive par moment, elle ne va pas chercher à inventer. Elle se contentera alors de préciser qu’elle n’a pas trouvé la réponse à cette question », détaille Florian Gauthier. Autre limite, la base de données ne peut pas être exhaustive. Il est donc possible que Vera vous réponde qu’elle ne sait pas même si le sujet a déjà été vérifié. Mais d’après nos essais, Vera est aujourd’hui le bot conversationnel le plus efficace pour vérifier une information en temps réel. À l’avenir, ses créateurs envisagent de rendre Vera multilingue, et de proposer gratuitement le service sur d’autres plateformes et réseaux sociaux. Lutter contre les discours complotistes Au-delà de permettre ce processus de vérification en temps réel, ce genre d’agent conversationnel pourrait également permettre de limiter, chez certains utilisateurs, l'adhésion aux théories complotistes. C’est ce que montre une étude récente publiée dans la revue scientifique Nature . « De nombreuses personnes qui croient fermement à des théories du complot apparemment infondées peuvent changer d’avis lorsqu’on leur présente des preuves convaincantes. (...) Les dialogues avec l’IA réduisent durablement les croyances complotistes, même parmi les plus fervents croyants », concluent les chercheurs. Pour Florian Gauthier, « l’intelligence artificielle est un super outil pour propager des fausses informations. Mais l’IA peut aussi être, au contraire, une véritable piste de réponse pour combattre la désinformation ».…
 
De plus en plus simples et performants, les modèles de synthèse d'image permettent la diffusion massive de contenus artificiels, relayés comme tels mais pas seulement. Ils participent aussi à la confusion dans des conflits difficiles à couvrir pour les journalistes, menacés dans l’exercice de leur métier. À côté des véritables clichés témoignant des atrocités commises à Gaza, l’IA vient perturber la perception de la réalité factuelle. L’image suscite l’indignation. Elle montre - au premier plan - un homme âgé sous perfusion, pieds et torse nus, debout au milieu des gravas, avec - à l'arrière-plan - un char de combat se détachant sur fond de bâtiments détruits un peu flous. Les comptes qui partagent cette image sur plusieurs réseaux sociaux, Instagram, Facebook et X indiquent qu’il s’agit d’un vieillard sorti de force par les soldats israéliens lors de l’assaut mené il y a une semaine tout juste contre l’hôpital Kamal Adwan, dernier grand hôpital du nord de Gaza. Relayée dès lundi par une influenceuse et activiste pro-palestinienne suivie par plus de 300 000 comptes sur X, le cliché suscite de nombreuses réactions contre une opération militaire israélienne qui a brutalement mis hors d’état de fonctionner l’un des derniers hôpitaux de Gaza. Pourtant, cette image censée représenter une situation réelle, ne l’est pas. Création numérique trompeuse Une recherche d’image inversée permet de retrouver la première occurrence de cette image. Elle provient du compte Instagram d’un militant pro-palestinien, qui se présente comme un artiste de design numérique. Il ne s’en cache pas, ses images portent toutes la même signature, mentionnant une création d’art visuel. On découvre d’ailleurs une autre version de la scène. Le vieil homme est vu de dos, toujours devant le même char. Sur le bitume devant lui sont peints en rouge les mots « Dirty World » et la photo est barrée d’un slogan : « forced extermination », on voit aussi la signature du concepteur de l’image, en haut à droite et en bas à gauche. Il ne s’agit donc pas d’une photo à proprement parler. L’homme que l’on voit n’existe pas, c’est une composition numérique avec des éléments de décor fictifs. Le char est placé là, comme un élément du décor. Mais nombre de publications ont relayé cette image d’un réseau social à l’autre, en réduisant le cadre et du coup, en escamotant la signature. De toute façon, avec ou sans logo, en lisant les commentaires, on s’aperçoit que beaucoup d’internautes pensent avoir affaire à une image authentique, alors qu’il n’en est rien. Altération du réel Le concepteur de l’image publie sur Instagram un résumé de la situation plutôt factuel sans dire que l’illustration choisie, elle, ne l’est pas. L’intention vise manifestement à alerter l’opinion, à la suite de ce raid de l’armée israélienne qui a bel et bien eu lieu et qui a abouti à ce que les patients de l’hôpital - certains dans un état critique - soient sortis du bâtiment sous la contrainte. Or, à part quelques images du personnel soignant et du docteur Abou Safiya arrêtés par l’armée israélienne, on n’a quasiment pas vu ce qui était advenu des patients. À l'exception d’une vidéo diffusée sur la chaîne de télévision Al Jazeera, montrant des femmes et des enfants assis dans des ambulances lors de leur transfert vers l’hôpital indonésien. Leur situation est réellement dramatique, car le système de santé à Gaza est véritablement en ruine, mais l’image du vieil homme à la perfusion, seul face à un char ne rend pas compte de la situation réelle. À lire aussi Guerre Israël-Gaza: «Un système sanitaire anéanti», la santé des Gazaouis en péril Quand l’image artificielle sert la propagande israélienne Le paradoxe, c’est qu’en publiant et en relayant des images non authentiques même lorsqu’elles témoignent d’une réalité, on favorise la mise en doute des véritables photos, qui - elles - sont prises dans des conditions extrêmement difficiles. L’image du vieillard à la perfusion n’a pas circulé de façon virale. Elle a vite été retirée de X par l’influenceuse qui avait contribué dans un premier temps à sa diffusion. Mais d’autres internautes s’en sont emparés. Dont un militant pro-israélien, profitant de l’occasion pour alimenter le doute sur le sort des gazaouis. Immanquablement, sur les réseaux sociaux, la création échappe vite à son créateur. Le factuel relégué au second plan, la désinformation s’insinue. La nécessité de « documenter » le conflit La manœuvre éclipse une autre réalité de ce conflit. À Gaza, les journalistes sont empêchés de travailler , victimes des bombardements quand ils ne sont pas volontairement ciblés et interdits sur le terrain. Cette difficulté ne justifie pas cependant l’emploi de fausses images dans la mesure où de nombreux clichés authentiques permettent, eux, de témoigner des souffrances de populations soumises aux bombardements intensifs, au froid, au manque d’eau, de nourriture et de médicaments. L’image créée à l’aide de modèles de synthèse ou IA génératives, en créant la suspicion ne fait que brouiller l’information. Un modèle économique pour les plateformes Or, cette pratique est en constante augmentation. Elle profite aux influenceurs - raison pour laquelle nous ne relayons pas ici le contenu en question - et aux plateformes. Pour Meta, TikTok, X et les autres, c’est la prime au contenu artificiel. La maison mère de Facebook et Instagram envisage pour sa part de pousser à la création de profils générés par l’IA et de contenus tout aussi artificiels, afin de rajeunir son audience. Les plateformes rivalisent d’ingéniosité pour produire leurs propres modèles d’IA générative et capter le maximum d’attention sur leurs réseaux. Ces mêmes acteurs du numérique ne déploient pas le même zèle pour permettre aux internautes de faire la part du vrai et du faux. Il va falloir redoubler d’attention contre les manipulations de l’information.…
 
En Égypte, de fausses rumeurs de soulèvement populaire sont devenues virales sur les réseaux sociaux. Après la chute du dictateur syrien Bachar el-Assad, certains affirment, à tort, que le peuple égyptien serait en train de renverser Abdel Fattah al-Sissi. En réalité, aucune manifestation anti-régime n’a eu lieu ces derniers jours en Égypte. Les images partagées sont sorties de leur contexte. La vidéo la plus populaire a été vue plusieurs millions de fois ces dernières heures. On y voit des manifestants réunis de nuit, dans une rue commerçante. Certains tentent de bloquer la circulation, d’autres scandent : « le peuple veut faire tomber le système », un slogan emblématique des révolutions arabes de 2011. Les comptes qui partagent ces images parlent de « manifestations en cours au Caire pour demander le renversement du régime d'Abdel Fattah al-Sissi ». Vérification faîte, ces images sont datées. Grâce à une recherche par image inversée ( voir ici comment faire ), nous avons retrouvé un reportage de la chaîne de télévision arabe, Al Araby, publié sur Facebook en 2019. On y retrouve plusieurs extraits de manifestations filmés dans toute l’Égypte, dont ces images présentées, à tort, comme étant récentes. Cette vidéo remonte donc au mouvement de contestation anti-régime qui avait éclaté dans le pays en septembre 2019. À l’époque, l'homme d’affaires exilé en Espagne Mohamed Aly avait appelé à manifester, accusant Abdel Fattah al-Sissi de corruption. Ces derniers jours, aucune manifestation anti-régime n’a eu lieu en Égypte . Détournement de la contestation de 2019 Une autre vidéo virale montre des manifestants en train de déchirer un portrait d’Abdel Fattah al-Sissi, en pleine rue. La légende évoque « des manifestations antigouvernementales au Caire, en Égypte ». Mais contrairement à ce que veut faire croire l’auteur de ce tweet, ces images vues des centaines de milliers de fois ne sont pas récentes. En faisant une recherche par mots clés, nous les avons retrouvées dans un article publié cette fois par Al Jazeera , le 21 septembre 2019. Le média évoque des manifestations dans les villes de Damiette et de Mansoura. On retrouve donc le même mode opératoire. Des utilisateurs rediffusent des vidéos datées de cette période de contestation en septembre 2019 et les publient telles quelles, avec une légende mensongère ou volontairement imprécise. Au total, la cellule Info Vérif de RFI a repéré près d’une dizaine de vidéos ainsi sorties de leur contexte. Désinformer pour modifier les comportements Si on ne sait pas précisément qui est derrière cette campagne de désinformation, l’analyse des comptes à l’origine de ces infox met en lumière des profils variés. Nous avons identifié des comptes égyptiens opposés au régime en place, des comptes pro-russes habitués à désinformer au Moyen-Orient, ainsi que des comptes pro-palestiniens. Quand on regarde les chiffres, on peut dire que cette campagne est relativement efficace puisque ces fausses informations ont cumulé des millions de vues en seulement quelques jours sur X, Facebook et TikTok . Ces comptes cherchent à raviver artificiellement la flamme de la contestation en Égypte. Une chose est sûre, leurs infox parviennent au moins à semer le trouble, comme le montrent les commentaires d’internautes qui tombent dans le piège.…
 
Au Mali, l’armée et ses supplétifs russes de Wagner ont fait une quinzaine de prisonniers lors d’une opération à la frontière mauritanienne, le 10 décembre 2024. Des Mauritaniens ont été arrêtés sur le sol malien, à Laghdaf, près de Fassala, avant d’être libérés. Ce nouvel incident dans une zone frontalière parfois disputée n’a pas tardé à être instrumentalisé. Dans un contexte déjà tendu entre les deux voisins, la désinformation attise encore davantage les tensions. Ce mardi 17 décembre, notre rédaction à Dakar nous alerte. Une vidéo publiée sur TikTok, affirme, à tort, que l’armée mauritanienne aurait réagi à ces arrestations en « bombardant un poste militaire malien à Laghdaf ». Selon cette infox, l’attaque aurait causé « la mort de 69 soldats maliens et mercenaires russes ». À l’image, on voit une explosion avec des flammes de plusieurs dizaines de mètres. Cette scène, impressionnante, a été filmée de nuit, par un témoin situé à une vingtaine de mètres de l’incendie. En réalité, ce récit a été fabriqué de toutes pièces. L’armée mauritanienne n’a pas attaqué le Mali . Il n’y a eu aucun bombardement, ni aucun mort. Il n’y a d’ailleurs pas de poste militaire malien dans la zone. Du côté des images aussi, il y a manipulation. La vidéo n’a pas été tournée à la frontière entre les deux voisins, mais dans la capitale, Bamako. La scène se passe dans le quartier Faladié, juste en face de l’école de la gendarmerie, bien loin de la Mauritanie . On sait que plusieurs camions citernes ont déjà pris feu à cet endroit, notamment le 30 octobre 2024 . Cette vidéo est donc liée à un accident sans le secteur. Géolocalisation des images Pour savoir ce que montre réellement cette vidéo, nous avons commencé par la géolocaliser. Pour ça, nous nous sommes appuyés sur plusieurs commentaires évoquant une scène possiblement filmée à Bamako, avant d’identifier les éléments visuels les plus marquants : un panneau publicitaire, une route bitumée de deux voies et des arbres visibles en arrière-plan. Sur des logiciels de cartographie satellite, comme Google Maps ou Yandex Maps , nous avons cherché ces éléments, sans succès. Nous avons donc fini par utiliser Mappilary , une plateforme collaborative qui permet à n’importe qui de prendre des photos d’une route, ou d’un centre-ville et de les rendre accessibles gratuitement au monde entier. Grâce à ça, nous avons pu arpenter les grands axes de la capitale. Au bout de quelques heures, nous avons fini par retrouver notre panneau et nos arbres, sur la RN7, après la Tour de l’Afrique. Désinformer pour attiser les tensions À l’origine de cette infox, on retrouve un mystérieux compte TikTok suivi par plus de 250 000 personnes. Il publie presque quotidiennement des vidéos sorties de leur contexte, en affirmant, à tort, que la Mauritanie attaquerait ou envahirait le Mali. Des infox souvent virales puisque ses 31 vidéos cumulent plus de 25 millions de vues. Cette désinformation est particulièrement nocive au vu des relations déjà tendues entre les deux voisins. Les journalistes locaux sont quotidiennement confrontés à cette réalité. « La manipulation de l’information expose les populations à des risques , souligne Kissima Diagana, directeur du site InitiativeNews , présent lors du dernier webinaire du Timbuktu Institute . D’autant plus dans un pays comme la Mauritanie où il y a différentes communautés face à un pays en crise au Mali, également exposé à des tensions communautaires. C’est donc facile de créer des tensions entre les deux pays. » Ces tensions entre les deux voisins sont déjà largement palpables sur les réseaux sociaux. À lire aussi Non, cette vidéo ne montre pas la Mauritanie sur le point d’attaquer le Mali…
 
Depuis la chute du régime de Bachar el-Assad en Syrie, chassé par une coalition de rebelles islamistes, de nombreuses fausses informations circulent à son propos. Ces rumeurs cumulent des millions de vues et sèment le trouble sur la fuite de l’ex-dictateur syrien. L’une des dernières infox en date affirme que Bachar el-Assad aurait officiellement démissionné, exprimant des regrets avant de fuir son pays. Cette affirmation repose sur une bande son diffusée sur les réseaux sociaux. On pense y entendre l’ex-dictateur déclarer « Chers citoyens, dans les circonstances difficiles que traverse le pays, et en raison de l'état du peuple syrien, moi, Bachar el-Assad, après avoir pleinement reconnu ma responsabilité dans ce qui s'est passé dans le pays au cours des dernières années, j'ai décidé de renoncer à la fonction de président de la République. (...) J'ai signé des décrets récents exigeant le retrait des forces étrangères et des milices, et j'appelle ces forces à se retirer du territoire syrien. Enfin, je présente mes excuses au grand peuple syrien pour mes actions ». En réalité, cet enregistrement écouté des millions de fois n’est pas réel . Bachar el-Assad n’a ni annoncé sa démission, ni présenté ses excuses. En scriptant la bande son et en faisant des recherches par mots clés, nous avons identifié une vidéo publiée sur YouTube, le 2 septembre 2023 . On y retrouve exactement le même audio de 56 secondes. En légende, il est indiqué que cet audio a été généré via l’intelligence artificielle « à des fins de divertissement », ce que confirment les détecteurs d’IA que nous avons utilisés. L’avion de Bachar el-Assad victime d’un crash ? Une autre infox qui revient avec insistance avance que l'ex-dictateur syrien serait mort durant sa fuite en avion. Selon les internautes à l’origine de cette rumeur, un avion-cargo russe, transportant Bachar el-Assad, se serait crashé au nord de la Syrie. Certains assurent, images à l’appui, que l’appareil aurait été abattu par les rebelles islamistes. En réalité, tous les clichés présentés comme des preuves sont sortis de leur contexte . Nous avons identifié des images provenant des États-Unis, d’Inde, mais jamais de Syrie. Si les données de vol étrange d’un Iliouchine-76 en partance de Damas ont bien semé le doute, rien ne permet de dire qu’un avion s’est crashé, ni que Bachar el-Assad figurait parmi les passagers. Entre l’ancienneté de l’appareil et le brouillage GPS dans la zone, les données du transpondeur sont à prendre avec précautions, comme le rappelle la plateforme de tracking en ligne, FlightRadar24 . Enfin, aucune carcasse d’avion n’a aujourd’hui été retrouvée sur les prétendus lieux du crash. Des découvertes farfelues dans sa résidence ? Un flot de fausses informations vise aussi les découvertes réalisées dans l’ancienne résidence de Bachar el-Assad, pillée par des civils et des rebelles. Les images authentiques montrant des dizaines de voitures de luxe, des œuvres d’art, des écrans géants, ont fait le tour du monde. Dans ce contexte, certains ont saisi l’occasion pour désinformer et faire du clic. À en croire leurs publications, le parchemin d’une torah vieille de plus de 500 ans, une collection de films pour adultes et des milliers de lingots d’or auraient aussi été retrouvés. Vérifications faîtes, l’exemplaire de la Torah a été filmé en Tunisie en 2017 . La collection de films X date d’une vente aux enchères en 2021, en Australie . Quant aux lingots d’or, ils ont été générés par intelligence artificielle. Ces trois infox ont été vues des millions de fois ces dernières heures.…
 
En Syrie, la coalition conduite par le groupe islamiste radical, Hayat Tahrir Al-Sham, poursuit son offensive contre l’armée de Bachar el-Assad. Après leur prise d’Alep, les rebelles ont capturé la ville d’Hama. Dans ce contexte, tout et son contraire circule sur les réseaux sociaux. Certains affirment notamment, à tort, que le chef du mouvement islamiste HTS, Abou Mohammed al-Jolani, aurait été tué dans un bombardement russe. La photo a fait le tour des réseaux sociaux ces derniers jours. On y voit le cadavre d’un homme barbu, vêtu d’une chemise de camouflage, les yeux et la bouche entrouverts. Son corps est mis en scène sur un canapé, devant un mur criblé d’impacts. En légende, les internautes parlent d'une « frappe aérienne russe contre le quartier général opérationnel dans lequel le chef du groupe HTS, Abu Muhammad al-Julani, se trouvait et aurait été tué ». D’autres évoquent aussi, sans preuve, la présence « de hauts responsables des services de renseignements ukrainiens et turcs ». Vérification faite, cette photo n’a rien à voir avec les combats en cours en Syrie. En faisant une recherche par image inversée, on retrouve ce même cliché dans un article publié sur un site d’information libanais, le 5 septembre 2015 . Le média évoque, en arabe, la mort du terroriste jordanien, membre de l’état islamique, Abu Al-Qaqa, en Syrie, lors d’un bombardement en 2015. Cette version est confirmée par une publication Facebook de la 105ᵉ brigade électronique de la Garde républicaine syrienne, également datée du 5 septembre 2015. Une photo manipulée Une comparaison minutieuse entre cette photo de 2015 et celle qui circule ces derniers jours, montre que l’image a été manipulée. Sur le cliché de 2015, l’homme ne ressemble pas à Abou Mohammed al-Jolani. Il a du sang sur le nez et sur les lèvres. Son regard est vide. Au contraire, sur l’image partagée ces derniers jours, l’homme ressemble fortement au leader de Hayat Tahrir Al-Sham. Il n’a pas le même nez, ni les mêmes yeux. Quelqu’un a donc pris une vieille photo d’un terroriste tué en 2015, et a visiblement modifié son visage pour le faire passer, à tort, pour Abou Mohammed al-Jolani. Contrairement à ce qu’affirme cette infox, Abou Mohammed al-Jolani est apparu vivant ce mercredi 4 décembre 2024 . Le chef du groupe islamiste a été vu, déambulant dans la citadelle d’Alep. Plusieurs vidéos amateurs le montrent en chemise et pantalon kaki, entouré par des dizaines de personnes. Des comptes pro-Bachar el-Assad à la manœuvre ? Si on ne sait pas précisément qui est à l’origine de cette infox, on sait qu’elle a notamment été poussée par des influenceurs pro-Bachar el-Assad ainsi que par des comptes pro-russes désireux de glorifier l’action de leur armée en Syrie. Des agences de presse en Afghanistan et au Yémen ont aussi relayé cette fausse information. Résultat, cette image manipulée et sortie de son contexte cumule actuellement plusieurs millions de vues sur les réseaux sociaux. Des dizaines d’infox de ce genre circulent présentement. Ce bruit de fond sème le trouble sur le véritable déroulement de ce conflit en cours en Syrie.…
 
Une semaine après le tir par la Russie d’un missile capable d’emporter des charges atomiques sur Dnipro en Ukraine, le chantage nucléaire brandi par le Kremlin n’a jamais semblé aussi fort. En déplacement au Kazakhstan, Vladimir Poutine a menacé ce jeudi 28 novembre de frapper Kiev avec ce nouveau missile. Dans ce contexte, certains diffusent sur les réseaux le récit d’une guerre nucléaire imminente entre la Russie et l’Otan. Ce narratif est poussé à coups d'infox, pour terroriser les Occidentaux. Cette petite musique alarmiste d’une guerre nucléaire imminente entre la Russie et l’Otan est omniprésente sur les réseaux sociaux. Le dernier exemple en date est une vidéo censée montrer « une nouvelle bombe nucléaire russe en cours de fabrication ». On y voit une énorme machine noire, haute comme un immeuble de dix étages, de forme cylindrique, transportée sur un plateau roulant long de plusieurs dizaines de mètres. Des ouvriers en tenue de chantier filment la scène. Côté son, l’ambiance est volontairement plutôt inquiétante. L’internaute à l’origine de cette publication parle de « rapports alarmants suggérant que la Russie intensifie ses préparatifs et son arsenal nucléaire ». Vérification faîte, ces images ne montrent pas une bombe nucléaire, ni une quelconque arme russe. Grâce à une recherche par image inversée, on retrouve plusieurs photos de cette même machine dans un article publié sur le site internet de l’entreprise Mammoet . Cette société néerlandaise est spécialisée dans le levage et le transport d'objets lourds. On y apprend qu’il s’agit en réalité d’une gigantesque colonne de régénération qui sert au traitement des produits issus du raffinage. L’appareil pèse plus de 3 000 tonnes et a été transporté vers la raffinerie de pétrole de Dangote, au Nigeria, en 2021. À ce jour, il s’agit de l'élément le plus lourd jamais transporté sur une voie publique en Afrique. Un faux message du gouvernement français Toujours pour alimenter les peurs, d’autres vidéos sorties de leur contexte simulent même le début d’une guerre nucléaire. C’est le cas d’une publication TikTok consultée des centaines de milliers de fois ces dernières heures. On y voit le symbole nucléaire jaune et noir, apposé sur des images de Paris. Ces visuels sont accompagnés d’un prétendu message d’alerte nucléaire du gouvernement français. Ce message, angoissant, semble réel. La charte graphique, le logo bleu-blanc-rouge, l’intonation de la voix, tout paraît correspondre avec les alertes officielles diffusées sur d’autres sujets par la République française. Sauf qu’en réalité, ce message a été fabriqué et diffusé sur YouTube par un vidéaste, en avril 2023 . Il précise bien que c’est un « contenu fictif ». Malgré ça, sa vidéo est aujourd’hui réutilisée à des fins de désinformation. Affaiblir le soutien à l'Ukraine L’analyse de la propagation de ces infox alarmistes montre qu’elles sont, en partie, diffusées et amplifiées par des comptes habitués à relayer quotidiennement la propagande russe sur les réseaux sociaux. Leur but est d’installer ce bruit de fond d’une guerre nucléaire imminente entre la Russie et l’Otan, pour créer un sentiment de panique chez les Occidentaux. Cette peur pourrait engendrer une volonté de ne plus soutenir l’effort de guerre ukrainien. Cette stratégie informationnelle a été mise en place par le Kremlin depuis le lancement de son invasion de l’Ukraine.…
 
La France envisage-t-elle d’abaisser la limitation de vitesse sur les autoroutes, passant de 130 à 90 km/h ? L’infox a fait le tour des réseaux sociaux ces derniers jours. Cette fausse rumeur s’appuie sur une vidéo manipulée du Premier ministre, Michel Barnier, en déplacement à Angers la semaine dernière pour les Assises des départements de France. En réalité, il s’agit d’un nouveau deepfake du Premier ministre français. La vidéo dure précisément trente-trois secondes. On y voit Michel Barnier tenir un discours derrière un pupitre, sur lequel est inscrit « Assises des départements de France ». Plusieurs bandeaux textuels, communément appelés des synthés, sont apposés sur ces images. On y retrouve notamment le logo de la chaîne de télévision française BFM TV. Côté son, on entend le Premier ministre annoncer, qu’à partir de 2025, « la vitesse sur autoroute sera limitée à 90 km/h pour les véhicules thermiques, afin de réduire les émissions de dioxyde de carbone et d’améliorer la sécurité routière. En revanche, les véhicules électriques conserveront la limitation actuelle de 130 km/h. Cette distinction vise à encourager la transition vers des technologies plus propres et à soutenir notre engagement envers l’écologie et l’innovation. Nous comptons sur votre compréhension et votre soutien dans cette démarche essentielle pour l’avenir ». Face à cette prétendue déclaration, des internautes s’agacent. L’un deux commente : « Ce sont des fous ! Ils sont payés pour détruire la France en faisant semblant de combattre une menace qui n’existe pas. Pendant combien de temps allez-vous les laisser vous enlever tout ? Ce sont vos pires ennemis ». En réalité, Michel Barnier n’a jamais prononcé ces mots. Hypertrucage généré par l’intelligence artificielle Vérification faîte, cette vidéo est un deepfake, un hypertrucage généré par l’intelligence artificielle. Autrement dit, la voix du Premier ministre et le mouvement de ses lèvres ont été modifiés pour lui faire dire n’importe quoi. Si la synchronisation labiale n’est pas parfaite, la voix de Michel Barnier est plutôt bien reproduite. La manipulation est vraiment convaincante, ce qui explique que de nombreux internautes tombent dans le panneau. La vérification Pour vérifier ces images, nous avons commencé par remonter à la source. Nous avons donc revisionné la prise de parole de Michel Barnier, diffusée sur BFM TV le 15 novembre dernier. On y retrouve bien, les mêmes gestes, le même pupitre, mais à aucun moment, Michel Barnier ne parle de la limitation de vitesse sur les autoroutes. À partir de là, on sait qu’il y a eu manipulation. Pour savoir de quel ordre, nous avons passé la vidéo au crible de plusieurs détecteurs d’intelligence artificielle. Les résultats sont sans appel, c’est un deepfake. Des recherches par image inversée montrent que ce deepfake a été fabriqué par un compte parodique sur TikTok . Un nouveau deepfake Parmi ceux qui partagent cette fausse information, on retrouve des comptes complotistes ou d’autres simplement opposés au gouvernement et au président Emmanuel Macron. Ce qui est intéressant, c’est que certains d’entre-eux avaient déjà diffusé un autre deepfake de Michel Barnier en septembre dernier. Là aussi, la voix du Premier ministre avait été manipulée pour lui attribuer, à tort, des mesures chocs, comme l’augmentation du carburant ou du temps de travail. Ces infox sont souvent accompagnées d’appels à la mobilisation.…
 
Accusations de déstabilisation, passes d’armes à la tribune de l’ONU. Les relations entre le Mali et l’Algérie sont particulièrement tendues ces dernières semaines. Dans ce contexte, plusieurs infox sèment le trouble sur les réseaux sociaux. Certains comptes affirment notamment que le Mali viendrait de reconnaître la Kabylie, région montagneuse du nord de l’Algérie, qui a souvent manifesté pour son indépendance. Une fausse information sur un sujet particulièrement sensible pour Alger. La rumeur provient d’une vidéo partagée sur X, Facebook et YouTube ces dernières heures. On y voit un extrait d’une conférence de presse d’un haut gradé malien, suivi des images d’une manifestation en faveur de l’indépendance de la Kabylie. Côté son, une voix, superposée sur les images, affirme « le Mali devrait accueillir, au plus haut sommet de l’État, des représentants du Mouvement pour l’autodétermination de la Kabylie ». Les comptes qui partagent cette vidéo l’assurent, à tort, le Mali viendrait de reconnaître l’indépendance de cette région algérienne. « Le Mali est le premier pays à le faire », se félicite un internaute. Sauf que c’est faux, le Mali ne vient pas de reconnaître l’indépendance de la Kabylie. Des images détournées Vérification faîte, ces images sont sorties de leur contexte, à commencer par la conférence de presse. Grâce à une recherche par image inversée ( voir ici comment faire ), on sait qu’il s’agit d’un extrait d’une déclaration du capitaine Amadou Haya Sanogo, en mars 2012 . Le chef de la junte alertait sur la situation critique au nord du Mali, mais à aucun moment il ne parle de l’Algérie. Concernant les images de manifestation, on les retrouve dans un reportage diffusé sur YouTube en septembre 2022 . La scène, que nous avons géolocalisée, se déroule à Barcelone, sur la célèbre avenue du Parallèle. Des militants en faveur de l’indépendance de la Kabylie avait défilé à l’avant d’un cortège le jour de la Diada, la fête nationale de la Catalogne, ce qui explique les nombreux drapeaux catalans visibles sur la vidéo. Une bande son manipulée Ces images datées sont accompagnées d’une bande son, elle aussi, détournée. En effet, la voix que l’on entend n’a rien à voir avec les images. Si nous ne sommes pas parvenus à identifier qui parle exactement, on sait que cette voix lit un communiqué du ministère malien des Affaires étrangères, en date du 25 janvier 2024. Le gouvernement de la transition y dénonce, entre autres, des actes inamicaux de la part des autorités algériennes. En page trois, il est écrit, : « le Gouvernement de la Transition serait curieux de savoir le sentiment des autorités algériennes, si le Mali devrait accueillir, au plus haut sommet de l’État, des représentants du Mouvement pour l’autodétermination de la Kabylie ». Quelqu’un a donc volontairement supprimé la première partie de cette déclaration, « serait curieux de savoir si », une interrogation au conditionnel, pour faire croire, à tort, à un acte concret. On est ainsi face à une infox, avec trois niveaux de manipulation : des images détournées, une bande son superposée et une déclaration tronquée. Des comptes marocains à la manœuvre ? D’après nos recherches, plusieurs comptes marocains ont participé à amplifier la propagation de cette fausse information. Les commentaires sont assez parlants. En référence au Sahara occidental, une internaute marocaine écrit : « ils voulaient diviser notre pays, mais la réponse est finalement venue de chez eux ». Cet affrontement numérique entre le Maroc et l’Algérie est de plus en plus palpable ces derniers mois sur les réseaux sociaux, le tout sur fond de lutte d’influence grandissante au Sahel et au Sahara.…
 
En Israël, Benyamin Netanyahu a limogé ce mardi 5 novembre son ministre de la Défense, Yoav Gallant, remplacé par Israël Katz. Le Premier ministre a justifié son choix par leurs divergences sur les guerres en cours, notamment à Gaza et au Liban. Pour contester cette décision, des milliers de personnes ont manifesté ce mardi à Tel-Aviv. Dans ce contexte, des internautes affirment qu’un coup d’État serait en cours dans le pays. Une infox basée sur des images sorties de leur contexte. La vidéo se déroule de nuit. On y voit une quinzaine de policiers israéliens marcher en formation sur une autoroute. Certains tiennent des extincteurs, d’autres repoussent des manifestants qui les interpellent. Plusieurs journalistes sont présents, appareil photo à la main. Cette scène a été vue plus de 10 millions de fois ces dernières heures, rien que sur X. Ceux qui partagent ces images parlent d’un « coup d'État militaire en cours en Israël ». « Des milliers de soldats israéliens en uniforme marchent vers la résidence de Benyamin Netanyahu et des rumeurs circulent selon lesquelles ils ont l'intention de l'expulser », commente l’un d’eux. Un autre ajoute : « c’est le chaos total à Tel Aviv ». Vérification faîte, cette vidéo ne montre pas un coup d’État en cours à Tel Aviv. Les policiers visibles sur les images ne sont pas en train de se soulever, ni de marcher vers la résidence du Premier ministre. En réalité, ils se rendent simplement sur les lieux d’une manifestation organisée dans la soirée du mardi 5 novembre, par des habitants de Tel Haviv pour protester contre le limogeage de Yoav Gallant. Cette rumeur de coup d’État est donc totalement fausse. Vérification étape par étape Pour vérifier ces images, nous avons d’abord cherché à les localiser. Pour ça, nous nous sommes appuyés sur les éléments visuels les plus significatifs : à savoir l’autoroute sur laquelle marchent les policiers, la voie de chemin de fer à côté de la route, et les deux grandes tours visibles en arrière-plan. En longeant l’autoroute 20, l’axe central de Tel Haviv, sur un logiciel de cartographie type Google Maps, on retrouve bien cette même disposition au niveau du quartier Tsamarot Ayalon . Une fois ces images géolocalisées, nous avons cherché à savoir qui les a filmées, et quand. Cette fois-ci, nous avons effectué plusieurs recherches par image inversée ( voir ici comment faire ) pour trouver la première occurrence de cette vidéo en ligne. Cela nous a permis de la retrouver sur le compte Twitter d’un journaliste du quotidien israélien Haaretz . Il précise en légende : « Des policiers d'Ayalon Sud se déplacent en groupe pour éteindre les incendies avec des extincteurs, suivis de centaines de manifestants ». Cette description des faits est partagée par l’ensemble de la presse israélienne qui a couvert cette manifestation organisée à différents endroits de Tel Haviv. Au total, des milliers de personnes ont bloqué les routes d’Ayalon pendant environ quatre heures et demie. Une quarantaine de personnes ont finalement été arrêtées par la police. Désinformer pour semer le trouble Si on ne sait pas précisément qui est derrière cette fausse information, on sait qu’elle a été poussée par des comptes influents, habitués à diffuser des infox autour de la situation au Proche-Orient. Leur mission consiste à semer le trouble sur ce qu’il se passe réellement et à faire du clic en diffusant des contenus trompeurs et sensationnalistes.…
 
Loading …

مرحبًا بك في مشغل أف ام!

يقوم برنامج مشغل أف أم بمسح الويب للحصول على بودكاست عالية الجودة لتستمتع بها الآن. إنه أفضل تطبيق بودكاست ويعمل على أجهزة اندرويد والأيفون والويب. قم بالتسجيل لمزامنة الاشتراكات عبر الأجهزة.

 

icon Daily Deals
icon Daily Deals
icon Daily Deals

دليل مرجعي سريع

استمع إلى هذا العرض أثناء الاستكشاف
تشغيل