
Le fact-checking est-il dépassé ?
15/12/2025 | 44 min
Grégoire Lemarchand est directeur adjoint de l'information à l'AFP, où il dirige la stratégie numérique et l'investigation depuis 2017. Il a développé AFP Factuel, le plus vaste réseau mondial de vérification d'information avec 150 journalistes répartis dans plus de 30 pays. Début 2025, Meta annonçait l'abandon du fact-checking professionnel aux États-Unis, préférant les "community notes" au travail journalistique. Un séisme qui interroge la viabilité économique et éditoriale de la vérification d'information à l'ère de l'IA générative.Le fact-checking peut-il survivre sans les plateformes qui le financent ? Comment vérifier l'information quand les deepfakes se multiplient et que le coût marginal de production de la désinformation s'effondre ? Entre saturation cognitive, fatigue professionnelle et course permanente à l'innovation imposée, quelles infrastructures de résistance informationnelle les médias peuvent-ils encore construire ?Au programme :Genèse du fact-checking industriel : de la stupéfaction post-Brexit/Trump (2016-2017) au déploiement d'AFP Factuel dans 26 languesLe contrat avec Meta : anatomie d'un partenariat controversé où les plateformes financent la vérification de leurs propres contenusCommunity notes vs journalisme professionnel : pourquoi la modération participative échoue sur les sujets polarisants et complexesL'explosion de l'IA générative : Vo3 et Sora transforment le volume de production de faux contenus, des scams médicaux aux deepfakes politiquesC2PA et metadata inviolable : la stratégie du "taguage du vrai" pour identifier les contenus professionnels dans un océan de généré artificiellementFatigue cognitive collective : quand la saturation informationnelle pourrait devenir le meilleur antidote à la désinformationWhole of society approach : peut-on construire une résilience collective sans que le politique ne s'arroge le monopole de la vérité ?Ce que vous pourrez entendre :"Le fact-checking, ce n'est pas oui ou non. La plupart du temps on explique que c'est plus compliqué que ça. Expliquer que quelque chose est compliqué, de la nuance, ça réclame du temps. C'est compliqué de demander à des gens, de façon gratuite, sur leur temps libre, de faire ça.""On partait du principe qu'il fallait taguer le faux. Maintenant, est-ce qu'il ne faut pas renverser et dire : ce que vous voyez, il y a du vrai et du faux, mais nous on vous garantit que ce produit-là, il est vrai. Un peu comme une étiquette bio."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Sommes-nous perméables à la propagande ?
08/12/2025 | 49 min
Avec Laurent Cordonnier, docteur en sciences sociales et directeur de la recherche à la Fondation Descartes, nous plongeons dans la première étude française qui mesure empiriquement l'impact des récits étrangers sur l'opinion publique. À partir d'un sondage auprès de 4000 Français sur quatre conflits majeurs (Ukraine-Russie, Hamas-Israël, France-Mali, Chine-Taiwan), cette recherche révèle un paradoxe : si les mécanismes de la désinformation sont désormais bien documentés, leurs effets réels demeuraient largement inconnus. Depuis plusieurs années, nous savons comment fonctionnent les fermes à trolls, les campagnes coordonnées, les manipulations algorithmiques. Mais changent-elles vraiment nos représentations des conflits en cours ?Les résultats bousculent certaines idées reçues sur la vulnérabilité de nos démocraties. Contrairement aux craintes souvent exprimées d'une opinion publique facilement manipulable, les Français se montrent résilients face aux récits russes et chinois. Cette résistance s'explique notamment par le rôle structurant des médias traditionnels, qui demeurent de loin les plus consultés et les plus fiables aux yeux du public. Pourtant, l'étude identifie aussi des failles préoccupantes : les personnes qui s'informent principalement sur les réseaux sociaux, YouTube ou via les messageries instantanées sont significativement plus sensibles aux narratifs étrangers. Et surtout, si ces opérations d'ingérence peinent à modifier nos perceptions des conflits extérieurs, elles pourraient être bien plus efficaces pour polariser nos débats internes: là où les fractures préexistent et où les enjeux touchent directement les intérêt du pays.Au programme :L'étude Fondation Descartes : première mesure empirique de la pénétration de récits étrangers sur Ukraine-Russie, Hamas-Israël, France-Mali et Chine-Taiwan auprès de 4000 FrançaisAnatomie des récits testés : de la "guerre défensive" russe au "génocide" à Gaza, identification des éléments centraux de chaque propagande belligéranteRésilience française inattendue : moins de 20% d'adhésion aux récits russes et chinois, meilleure réception des narratifs ukrainien, taïwanais et israélienFacteurs de vulnérabilité : corrélation entre consommation d'information sur réseaux sociaux et sensibilité aux récits étrangers, indépendamment de l'âge et du diplômeCulture géopolitique comme bouclier : les connaissances factuelles protègent mieux que le niveau d'éducation général contre les manipulationsLe rôle-clé des super-spreaders locaux : pour réussir, les opérations d'ingérence doivent être relayées par des acteurs français légitimesMédias traditionnels, rempart sous-estimé : "prescripteurs" bien plus puissants qu'on ne le croit dans la formation de l'opinionLa vraie menace : la polarisation interne : appuyer sur les fractures existantes (antisémitisme, passé colonial, grogne sociale) fonctionne mieux que changer les représentations de conflits lointainsCe que vous pourrez entendre :"Ça montre qu'en France, les médias traditionnels restent extrêmement prescripteurs ou formateurs des opinions de la population. Bien plus qu'ils ne pensent eux-mêmes.""Les réseaux sociaux, c'est un miroir déformant de notre réalité. Et c'est à la fois un miroir déformant et un miroir aux alouettes. J'avais l'impression que 50% de la population française était pro-russe. Je fais l'étude, je vois que l'item pro-russe arrive à peine à 20%. J'ai beau le savoir, ça ne m'empêche pas de me mettre dans un état un peu d'assiégé."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Israël-Hamas : anatomie d'une guerre informationnelle totale
01/12/2025 | 56 min
Avec Amélie Férey, chercheuse à l'IFRI et spécialiste de la légitimation de la force armée, nous analysons deux années de stratégies informationnelles déployées depuis le 7 octobre 2023. Au-delà du conflit sur le terrain, une guerre d'un autre genre mobilise IA générative, amplification algorithmique, doxing et des milliers de relais à travers le monde. Cette analyse documentée cartographie l'écosystème complet d'un affrontement qui préfigure les conflits futurs.Du National Public Diplomacy Directorate israélien aux vidéos d'Abu Obaïda sur Telegram, comment les deux camps ont-ils structuré leurs appareils de communication ? Pourquoi la guerre informationnelle produit-elle une polarisation où chaque camp estime avoir perdu ? Et surtout : que révèle ce laboratoire géant sur notre rapport collectif à l'intégrité des faits ?Au programme :Guerre informationnelle totale : pourquoi le coût prohibitif des conflits armés impose la légitimation permanente des opérations militaires auprès des alliésAsymétrie institutionnelle : l'Hasbara israélienne et le National Public Diplomacy Directorate face à la communication décentralisée du Hamas via TelegramIA générative et contre-factualité : des modélisations 3D des tunnels d'Al-Shifa aux 47 millions de vues d'"All Eyes on Rafah", comment l'image brouille réalité et fabricationCiblage des prescripteurs : pourquoi les chercheurs européens sont devenus des objectifs stratégiques pour l'Israel Defense and Security ForumDoxing et raids numériques : du collectif Shiryon qui liste les étudiants pro-palestiniens aux campagnes d'intimidation visant les employeursFatigue informationnelle et bulles cognitives : quand la saturation produit le retrait, la suspension du jugement et la radicalisation des intimes convictionsPropositions pour l'Europe : batteries anti-désinformation, réseaux sociaux européens et marketing des arméesCe que vous pourrez entendre :"La guerre de l'information polarise les sociétés et fait croire que la vérité n'est plus de ce monde. Les deux camps se replient sur leurs intimes convictions. Résultat : tout le monde est perdant.""La liberté, ce n'est pas la licence. Je me demande si la société française est plus libre avec des gens qui expliquent que la terre est plate qu'avec des gens qui expliquent scientifiquement qu'elle est ronde."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Wikipédia dans la ligne de mire
24/11/2025 | 50 min
Avec Rémy Gerbet, directeur exécutif de Wikimedia France, nous explorons les menaces existentielles qui pèsent sur Wikipédia. Vingt-cinq ans après sa création, l'encyclopédie collaborative est devenue l'un des derniers bastions d'un web où l'information n'appartient pas à des milliardaires et où les algorithmes ne décident pas de ce que vous devez voir. Mais ce modèle est désormais sous pression.Des campagnes politiques qui tentent de manipuler les contenus aux LLM qui aspirent l'encyclopédie sans la citer, en passant par les menaces directes contre les contributeurs : Wikipédia est devenue une cible stratégique dans ce que Gerbet qualifie de "guerre culturelle". Comment l'encyclopédie résiste-t-elle aux opérations d'influence ? Quels mécanismes communautaires permettent de préserver la neutralité de point de vue ? Et pourquoi cette bataille dépasse largement Wikipédia pour concerner l'ensemble de l'espace public numérique ?Au programme :Guerre culturelle : de la conquête de la légitimité (2001-2020) à la bataille pour le contrôle de l'information (post-Covid)Triple menace de l'IA générative : baisse de trafic, érosion épistémologique par absence de sources, et injection de faux contenus dans l'encyclopédie elle-mêmeAffaire Le Point : quand un magazine menace des contributeurs anonymes pour modifier sa pageNeutralité de point de vue : Wikipédia n'est pas neutre, mais applique un principe de représentation proportionnée des perspectivesGrokipédia d'Elon Musk : analyse de cette "encyclopédie d'opinion" entraînée sur X, où les émeutes de Black Lives Matter sont réduites à leur "coût pour les assurances"Projet PROMPT : consortium européen (Opsci, Wikimedia, médias, universités) développant des outils d'IA pour tracer l'origine des narratifs de désinformation et protéger les sources de l'encyclopédieEspace public numérique : pourquoi préserver Wikipédia relève d'un enjeu démocratique face à la fragmentation algorithmique de l'informationCe que vous pourrez entendre :"Les attaques contre Wikipédia ou contre les grands sites de médias d'information, c'est la même philosophie derrière que les attaques contre les universités. Contre une connaissance que l'on ne veut pas voir et une lutte pour prendre le contrôle de l'information, de ce qui est dit et comment c'est dit.""Wikipédia n'est pas neutre. Par contre, Wikipédia a la neutralité de point de vue comme un de ses principes. C'est essayer de représenter à juste proportion tous les points de vue et opinions qui s'expriment sur ce sujet-là."Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.

Quantifier la désinfo : mission impossible ?
17/11/2025 | 48 min
Emmanuel Vincent dirige Science Feedback, une organisation de fact-checking qui coordonne SIMODS, la première tentative européenne de mesure structurelle de la désinformation sur les grandes plateformes numériques. En collectant 2,6 millions de posts dans quatre pays et en les faisant vérifier par des fact-checkers, son équipe met des chiffres robustes sur ce que beaucoup ne percevaient qu’intuitivement. L’épisode dissèque ce que ces indicateurs disent (et ne disent pas) de notre écologie informationnelle, et ce qu’ils impliquent pour la régulation au titre du Digital Services Act.Dans un environnement où TikTok peut compter un contenu trompeur sur cinq parmi les posts « d’information », où les comptes les moins crédibles sur YouTube génèrent jusqu’à huit fois plus d’interactions que les autres, peut-on encore se contenter de discours vagues sur la « lutte contre les fake news » ? Comment quantifier la désinformation sans accès réel aux données, quand les plateformes invoquent le DSA tout en en contournant l’esprit ? Et que change le fait que des propriétaires comme Elon Musk assument désormais un usage politique de leurs plateformes ?Au programme :Indicateurs structurels: comment un consortium européen passe des cas isolés à une mesure comparable de la désinformation sur six plateformes, quatre pays et cinq grands thèmes (santé, climat, Ukraine, élections, migrations).Plateformes : 20 % de contenus trompeurs parmi les posts d’info sur TikTok, faible part d’informations crédibles sur X, et exception relative de LinkedIn où la désinformation reste marginale.Prime à la mésinformation : pourquoi, à audience équivalente, les comptes qui publient régulièrement de la désinformation obtiennent jusqu’à 7 à 8 fois plus d’interactions sur Facebook et YouTube.Algorithmes et émotions: comment une simple pondération (un « angry » qui vaut cinq fois un « like ») illustre la manière dont les plateformes privilégient les contenus qui divisent et énervent.Politique et désinformation: la sur-exposition des comptes politiques qui partagent des fausses informations, et ce que cela dit de la polarisation de l’espace public européen.Régulation et transparence : l’accès aux données comme condition minimale pour mesurer les risques systémiques, les angles morts sur la monétisation des contenus trompeurs, et les marges de manœuvre de la Commission européenne.Ce que vous pourrez entendre :« Quand on parle vraiment d’information sur ces sujets-là, sur TikTok, on est à peu près à 20 % de contenus de mésinformation. Je pense que ça veut surtout dire qu’il n’y a pas beaucoup d’information, et donc relativement beaucoup d’informations trompeuses. »« Si vous postez quelque chose qui énerve les gens, c’est cinq fois mieux pour Facebook que si vous postez quelque chose qui les fait aimer. Tant qu’on garde ce type de mécanisme, c’est bon pour leur business, mais c’est très mauvais pour la société. »Un podcast proposé & produit par Opsci.aiProduction : Justin PoncetAnimation : Guillaume Ledit Réalisation : Romane MugnierGraphisme : Gautier GevreyGénérique : Martin Commandeur Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.



Propagations