La désinformation représente un défi majeur pour les professionnels des médias, les publics, mais également pour les processus démocratiques. Le projet financé par l’UE « European Narrative Observatory » / PROMPT (Predictive Research On Misinformation and narratives Propagation Trajectories) utilise des Large Language Models (LLM) pour découvrir des récits et des modèles de désinformation en ligne et pour décrypter leur contexte. Les journalistes devraient ainsi disposer d’outils leur permettant de mieux reconnaître la désinformation. Au cours des prochains mois, l’Observatoire européen du journalisme (EJO) publiera régulièrement des informations sur PROMPT et ses résultats. Martin Lestra et Jordan Ricker coordonnent le projet à l’institut de recherche français OPSCI. Dans cet interview accordée à l’EJO, ils expliquent quels objectifs poursuit leur équipe à l’aide des LLM.
EJO : Quels sont les objectifs du projet PROMPT ?
Martin Lestra : PROMPT est un des projets de l’European Narrative Observatory financé par la Commission européenne, dont le but est d’identifier et d’analyser l’émergence de récits de désinformation à l’aide de l’intelligence artificielle (IA). Il se concentre sur trois sujets particulièrement importants pour la Commission européenne : la guerre en Ukraine, les droits et libertés des LGBTQIA+ et les élections européennes de 2024.
Au cours des 18 prochains mois, nous travaillerons à décrypter les origines de ces récits et leur émergence, tant hors ligne qu’en ligne, dans six pays (France, pays baltes, Italie et Roumanie) et 8 langues (dont l’anglais et le russe). Nous nous intéresserons également à leur rôle dans la formation de l’opinion et aux valeurs émotionnelles qui soutiennent les récits de désinformation « réussis ». Nous développerons une méthodologie pour mieux comprendre comment les récits se forment et comment ils se propagent via les plateformes. Nous nous concentrerons sur les principaux nœuds d’information dans les médias influents, les plateformes sociales ainsi que sur Wikipédia.
L’objectif est de fournir aux journalistes et aux activistes de nouveaux outils pour identifier, anticiper et contrer les récits de désinformation.
PROMPT est un projet pilote, c’est-à-dire que nous mobilisons une expertise de pointe et une technologie d’intelligence artificielle pour tenter de lutter contre la désinformation. Nous avons la chance de travailler avec onze acteurs de premier plan dans huit pays de l’UE, issus de différentes disciplines (mathématiques, linguistique, sociologie, sciences des médias, etc.), notamment des experts des médias et des journalistes comme l’Institut Erich Brook (Allemagne), Les Surligneurs (France), Re:Baltica (pays baltes) ou Asociatia Digital Bridge (Roumanie).
Qu’est-ce qui a conduit au développement de ce projet ?
Nous avons un objectif clair : promouvoir un débat démocratique sain. Nous nous intéressons à l’observation des opinions en ligne depuis dix ans et à la communication et à la rhétorique depuis vingt ans. Nous voyons comment la désinformation a évolué – et à quel point elle est nuancée (le spectre est bien plus complexe que les « fausses » ou « vraies » nouvelles). Nous avons travaillé avec des journalistes et des activistes et nous constatons qu’il existe un potentiel inexploité dans le domaine des outils d’intelligence artificielle qui pourrait soutenir leur travail.
Le projet est motivé par deux facteurs principaux : technologique et social. Technologique, parce que les récentes avancées dans le domaine de l’IA, que nous intégrons depuis plusieurs années dans notre travail d’analyse de grandes quantités de données sociales, nous ont permis de faire un saut de performance considérable. Cela permet un traitement avancé des déclarations en ligne avec des LLM et leur catégorisation qualitative automatisée – ce qui élargit les capacités des analystes.
La composante sociétale découle du fait que nous pensons que seule une approche sociétale globale nous permettra de gagner contre la désinformation. Les professionnels qui s’engagent dans ce domaine se sentent parfois seuls ou insuffisamment équipés face à la multiplication des actions de déstabilisation. Notre modeste objectif est de leur fournir des outils supplémentaires.
Qu’est-ce qui distingue ce projet d’autres (précédents) projets sur l’IA, la couverture médiatique et la formation ?
PROMPT est le deuxième projet de l’European Narrative Observatory. Notre travail s’appuie sur NODES (Narratives Observatory Combatting Disinformation in Europe Systemically), un travail qui s’est principalement intéressé à la manière dont les communautés de désinformation en ligne sont structurées et interagissent sur des sujets tels que la migration, le changement climatique et le Covid-19.
Notre recherche s’appuie sur ce travail et va encore plus loin en utilisant, par exemple, des modèles de grand langage pour approfondir le suivi de l’émergence et de la diffusion des récits.
Dans le cadre de PROMPT, il ne s’agit toutefois pas seulement de développer une sorte d’« arme miracle », car nous sommes sceptiques vis-à-vis de ce type de discours. Il s’agit plutôt de développer le modèle le plus utile.
Il y a beaucoup d’efforts académiques pour développer des méthodes innovantes d’analyse des récits. Ce qui est également très important, mais qui fait souvent défaut, ce sont des efforts supplémentaires pour rendre la recherche utilisable par ceux qui luttent quotidiennement contre la désinformation. De bons exemples dans ce domaine sont des projets comme vera.ai, qui aident à développer et à tester des outils basés sur l’IA pour détecter la désinformation. Avec des vérificateurs de faits et Wikimédia France – Wikipédia est, selon l’UE, une très grande plateforme en ligne confrontée à des risques systémiques – à bord de l’équipe PROMPT, nous sommes confiants en notre capacité à avoir un impact important sur notre public.
Nous complétons également le travail de vérification des faits et d’éducation aux médias, par exemple celui de l’Observatoire européen des médias numériques (OEDM) ou des membres du Réseau européen de normes de vérification des faits. Nous sommes également heureux de pouvoir nous appuyer sur l’expertise de l’Institut Erich Brook, qui peut étendre notre portée à un vaste réseau européen d’instituts de journalisme dans tous les États membres.
Comment l’European Narrative Observatory contribue-t-il à la lutte contre la désinformation ?
Pour répondre à cette question, il faut d’abord comprendre pourquoi les récits sont importants. Les récits de désinformation comportent des risques et des menaces considérables pour les pays de l’UE. La diffusion d’informations fausses et trompeuses sur la guerre en Ukraine a un fort potentiel de saper le soutien du public aux actions nationales et communes de l’UE en faveur de l’Ukraine. Les faux récits qui ciblent et attaquent la communauté LGBTQIA+ peuvent avoir un impact considérable sur l’intégration et l’égalité de ces groupes et influencer l’exercice des droits humains. Les récits de désinformation liés aux élections peuvent induire les électeurs en erreur et saper les fondements de nos démocraties.
Les acteurs de la désinformation, qui tentent de déstabiliser nos démocraties, travaillent sans relâche à semer le mécontentement et à polariser le débat public. Nous devons nous y attaquer, avec les meilleures preuves et techniques. Des organisations comme PROMPT et d’autres qui travaillent sur les récits apportent leur propre contribution aux efforts de lutte contre la désinformation en ligne et hors ligne. Leur contribution consiste avant tout à nommer, dévoiler, dénoncer, contrer les campagnes de désinformation.
De nombreux autres aspects de la désinformation doivent être mieux étudiés : Par exemple, comment elle est diffusée via des plateformes sociales avec des modèles rhétoriques « universels » ou avec des spécificités linguistiques et culturelles locales. C’est l’une des questions clés sur lesquelles se penchera le projet PROMPT.
Quel est le rôle des Large Language Models (LLM) dans la détection des fausses nouvelles dans les médias et sur Internet ?
La désinformation ne concerne pas seulement les « fausses » et les « vraies » nouvelles. Nous pensons que la désinformation a des modes de présentation conceptuellement privilégiés et répétés. Mais en même temps, le langage est complexe, et les structures et les significations linguistiques peuvent varier selon la langue et le type de discours (par exemple, un discours agressif et explicitement haineux par rapport à un humour implicite). Les LLM sont très doués pour repérer et analyser ces caractéristiques systématiques et leurs variations à grande échelle.
La plupart des gens connaissent les LLM comme des outils qui aident à écrire des textes. GenAI peut non seulement détecter la désinformation, mais aussi la contextualiser de manière très simple pour les journalistes et les vérificateurs de faits. En d’autres termes, de la même manière que vous demandez à ChatGPT quels sont les meilleurs plans d’anniversaire pour un enfant de 4 ans, vous pouvez utiliser le modèle que nous voulons développer pour discuter des caractéristiques de l’affirmation trompeuse/fausse que l’IA a identifiée : D’où vient-elle ? Où d’autres affirmations similaires ont-elles été publiées ? Dans quelles langues ? Quels préjugés cette affirmation exploite-t-elle et quelle rhétorique utilise-t-elle pour répandre la désinformation ?
Les LLM peuvent faire beaucoup de choses, mais en fin de compte, cela doit être utile à ceux qui sont en première ligne dans la lutte contre la désinformation. C’est pourquoi les journalistes et les représentants de la société civile sont essentiels et participent à ce projet.
Quels sont les thèmes abordés par le projet et pourquoi les avez-vous choisis ?
La Commission européenne a défini les thèmes. L’accent se déplace de la seule concentration sur le Covid-19 vers d’autres préoccupations importantes (et souvent liées !). Il n’est pas surprenant que la guerre en Ukraine en fasse partie. Il s’y passe tellement de choses en ligne qu’il y a beaucoup de données et de connaissances sur lesquelles PROMPT peut s’appuyer.
Il y a également la prolifération de récits erronés et nuisibles liés à l’identité et à l’expression de genre, souvent en lien avec des discours discriminatoires ou dévalorisants à l’égard des femmes, l’homophobie et la discrimination à l’encontre de la communauté LGBTQIA+, et des pistes sont explorées pour atténuer les risques pour la cohésion sociale, la démocratie et les droits humains fondamentaux. Les récits trompeurs liés aux élections ont évidemment un énorme potentiel pour influencer l’opinion publique, le comportement électoral et les processus démocratiques.
Outre des thèmes comme la migration et la guerre en Ukraine, nous observons également des schémas multithématiques… Grâce à nos études antérieures, à d’autres projets de recherche et au travail des journalistes et des vérificateurs de faits, nous savons que les comptes qui diffusent un jour de la désinformation sur le Covid ou les vaccins font le lendemain la promotion de la version de Poutine des événements en Ukraine. Ou que des récits et des affirmations similaires apparaissent d’une élection à l’autre. Cela signifie que PROMPT a beaucoup à offrir et à apprendre des autres initiatives de lutte contre la désinformation.
Pour en savoir plus sur le projet ENO/ PROMPT, cliquez ici.
Cet article a été traduit de l’allemand, sa version originale est à retrouver sur le site de.ejo-online.eu.
Tags: Artificial Intelligence, désinformation, intelligence artificielle, PROMPT