IA, communication publique et éthique : un défi démocratique

20 novembre 2025 • À la une, Intelligence artificielle • by


Alors que l’intelligence artificielle s’impose de plus en plus dans les pratiques de communication publique, elle suscite autant d’espoirs que d’inquiétudes quant à la qualité du débat démocratique. Cet article revient sur ces enjeux en mettant en lumière les limites des cadres éthiques actuels et en présentant les pistes de réflexion pour une communication publique plus responsable.

La numérisation continue des médias, combinée à l’essor de l’intelligence artificielle (IA), transforme en profondeur notre manière de communiquer publiquement. Les citoyens disposent de multiples accès à l’information et de nombreux espaces pour exprimer leur opinion dans les débats publics, notamment en produisant, commentant, réagissant ou en partageant des contenus. Ce large éventail des moyens leur permet d’agir sur des enjeux locaux, nationaux ou globaux, souvent en dehors des cadres organisationnels classiques, selon une logique d’action connectée. 

La recomposition de l’espace public qui en résulte est marquée par des processus de communication plus souples, plus participatifs et valorisant les singularités. Mais elle s’accompagne aussi d’une fragmentation des pratiques, d’un brouillage des frontières entre sphères publique et privée et d’une circulation plus chaotique des discours, où se juxtaposent des contenus issus de sources diverses et de qualité inégale. Si des formes d’émancipation citoyenne émergent, la vision utopique du web des années 1990 comme levier pour atteindre des idéaux démocratiques, semble aujourd’hui révolue.

L’amplification des phénomènes comme les discours de haine ou les fake news (qui ont toujours existé mais étaient moins visibles) contribue à un «désenchantement de l’Internet»: le débat public en ligne devient un terrain d’affrontement brutal. Par ailleurs, reste à savoir si, malgré la richesse d’informations disponibles, le fonctionnement algorithmique des plateformes et moteurs de recherche, ne tend pas à exposer les citoyens à des contenus proches de leurs opinions – un phénomène susceptible de fragiliser les conditions d’une démocratie délibérative.

Ce questionnement rejoint une réflexion plus large sur la place croissante de l’IA dans la communication publique, un phénomène aux multiples implications sociales. 

L’IA, entre promesses démocratiques et risques informationnels 

L’intelligence artificielle fait désormais partie du quotidien: assistants vocaux, recommandations, reconnaissance faciale, etc. Elle est de plus en plus intégrée dans les métiers de la communication et de l’information, comme le journalisme. La prise de conscience de cette perméabilité ravive les débats sur l’éthique, la démocratie et la régulation, et soulève de nouvelles questions dont les réponses restent en suspens. 

Comme toute innovation technique, le développement de l’IA ouvre la voie à des changements aussi bénéfiques qu’inquiétants. Elle pourrait, par exemple, favoriser des discussions plus informées aidant la prise de décision des citoyens dans le domaine politique, ou encore soutenir une forme de démocratie plus inclusive. Dans certains services publics, des systèmes d’IA sont déjà utilisés pour améliorer l’accessibilité de l’information. Par exemple, des outils de transcription automatique ou de traduction instantanée permettent aux personnes en situation de handicap de mieux comprendre les contenus institutionnels, renforçant ainsi l’inclusion.

En même temps, l’IA comporte des risques majeurs: biais des données alimentant les systèmes d’IA souvent difficiles à détecter, ingérence des trolls dans des processus électoraux, ou encore viralité des deepfakes – ces hyper-trucages ultra-réalistes générés avec l’aide de l’IA. À titre d’illustration, ces dernières années plusieurs vidéos manipulées ont circulé en ligne: on y voit Barack Obama insulter Donald Trump, « Amandine Le Pen » – un personnage fictif présenté comme la nièce de Marine Le Pen – affirmer son attachement aux valeurs du Rassemblement National ou encore des acteurs de Bollywood appeler à voter pour l’opposition lors des élections générales en Inde de 2024. 

Dans un contexte européen marqué par une baisse de la confiance envers les institutions politiques et médiatiques, il devient urgent de repenser les conditions d’une communication publique éthique. Cela suppose de réfléchir à l’influence des technologies numériques sur la démocratie, sans céder au déterminisme technologique ni souscrire aux discours euphorisants.

Se former à l’IA: un nouveau défi 

À cet égard, l’éducation aux médias et au numérique est souvent présentée comme un enjeu majeur pour renforcer la citoyenneté. Elle vise à développer des compétences pour un regard critique sur les usages numériques et à mieux comprendre les rapports de pouvoir qui structurent l’écosystème médiatique. Le projet d’éducation à la citoyenneté numérique (ECN) du Conseil de l’Europe, qui promeut le développement des compétences et valeurs favorisant la participation citoyenne, illustre cette approche. Au-delà de ce sujet, de nombreuses institutions, entreprises, ONG, organisations internationales se sont également emparées de ces enjeux, en adoptant des approches plurielles. Complexe et en rapide évolution, le sujet appelle des réponses systémiques, capables d’articuler expertise, action publique et participation citoyenne. 

C’est dans cette optique que s’inscrit le projet européen DIACOMET financé par le programme Horizon Europe de l’Union européenne. Il réunit des partenaires issus de huit pays : l’Autriche, l’Estonie, la Finlande, la Hongrie, la Lituanie, les Pays-Bas, la Slovénie et la Suisse – à travers l’Università della Svizzera italiana. Son objectif: contribuer au renforcement d’une communication publique éthique et responsable, en favorisant le développement des capacités de résilience civique face aux distorsions de l’information. Le projet propose un cadre d’action reposant sur la recherche, la production d’outils pédagogiques et des recommandations à destination des décideurs publics, afin d’aider les différents acteurs – qu’il s’agisse d’individus, de groupes ou d’organisations – à faire face aux dilemmes éthiques liés à la communication publique.

Au cœur de cette démarche se trouve l’élaboration d’un concept d’éthique de la communication dialogique, qui fournirait un cadre pour un modèle inclusif de mécanismes de responsabilité combinant la responsabilité des médias (au niveau des organisations) et la responsabilité civique (au niveau des citoyens) et guidé par les principes de bonne conduite en matière de communication. Parmi les thématiques abordées par le projet, celle de la gouvernance de l’IA dans la communication publique apparaît comme un domaine où les cadres actuels peinent à suivre le rythme des usages technologiques. 

Réguler l’IA dans la communication publique: un chantier inachevé 

En modifiant les logiques traditionnelles de la communication publique, l’IA soulève de nouveaux défis en matière de gouvernance, de transparence et de responsabilité. Dans ce contexte, des chercheurs du projet DIACOMET se sont penchés sur la manière dont les codes éthiques et les lignes directrices issus de divers secteurs – du journalisme à la publicité, en passant par la communication institutionnelle, les relations publiques, les petits médias ou les utilisateurs – abordent la question de l’IA. Alors même que les débats sur son usage éthique se multiplient dans les médias, les sphères politiques et les milieux associatifs, les cadres de régulation demeurent fragmentaires et inégalement développés.  

Sur 435 documents analysés, seuls 63 (soit à peine 15%) mentionnent explicitement l’IA ou l’automatisation. Et parmi ceux-ci, à peine 20 placent l’IA au centre de leur réflexion. Les autres n’en font qu’une mention périphérique. La majorité des documents traitant de l’IA proviennent d’organisations supranationales. Ils s’appuient sur une vision normative fondée sur les droits fondamentaux et cherchent à harmoniser les pratiques à l’échelle européenne. A l’inverse, les documents produits au niveau national sont plus hétérogènes, souvent adaptés à des cadres juridiques ou culturels spécifiques.  

L’analyse thématique de ces codes éthiques fait ressortir trois grandes catégories de risques, couvrant les différentes étapes du cycle de vie de l’IA. 

  • Développement et exploitation. Plusieurs documents soulignent les risques liés à la nécessité d’une robustesse technique et sociale des systèmes d’IA. Ils pointent les risques d’erreurs de génération de contenu (comme les « hallucinations » ou les biais algorithmiques), les atteintes à la vie privée, les enjeux de conformité juridique (par exemple en matière de droits humains), ou encore les risques liés à une dépendance excessive des utilisateurs à l’égard des capacités et des limites du système. 
  • Légitimation de l’utilisation. Dans ce domaine, l’IA est souvent présentée comme un outil de rationalisation ou de gain d’efficacité permettant de gérer de volumes importants de données (modération automatisée, optimisation des ressources, etc.). Toutefois, la nécessité d’une supervision humaine reste centrale, en particulier dans les médias, où les codes précisent que l’IA ne saurait se substituer aux journalistes. 
  • Déploiement. Les documents analysés mentionnent les risques liés à la manipulation de contenus (bots, trolls ou deepfakes) et à la confusion entre contenus réels et synthétiques. Certains documents mentionnent aussi des dimensions positives de l’IA: processus plus participatifs et pluriels en favorisant la créativité, l’accessibilité, la diversité et l’inclusion. 

En matière de gouvernance, les principes les plus fréquemment cités sont la supervision humaine, la transparence, ainsi que la confidentialité et la sécurité des données. Dans le journalisme, par exemple, l’IA est perçue comme un outil destiné à améliorer l’efficacité du travail, sans pour autant remettre en question les standards professionnels toujours présentés comme incontournables. La forme de responsabilité la plus souvent mise en avant repose sur une évaluation continue et proactive des systèmes d’IA utilisés.  

 Malgré l’existence d’un socle de principes partagés, aucun cadre normatif robuste et largement adopté ne semble encore se dessiner. Les dispositifs existants restent trop généraux, leur application inégale et souvent incomplète. Cette situation souligne la nécessité de mécanismes de gouvernance plus dynamiques, capables de suivre l’évolution rapide des technologies et de leurs usages, et d’associer toutes les parties prenantes.

Le projet DIACOMET s’intéresse aux enjeux de gouvernance et d’éthique dans la communication publique et le journalisme. (Photo : DIACOMET)

Pour une éthique de la communication publique à la hauteur des défis numériques 

À l’heure où l’espace public est traversé par des dynamiques de désinformation, de polarisation et de transformation technologique accélérée, il devient urgent de repenser les fondements éthiques de la communication publique. L’enjeu n’est pas seulement de réguler des technologies, mais de préserver les conditions d’un débat public éclairé, pluraliste et inclusif. Cela implique une mobilisation conjointe des acteurs publics, des professionnels de la communication, des développeurs de technologies, de la société civile et des chercheurs.

C’est le défi que le projet DIACOMET entend relever en proposant des outils concrets et des cadres partagés pour une communication publique à la fois éthique et dialogique. À l’ère de l’intelligence artificielle, préserver l’éthique de la communication publique n’est plus seulement un impératif technique : c’est une condition démocratique.

 

 

Tags: , , , ,

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Send this to a friend