Les 7 défis des médias face à l’intelligence artificielle

11 mars 2024 • Formats et pratiques, Innovation et numérique, Intelligence artificielle, Récent • by

En moins d’un an, l’intelligence artificielle a bousculé l’industrie médiatique. Image générée avec Dall-e.

L’intelligence artificielle (IA) promet une transformation profonde de l’industrie médiatique et, plus globalement, de la manière dont nous produisons, consommons et valorisons l’information. Entre sidération et exploration de nouvelles frontières éditoriales, tour d’horizon de sept défis à relever pour réinventer le journalisme et les médias à l’ère de l’IA générative.

À peine digéré les bouleversements entraînés par l’ère Internet et l’expansion des plateformes sociales, les médias font face à un nouveau défi de taille, l’intelligence artificielle. Une lame de fond qui charrie des changements encore plus fulgurants, radicaux et disruptifs que cette fameuse révolution numérique qui secoue le secteur depuis une vingtaine d’années.

En un peu moins d’un an, la déflagration de l’intelligence artificielle générative a bousculé tous les secteurs, médias compris. D’abord comme un fait d’actualité, puis comme une technologie capable de transformer profondément la fabrique de l’info, de la cave au grenier, de la collecte de l’information à sa distribution.

Confrontés à une chute sans précédent de la confiance des publics, à des audiences qui se détournent de l’actualité, aux difficultés de monétisation et à la précarisation de la profession, les journalistes oscillent entre l’intuition d’opportunités inédites et la peur du remplacement, pur et simple.

Cependant, à regarder de plus près le fonctionnement et les capacités actuelles de l’IA, l’émergence d’une armée de robots-journalistes reste de l’ordre de la science-fiction. En revanche, les indices qui montrent que l’intelligence artificielle représente une formidable opportunité de réinvention de la fabrique de l’information sont bien plus réels et concrets.

Pour mettre l’IA du côté des médias et écrire un nouveau chapitre dans l’histoire du journalisme, il est nécessaire d’en comprendre le fonctionnement, les enjeux et les dangers. Tour d’horizon des défis posés aux médias par l’intelligence artificielle.

1) Sortir de la sidération et démystifier l’IA

Depuis la mise en ligne de ChatGPT, en novembre 2022, un flot continu de nouvelles fonctionnalités dopées à l’intelligence artificielle a inondé l’espace médiatique et provoqué un effet de sidération à l’échelle de la planète.

Au balcon de cette révolution, les médias tentent de suivre le rythme pour chroniquer les prouesses fulgurantes et inédites des modèles de langages, ces programmes informatiques capables d’interagir en langage naturel et de créer des contenus textuels et audiovisuels plus vrais que nature. Face à ses performances spectaculaires et inédites, marchant clairement sur les platebandes des médias, ChatGPT a ouvert la perspective d’un remplacement partiel ou total du métier de journaliste.

Le raisonnement est le suivant : si les IA sont capables de collecter, trier et mettre en forme l’information, ainsi que de personnaliser la réponse et le style pour chaque lecteur, avec des résultats bluffants, alors elles représentent une menace directe pour le secteur.

Une menace de remplacement de l’homme par la machine d’autant plus légitime que les IA génératives sont précisément conçues pour copier et dépasser les capacités humaines en termes de langage, de raisonnement, de créativité, de planification et de prise de décision. Le tout, avec des promesses d’efficacité et de productivité exponentielles.

Pourtant, malgré cette volonté de surpassement des habilités humaines, le fonctionnement et les compétences intrinsèques des IA génératives n’en font pas des journalistes en puissance, ni même des sources pertinentes.

  • Aussi puissants soient-ils, les ChatGPT et autres agents conversationnels n’ont aucune expérience du monde sensible. Ils sont incapables de distinguer le vrai du faux ou la réalité de la fiction, et ils ont encore moins la capacité d’exercer un esprit critique ou moral.
  • Il s’agit de « boîtes noires », dont il n’est pas possible de retracer les étapes de raisonnement ou d’identifier les sources exactes.
  • Par ailleurs, les chatbots ne peuvent pas être considérés comme des moteurs de recherche fiables, car ils font l’objet d’« hallucinations » et de biais liés à leur fonctionnement basé sur des modèles statistiques travaillant par probabilité. Rappelons aussi que la connaissance acquise par les IA génératives a pour objectif de former et d’entrainer les grands modèles de langage. Elle n’a donc pas pour vocation première de servir de base de données factuelle consultable par les utilisateurs.
  • Enfin, les IA sont limitées à la production de contenus vraisemblables, très convaincant, mais sans garantie d’exactitude.

Pour toutes ces raisons, et bien d’autres encore, les IA ne peuvent être considérées comme des journalistes ou des sources crédibles. Au mieux, elles peuvent jouer le rôle d’assistant-stagiaire capable de structurer des données pour explorer un sujet, tout en restant bornées à une connaissance purement théorique, formelle et statistique d’un sujet.

Il est donc nécessaire de sortir de la sidération et d’évacuer le fantasme du robot-journalisme. Ce n’est pas le métier qui est remis en cause, mais des tâches spécifiques à faible valeur-ajoutée et à fort impact organisationnel : bâtonnage de dépêches, édition d’articles, transcription de textes en contenus audiovisuels, production automatique de newsletters, etc. (Voir point 3)

2) Baliser les usages de l’IA et former les équipes

Pour garantir une utilisation responsable et profitable des intelligences artificielles au sein des médias, la charte est certainement l’outil le plus efficace. Elle permet en effet d’encadrer les pratiques et de promouvoir des usages éclairés et raisonnés.

La rédaction d’une charte est, par ailleurs, un exercice mobilisateur qui offre à chaque média l’opportunité de consolider son ADN éditorial, ses valeurs et ses missions. Au cœur de cette réflexion, la déontologie journalistique et les questions liées à la relation avec les publics, à travers les enjeux de confiance et de crédibilité.

Petit tour d’horizon non exhaustif des ingrédients présents dans les chartes IA élaborées jusqu’ici par les médias :

  • La supervision humaine systématique des contenus traités par l’IA ;
  • la transparence des pratiques, au sein des rédactions et vis-à-vis des audiences ;
  • la liste des usages autorisés et interdits ;
  • les maillons de la fabrique de l’info concernés ;
  • l’imputabilité et la responsabilité des contenus ;
  • le respect de la vie privée et du droit d’auteur ;
  • les objectifs stratégiques ;
  • la gestion des biais et le choix des outils ;
  • etc.

Évoquons également deux limites de cet exercice. La première consiste à s’engager sur des principes et des règles de conduite alors qu’il est impossible de prédire ce que la technologie permettra à court et moyen termes. Ces chartes seront donc amenées à évoluer.

La seconde concerne la garantie d’une supervision humaine systématique pour tous les contenus produits ou édités par une IA. Une position qui ferme la porte à la création de chatbots autonomes, ainsi qu’à la génération et la diffusion automatisées de textes et de productions audiovisuelles.

Jusqu’à maintenant, l’automatisation de la production de contenu était majoritairement basée sur des systèmes dont on pouvait contrôler les procédures (machine learning) et les bases de données mobilisées. C’est ainsi que de nombreux médias ont automatisé la production de contenus spécialisés : résultats sportifs, boursiers, électoraux, météos, etc. Avec l’IA et son processus d’apprentissage automatique (deeplearning), la maîtrise et la transparence des processus ne sont plus possibles. Une situation qui pose la question de la responsabilité éditoriale.

Parallèlement à l’élaboration d’une charte, la formation continue des équipes est une étape indispensable à l’intégration de l’intelligence artificielle dans les rédactions. De la formation dépend aussi la qualité de la couverture de l’IA, comme objet journalistique. À l’image du climat, il s’agit d’une thématique transversale qui nécessite une connaissance et un outillage spécifiques.

3) Identifier les opportunités de gains de productivité, sans tabou

Parmi la liste des opportunités offertes par l’IA, l’automatisation des tâches répétitives et chronophages fait partie des plus prometteuses. La baisse du coût d’accès à la technologie permet en effet de poser un nouveau regard sur des problèmes hérités de l’ère industrielle, restés jusqu’ici sans solution.

Tous les étages de la fabrique de l’information sont concernés, de la collecte à la distribution, en passant par l’édition et la mise en forme. La presse est particulièrement concernée par des processus industriels constellés de tâches manuelles et artisanales à faible plus-value. Autant de freins qui réduisent le temps et les moyens disponibles pour les tâches fondamentales du journalisme : trouver, vérifier, hiérarchiser et raconter l’information.

Les gains de productivité promis par les IA pourraient se résumer ainsi : moins de bâtonnage, plus d’enquêtes, de reportages et de nouveaux services aux lecteurs.

Depuis plus de 10 ans, des rédactions utilisent l’automatisation pour produire des articles à partir de données structurées sur le sport, la bourse ou encore la météo. Des exemples qui en préfigurent d’autres :

  • Édition : classification des contenus (tagging), optimisation des articles pour le référencement, reformatage et synthèse.
  • Traitement : retranscription textuelle d’interview sonore, traduction, synthèse de documents, recherche dans de vastes bases de données, data visualisation, lutte contre la désinformation, etc.
  • Distribution et diffusion : recommandation de contenus, newsletters automatiques et personnalisées.
  • Nouveaux services : production de contenus multimédia et déclinaison multilingue d’une offre éditoriale.

Des exemples d’applications ciblées et plus nuancées que les vaines expérimentations de CNet aux États-Unis ou de Bild en Allemagne visant à remplacer les journalistes par des machines.

Utilisée pour soutenir le journalisme, l’IA offre des opportunités de dépassement des limites industrielles actuelles. Une dynamique à même d’aider les médias à améliorer les processus de production, inventer de nouveaux services aux lecteurs et de générer de nouvelles sources de revenus.

4) Se préparer à l’émergence des assistants IA

L’adoption de l’IA par le grand public doit beaucoup aux chatbots nouvelle génération. L’ergonomie et la performance de ces agents conversationnels ont ringardisé la méthode traditionnelle de recherche proposée par les navigateurs web. À quoi bon devoir éplucher des pages de liens et slalomer entre les publicités, alors qu’il suffit de poser une question à son assistant personnel pour obtenir instantanément une réponse claire et circonscrite, tout en ayant la possibilité d’affiner la réponse attendue ? La promesse d’un « moteur de réponse » plutôt que celle d’un moteur de recherche. Une réponse, plutôt qu’une liste de liens et de nouvelles recherches à entreprendre.

La personnalisation des échanges et des réponses en fonction du contexte de chaque utilisateur constitue l’autre atout majeur des assistants dopés à l’intelligence artificielle. Des prouesses impressionnantes qui montent en puissance grâce au deep profiling. Cette technique combine un accès à nos données personnelles, aux ressources publiques, un traitement statistique poussé, des capacités de mémorisation et la magie de l’apprentissage automatique, continu et autonome.

« Mieux vous comprendre pour mieux vous servir » pourrait être le slogan de ces nouveaux assistants personnels. Une logique qui a commencé à s’installer au cœur même des navigateurs grand public et des suites logicielles, à l’image du Copilot de Microsoft.

Aussi pratique et efficace soit-elle, l’hyperpersonnalisation de l’accès à l’information implique de nombreux risques pour le débat démocratique. La place publique numérique, déjà largement modelée par les algorithmes des grandes plateformes, risque de perdre encore du terrain. La médiation de ces agents conversationnels opaques contribue, en effet, à réduire la surface de l’espace public numérique composé d’informations accessibles et partagées par le plus grand nombre.

Un risque amplifié par l’absence de transparence des sources et le phénomène d’hallucination propres au fonctionnement de l’intelligence artificielle.

Sans compter les effets de bord connus de la recommandation algorithmique : amplification des bulles de filtres, biais en tous genres, renforcement des opinions existantes ou réduction des chances d’être confronté à la contradiction.

5) Anticiper le déclin de l’économie du lien

La révolution des assistants personnels ouvre la voie à un nouveau paradigme pour le partage et la recherche d’information en ligne. Ils dessinent un monde dans lequel la pertinence des moteurs de recherche tel qu’on les connait aujourd’hui est remise en cause et où l’écosystème qui vit du dynamisme et de l’architecture du web, basés sur les liens, est menacé.

Facebook avait déjà ouvert une brèche dans les principes fondateurs du web en proposant un univers numérique fermé, un web social privatisé.

Pour sa part, Google a court-circuité le maillage de liens en introduisant le système de Knowledge Graph, en 2012, sous la forme de snippets, ces blocs présents sur la page de recherche qui synthétisent les réponses extraites des sites web. Une mise en valeur d’extraits de contenus qui avait abouti à une chute de trafic des sites concernés, à l’image de Wikipédia qui avait vu les visites sur ses pages chuter drastiquement.

Vingt ans après Facebook, c’est l’entreprise américaine perplexity.ai qui bouscule le modèle du web, en défiant Google sur son propre terrain, le search. Comment ? En proposant un produit hybride et payant, pour accéder à l’information. Mi-chabot, mi-moteur de recherche, une synthèse des deux mondes. Microsoft et OpenAI explorent la même piste, en s’appuyant sur Bing. D’un côté, l’accès à la connaissance disponible en ligne et de l’autre, la commodité d’un agent conversationnel capable d’identifier les sources, de les trier et de les synthétiser tout en fournissant des réponses multimodales (texte, son, vidéo et code).

Ce faisant, perplexity.ai rebat les cartes de la recherche en ligne en définissant de nouvelles règles pour accéder à l’information, avec à la clé, des conséquences incalculables pour le fonctionnement et l’économie du web.

Du point de vue des médias, ce grand chambardement implique de nouveaux intermédiaires qui accaparent la valeur des productions journalistiques, digèrent l’information et imposent de nouvelles règles sans contrepartie financière, ni garantie de visibilité. En effet, si les chatbots se substituent aux moteurs de recherche pour fournir une réponse clé en main, la logique de redirection des internautes vers les sites d’information disparait ou s’estompe.

Une dynamique qui ouvre la perspective d’une perte d’exposition des contenus aboutissant à une chute de trafic et donc à des pertes de revenus, provenant à la fois du marché publicitaire et de celui des lecteurs.

En résumé, s’il n’est plus nécessaire de visiter un site pour obtenir l’information, comment parvenir à financer des médias privés de l’apport du trafic issu du web ?

Une remise en cause de l’économie du lien telle qu’elle existe depuis la création du web. Une économie construite sur la libre circulation de l’information, les interactions, la collaboration et la création de valeur partagée au sein de l’écosystème du World Wide Web.

Alors que les cendres de la bataille des droits voisins avec Google sont encore fumantes, les éditeurs ont vu, l’année dernière, Facebook déclasser leurs contenus dans les fils d’actualité, les privant de visibilité au sein de la plus grande plateforme sociale du monde.

Un coup de semonce qui pousse les éditeurs à réinventer leur modèle, au carrefour de l’économie de l’attention, du lien et des contenus. Des éditeurs tiraillés entre la volonté de bénéficier des opportunités offertes par les plateformes d’IA, le développement des paywall et la perspective de voir encore leur contenu pillé par ces nouveaux infomédiaires, sans contrepartie. Pour l’instant, l’attitude de l’industrie médiatique consiste majoritairement à bloquer, tant bien que mal, l’indexation de leur contenu, en attendant que des négociations se mettent en place ou qu’un encadrement juridique s’impose aux différents acteurs.

Face à ces nouvelles réalités, les médias n’ont d’autres choix que de renforcer les liens avec leurs lecteurs en multipliant les points de contact, en développant des services sur-mesure, en certifiant l’information et en développant des espaces propices au débat public.

6) Éviter les pièges de la dépendance technologique

Alors que la dépendance aux réseaux sociaux et que la bataille pour la visibilité des contenus journalistiques dans les moteurs de recherche constituent encore des enjeux majeurs, les médias entament un nouveau bras de fer avec les géants de l’IA concernant l’exploitation de leurs contenus.

Pour l’heure, on peut distinguer deux types d’approches. La première consiste à bloquer l’accès aux archives et à réclamer une rémunération pour l’exploitation des contenus. C’est la position défendue par la majorité des éditeurs, à l’image du New York Times qui a, par ailleurs, intenté un procès au créateur de ChatGPT. Le journal américain accuse OpenAI de violation du droit d’auteur et d’exploitation illégale de ses contenus pour nourrir son intelligence artificielle.

La seconde posture consiste à conclure des partenariats avec les fournisseurs de solution d’intelligence artificielle, au premier rang desquels OpenAI et ChatGPT. C’est le cas du Monde (premier média français à conclure un tel accord), d’Associated Press et du groupe Axel Springer qui ont tous négocié avec OpenAI des contreparties, comme la possibilité de diffuser des contenus dans les résultats fournis par ChatGPT, l’accès exclusif à des outils IA pour les rédactions et la collaboration directe avec les équipes techniques.

Quant à Google, ses équipes travaillent sur le projet Genesis qui vise « à fournir éventuellement des outils activés par l’IA pour aider les journalistes dans leur travail ». Microsoft a choisi le site Semafor pour développer des outils de recherche à destination des rédacteurs, mais aussi pour la création de formats de synthèse à destination des lecteurs.

En choisissant d’opter pour tel ou tel outil d’IA, les médias s’exposent à des risques nombreux et variés : dépendance, sécurité et confidentialité du traitement des données, flou sur la légalité des méthodes et des sources d’entrainement, manque de transparence sur leur fonctionnement, variation des coûts, etc. Il est donc crucial de s’assurer que les solutions techniques développées soient suffisamment flexibles pour permettre de changer aisément de modèles de langage de référence, en cas de besoin.
Il est également nécessaire de garder à l’esprit que l’intelligence artificielle et les modèles de langage sont des boîtes noires, techniques et juridiques, au cœur d’une grande bataille pour la souveraineté technologique à l’échelle mondiale. La capacité des éditeurs à labelliser leur contenu, afin de tracer son utilisation et son exploitation par les modèles de langage, constitue une étape incontournable pour permettre à l’industrie des médias de faire valoir ses droits. Un enjeu qui nécessitera une coopération étroite entre tous les acteurs du secteur.

7) S’armer face au péril du désordre informationnel généralisé

À la faveur de l’accessibilité grandissante des outils dopés à l’IA, un flot de médias automatisés et synthétiques, produits de façon industrielle, menace de submerger le web.

À l’image des opérations de déstabilisation et de désinformation qui ont lieu lors des campagnes électorales, les techniques de flooding déjà à l’œuvre promettent de s’amplifier et de déstabiliser les démocraties. En 2024, la moitié de l’humanité doit se rendre aux urnes et les premiers exemples de deepfakes et de manipulations envahissent déjà le web et les réseaux sociaux.

En offrant la possibilité de personnaliser les contenus à large échelle, ainsi que de varier à l’infini les formats (sites, publications sur les réseaux sociaux, podcasts, vidéos, etc.), l’intelligence artificielle renforce encore l’efficacité et l’impact des contenus synthétiques.

Que les contenus produits soient malveillants ou pas, ce phénomène nourrit un grand désordre informationnel et dessine les contours d’un monde au sein duquel il n’est plus possible de distinguer avec certitude ce qui est vrai ou ce qui ne l’est pas, si un contenu a été généré par une machine ou par un humain.

Si les volumes de ces contenus venaient à dépasser certains seuils critiques, ils entreraient massivement dans la boucle d’apprentissage des systèmes d’intelligence artificielle et contamineraient de facto les bases de données nécessaires à leur développement. À la clé de ce scénario dystopique, un univers informationnel où primeraient l’uniformisation des savoirs, des informations factuellement fausses, trompeuses ou de faible qualité et la reproduction sans fin des mêmes biais. Un monde gangréné par le poison du doute, l’approximation, la confusion et la suspicion systématique.

Dans un tel scénario, les médias feront partie des rares bastions capables de repousser les assauts du faux, du fake et du vraisemblable. Ils devront plus que jamais contribuer à la diversité des sources et des opinions, ainsi que certifier l’info en signant leurs contenus de la mention : « Écrit et vérifié par [ce journaliste], pour [tel média] ».


Cet article est publié sous licence Creative Commons (CC BY-ND 4.0). Il peut être republié à condition que l’emplacement original (fr.ejo.ch) et les auteurs soient clairement mentionnés, mais le contenu ne peut pas être modifié.

 

 

Tags: , , , , ,

6 Responses to Les 7 défis des médias face à l’intelligence artificielle

  1. […] L’intelligence artificielle (IA) promet une transformation profonde de l’industrie médiatique et, plus globalement, de la manière dont nous produisons, consommons et valorisons l'information. Entre sidération et exploration de nouvelles frontières éditoriales, tour d'horizon de sept défis à relever pour réinventer le journalisme et les médias à l'ère de l'IA générative. À peine digéré les bouleversements  […]

  2. […] Notre confrère Nicolas Becquet, journaliste et manager du Pôle digital de L’Écho (un quotidien économique belge), vient de publier un long article en forme de tour d’horizon des “sept défis à relever pour réinventer le journalisme et les médias à l’ère de l’IA générative”.Complet, documenté, accessible : à lire d’urgence en cliquant ici. […]

  3. […] bleibt immer notwendig, durch systematisches Korrekturlesen und zahlreiche Nachbesserungen. Wie Nicolas Becquet dem EJO gegebüber erklärte, kann künstliche Intelligenz keine andere Rolle spielen als die eines „Assistenten“ oder […]

  4. […] l’objet d’une étude menée par l’Observatoire Européen du Journalisme, qui en a ressorti sept points importants pour renouveler le journalisme à l’ère de l’intelligence artificielle. De mon point de vue, les journalistes doivent en effet s’adapter à ces évolutions et faire en […]

  5. […] Artikel wurde zuerst am 11. März 2021 auf der französischsprachigen EJO-Seite veröffentlicht. Übersetzt von Judith Odenthal und Johanna Mack mithilfe von […]

  6. […] L'IA dans les médias : les défis de la modération et de la transparence – Les médias face à l'intelligence artificielle doivent naviguer entre la modération automatique des contenus et la nécessité de transparence dans leurs processus. La supervision humaine et la formation des équipes sont essentielles pour éviter les pièges de la dépendance technologique(https://fr.ejo.ch/intelligence-artificielle/les-7-defis-des-medias-face-a-lintelligence-artificielle). […]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Send this to a friend