Médias et IA, les clés d’un déploiement à grande échelle

16 août 2024 • À la une, Économie des médias, Formats et pratiques, Innovation et numérique, Intelligence artificielle, Récent • by

L’implémentation de l’intelligence artificielle générative à large échelle dans les rédactions implique un important changement culturel. Photo d’illustration : Pixabay.

L’intelligence artificielle générative entre dans les organisations médiatiques à une vitesse sans précédent. Mais comment l’intégrer efficacement et quels en sont les grands enjeux à moyen et long terme?

On l’aura compris, l’intelligence artificielle générative s’apprête à révolutionner le paysage médiatique. Toutes les étapes du processus journalistique seront impactées: de la recherche d’information à sa diffusion, en passant par l’aide à la rédaction. Mais a-t-on vraiment compris quelles en sont les implications?

Qui a réalisé que si l’on ne prend pas garde, la formation des stagiaires journalistes sera lacunaire? Que le middle management constitue probablement le plus gros frein au déploiement de l’IA générative à large échelle? Que pour en faire comprendre les implications profondes au top management, le moyen le plus efficace est de le planter durant au moins 10 heures devant ChatGPT, Claude ou Gemini?

Phase d’exploration

Avant de détailler différentes stratégies pour déployer l’IA générative, il faut rappeler qu’à mi-2024, nous sommes toujours en phase d’exploration. Même les entreprises de médias les plus avancées sont très loin d’avoir exploité ces nouveaux outils à leur plein potentiel.

Certes, le journal norvégien Aftenposten du groupe Schibsted génère automatiquement des résumés de ses articles; son concurrent de ITromsø utilise l’IA pour trouver chaque jour les perles dans les centaines de nouvelles publications officielles du pays; le National Geographic utilise un Large language model (LLM) pour analyser les retours de ses utilisatrices et utilisateurs; Tamedia, le groupe pour lequel je travaille, génère automatiquement des suggestions de titres ou de posts pour les réseaux sociaux.

Les exemples plus ou moins clinquants et innovants ne manquent pas. Mais ce sont souvent des cas d’utilisation, bien délimités et faciles à mettre en œuvre. Des low hanging fruits comme on dit.

Même en admettant que l’amélioration de ces LLM et des autres IA génératives devait plafonner, leur déploiement à grande échelle prendra au moins cinq ans. Avec des gains en productivité et en qualité très importants. Alors imaginez maintenant les efforts que les organisations médiatiques devront mettre en œuvre pour suivre le développement effréné de cette technologie!

Une question de culture

Le plus grand défi n’est pas tellement l’implémentation technique, mais plutôt le changement culturel que cela implique au niveau des organisations médiatiques. Qu’est-ce que cela signifie d’être journaliste ou diriger une organisation médiatique à l’ère de la production automatique de textes? Ou, à tout le moins, de brouillons? Comment évoluer dans un monde où de nombreuses tâches simples, puis de plus en plus complexes, pourront être automatisées ou accélérées? Où se situera la valeur ajoutée de l’humain? Comment rester en contrôle à l’heure où de nombreuses tâches de vérification de qualité, si essentielles à la crédibilité des médias, pourront être assistées par des machines? Quels processus dans les organisations médiatiques du futur? Quels efforts de transparence vis-à-vis du public?

Il n’y a pour l’heure pas de réponses toutes faites à ces questions. Chaque média ou groupe de médias présente ses spécificités et doit composer avec son degré de maturité technologique et sa capacité d’investissement. Quelques réflexions s’appliquent toutefois de façon assez générale.

Tout d’abord, la compréhension des personnes aux commandes de ces organisations doit être grandement améliorée. Bien souvent, elles n’ont qu’une idée très théorique des capacités de l’IA. Et si la mise en ligne de ChatGPT 3.5 en novembre 2022 a suscité une prise de conscience chez beaucoup, cela a aussi créé un épais écran de fumée. Car après quelques essais sur la version gratuite de ce «vieux» modèle de langage, beaucoup sont repartis la conviction que ces algorithmes ne valaient pas tant que cela. Que passé l’éblouissement initial des premiers essais, cette technologie ne pourrait pas régler leur problèmes.

10 à 20 heures de pratique

En réalité, seule une minorité de top managers a pris la peine de suivre l’évolution technologique et a pu saisir le saut de qualité gigantesque qu’il y a eu par la suite. Les mises au vert pour comprendre enfin l’intelligence artificielle, les séminaires d’AI literacy, les cours en tout genre, les lectures sur le sujet sont évidemment à saluer. Mais pour sentir intimement les capacités et les limites des LLM, rien ne remplacera l’utilisation personnelle d’un ou de plusieurs de ces algorithmes. À mon sens, pour passer un certain cap, il faudrait au moins y consacrer 10 heures. C’est notamment ce que préconise le professeur de management Ethan Mollick, de la Wharton School de l’Université de Pennsylvanie.

Il ne suffit en effet pas d’apprendre le fonctionnement théorique de ces systèmes, mais il faut vraiment jouer avec leurs interfaces de chatbots, c’est-à-dire tester des prompts, affiner des requêtes, comparer les capacités de différentes versions, et voir concrètement ce que la multimodalité apporte en plus. Cela peut sembler beaucoup, mais ces quelques heures sont totalement ridicules au regard des gains qui pourront être rendus possible par ces technologies.

L’implémentation d’outils l’intelligence artificielle générative ne se joue toutefois pas de haut en bas. Les rédactions, surtout celles des médias historiques, sont chargées de tradition, de culture et organisées en processus complexes, qu’il n’est pas aisé de changer. Cette transformation nécessite un accompagnement et l’adhésion doit être suffisante. À cet égard, le middle management est probablement le plus difficile à embarquer. Non pas que leurs représentantes et représentants seraient réfractaires au changement, mais parce que ces personnes travaillent souvent à flux tendu, dans une production quotidienne ou en continu, si bien qu’elles n’ont que peu de temps pour se projeter dans six mois ou une année.

Gagner le cœur du middle management

L’une des clés du succès réside probablement dans la capacité à offrir à ces personnes des outils IA qui les aident concrètement dans leur quotidien. A cet égard, la transcription d’interviews est un cas d’école: avant l’IA générative, les résultats étaient de piètre qualité. Mais avec les récents développements technologiques, ces logiciels de speech to text  atteignent une précision remarquable. Et peu de journalistes aiment retranscrire pendant toute une après-midi une interview d’une heure, alors qu’un logiciel leur prémâche le travail en dix minutes.

Dans mon entreprise comme dans d’autres, des responsables de rubrique se sont subitement mis à réaliser nettement plus d’interviews. Et bien des préjugés vis-à-vis de l’IA se sont évaporés. Cette stratégie de pain relief – littéralement soulager une douleur – pourra bientôt être répliquée dans de nombreuses autres situations: rédaction de comptes-rendus sans recherche d’informations propres, rédaction de synthèses, réécriture d’un texte pour un autre support, (pré-) traitement de dépêches d’agences,  (pré-) traduction, etc.

Automatiser les tâches répétitives

Avec le temps, il sera possible d’automatiser de plus en plus de tâches répétitives, cantonnant le travail journalistique à ce qui présente le plus de valeur ajoutée, comme par exemple rechercher des informations qui ne se trouvent pas encore dans l’infosphère, évaluer la pertinence fine d’une information, donner du sens, de l’émotion, créer du lien. Sur ces points, les métiers du journalisme resteront un artisanat. Un artisanat avec du personnel de plus en plus qualifié. Et je pense que la vérification finale et la responsabilité sur un texte ne doivent pas être déléguées à une IA: c’est une question de crédibilité.

Pour les organismes de médias, cette évolution soulève une interrogation importante: si les tâches traditionnellement confiées aux débutant·es sont automatisées, comment former la prochaine génération de journalistes?

Là encore, il n’existe pas de réponse toute faite à cette question. Mais une des pistes pour pallier ce manque d’expérience «au fourneau», les écoles de journalisme et les rédactions doivent repenser leur approche. Une solution pourrait être de créer des dispositifs où les étudiantes et étudiants apprendraient à collaborer avec l’IA plutôt que de la voir comme une concurrente. Ces formations mettraient l’accent sur les compétences difficilement automatisables : l’analyse critique, les liens de personne à personne, la créativité éditoriale, l’éthique journalistique et la capacité à mener des enquêtes approfondies.

Un sentiment d’urgence

La vitesse d’adoption de l’IA générative par l’industrie des médias est sans précédent. Il a fallu des années pour que les rédactions s’intéressent à internet, puis aux réseaux sociaux. Un an à peine après la mise en ligne de ChatGPT, presque 8 décideurs et décideuses médiatiques sur 10 déclaraient vouloir utiliser l’IA générative pour la création de textes, selon un sondage réalisé en décembre 2023 par Associated Press, en collaboration avec la Northwestern University et l’Université d’Amsterdam. Quelques mois plus tard, une autre étude menée auprès de 3’000 journalistes de 29 pays montrait que 45% s’appuyait au moins “un peu” sur des IA conversationnelles pour leur travail.

Cette rapidité d’adoption place les médias dans une position délicate. D’un côté, ils doivent innover et rester ou redevenir rentables en exploitant le potentiel de l’IA. De l’autre, leur rôle de contre-pouvoir les oblige à scruter et questionner l’utilisation de ces mêmes technologies par l’Etat et les puissants.

Ce double impératif exige des médias qu’ils déploient l’IA avec sensibilité et responsabilité. L’enjeu est de taille: maintenir leur crédibilité aux yeux du public tout en saisissant les opportunités offertes par ces technologies pour améliorer à la fois la productivité et la qualité. C’est dans cet équilibre subtil entre progrès technologique et rôle du journalisme dans la société que se jouera l’avenir de la profession.


Sept conseils pour implémenter l’IA à large échelle dans une organisation médiatique

1. Testez et apprenez

Le déploiement de l’IA doit se faire par des expérimentations rapides et concrètes. Cette approche permet de se confronter directement aux réalités et défis de l’IA, favorisant un apprentissage pratique et une adaptation plus efficace. Pour ces projets, montez des équipes multidisciplinaires. Savoir choisir entre un développement propre ou l’intégration d’un outil externe (build or buy) est essentiel et peut varier de cas en cas.

2. Commencez petit

Il est judicieux de commencer par des projets simples et facilement réalisables, souvent appelés low hanging fruits. Cette stratégie permet de gagner en confiance, d’obtenir des résultats rapides et de créer une dynamique positive autour de l’IA dans l’organisation.

3. Démystifiez l’IA pour atténuer les craintes

Investir dans la formation et l’éducation à l’IA pour tous les niveaux de l’organisation est crucial. Une meilleure compréhension de l’IA aide à dissiper les craintes infondées et à favoriser une adoption plus sereine et efficace de la technologie.

4. Favorisez la collaboration entre IA et les journalistes

Encouragez une synergie entre les compétences humaines et les capacités de l’IA. Cette approche permet d’optimiser le travail journalistique en combinant la créativité et l’expertise humaine avec l’efficacité et la rapidité de l’IA.

5. Restez fermes sur vos valeurs

L’intégration de l’IA ne doit pas se faire au détriment des valeurs fondamentales de l’organisation. Il est essentiel de maintenir une ligne éthique claire et de s’assurer que l’utilisation de l’IA reste alignée avec les principes et la mission de l’entreprise.

6. Gardez l’humain dans la boucle et à la fin du processus

Malgré l’automatisation croissante, il est crucial de maintenir l’humain au cœur du processus décisionnel. La supervision et la validation finale par des experts humains restent indispensables pour garantir la qualité, l’éthique et la responsabilité des résultats générés par l’IA.

7. Assurez la transparence dans l’utilisation de l’IA

Communiquez clairement sur l’utilisation de l’IA dans vos processus journalistiques. Cette transparence renforce la confiance du public et démontre votre engagement envers une utilisation éthique et responsable de cette technologie.


Cet article est publié sous licence Creative Commons (CC BY-ND 4.0). Il peut être republié à condition que l’emplacement original (fr.ejo.ch) et les auteurs soient clairement mentionnés, mais le contenu ne peut pas être modifié.


Davantage de contenus sur l’intelligence artificielle sont à retrouver dans notre dossier thématique.

Print Friendly, PDF & Email

Tags: , , , , ,

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Send this to a friend