Il s’agit d’un sujet effrayant pour plusieurs journalistes, pourtant, c’est inévitable. L’intelligence artificielle va jouer un rôle de plus en plus important dans l’information. Il est donc central de comprendre comment l’utiliser de manière éthique.
« La montée du robot reporter » (The Rise of the Robot Reporter) était le titre effrayant d’un article du New York Times racontant qu’un tiers des contenus de Bloomberg News était généré par le système automatisé « Cyborg ».
C’est effrayant, du moins pour les journalistes, dont beaucoup craignent depuis longtemps de se retrouver au chômage, remplacés par un algorithme. Cette préoccupation croissante a été baptisée « angoisse de l’automatisation » (automation anxiety). Lorsque la revue spécialisée britannique Press Gazette a demandé à ses lecteurs s’ils considéraient l’IA comme une menace, 69% d’entre eux, c’est-à-dire plus de 1’200 personnes, ont répondu par la positive.
Mais il est impossible d’échapper à cette évolution. Le 7 décembre 2020, le think tank POLIS de la London School of Economics a organisé son premier festival à l’intersection du journalisme et de l’IA. Le dernier rapport du POLIS a révélé que sur les 71 organisations de 32 pays étudiées, la moitié utilisaient l’IA pour la collecte d’informations, deux tiers pour la production et la moitié pour la distribution.
Au Royaume-Uni, par exemple, l’agence de presse de PA Media utilise un logiciel pour produire des reportages de données localisées, tandis que le Times utilise un logiciel d’IA pour créer des newsletters adaptées aux intérêts des abonnés.
Journaliste humain vs reporter R2-D2
Il n’est pas surprenant que les journalistes s’intéressent surtout à la façon dont leurs pratiques de travail seront affectées – seront-ils licenciés par l’équivalent du droïde R2-D2 de Star Wars ? Mais, étant donné que l’IA va jouer un rôle de plus en plus important dans l’information – et le rapport du POLIS montre clairement que cela va se produire – qu’en est-il des questions éthiques que cela soulève ?
En tant que co-chercheurs au sein du DMINR AI journalism project à la City University de Londres, nous avons voulu impliquer les journalistes dès le début, afin que nous puissions concevoir un outil qui leur sera utile. Nous nous sommes rendus dans plusieurs rédactions pour parler avec eux et observer leur façon de travailler, leur utilisation de l’IA et leurs préoccupations à ce sujet. Mais nous devons également nous assurer que notre outil, et d’autres, leur permettent d’utiliser l’IA de manière éthique.
L’IA et l’éthique
Le rapport du POLIS met en lumière plusieurs questions éthiques. La première concerne l’inquiétude des journalistes, qui se demandent si l’IA n’est qu’un moyen d’économiser de l’argent.
Alors que question de la partialité dans le journalisme a été largement débattue, qu’en est-il de la partialité des algorithmes ? Cela peut se manifester sous plusieurs formes, allant des problèmes techniques liés à la saisie des données aux algorithmes reflétant des préjugés trop humains sur la race et le sexe. Cette problématique a été illustrée par Julia Angwin, ancienne journaliste de ProPublica. Elle a découvert qu’un programme utilisé par le système de justice pénale américain pour prédire si les accusés étaient susceptibles de récidiver, était en fait discriminatoire à l’égard des Noirs.
Des inquiétudes ont également été soulevées concernant les bulles de filtre et l’IA, les biais de confirmation et même la génération de deepfakes. Bien sûr, ce n’est pas nouveau, comme le montre clairement un article détaillé de la Columbia Journalism Review sur l’exposition universelle de 1964 à New York.
Inversement, l’IA a été défendue comme un moyen permettant de produire des contenus plus éthiques. Pourrait-elle aider à découvrir des liens qui, autrement, auraient été manqués ? Et le débat en cours sur les problèmes liés aux préjugés de l’IA pourrait-il impliquer que les rédactions elles-mêmes doivent être beaucoup plus transparentes et ouvertes avec leur public sur ce qu’elles font ?
La touche humaine
Jeff Jarvis a inventé il y a dix ans le terme de process journalism, qu’il oppose à celui de product journalism et qui désigne la culture changeante du reportage, où les journalistes ne produisent pas leurs articles dans des rédaction éloignées, mais apprennent à s’engager et à mettre à jour leurs histoires par des interactions avec leur public. En faisant preuve d’ouverture à propos de l’IA et de son utilisation, peut-on rétablir la confiance déclinante dans les médias britanniques ?
Il est vrai que l’on s’est davantage concentré sur les problèmes potentiels liés à l’IA que sur les aspects positifs. Il est donc d’autant plus important pour les chercheurs et les développeurs sur le terrain d’interagir avec les journalistes dès le début pour s’assurer que ces questions éthiques sont abordées. Comme l’a dit une personne interrogée dans le cadre du rapport du POLIS : « La plus grande erreur que j’ai vue dans le passé est de traiter l’intégration de la technologie dans un cadre social comme une simple question informatique. En réalité, il s’agit d’un processus social complexe ».
Et pour les journalistes qui souffrent encore de l’angoisse de l’automatisation, il y a un certain optimisme. Comme l’a écrit Carl Gustav Linden dans un article pour Digital Journalism en 2015, la question que nous devrions peut-être nous poser est la suivante : pourquoi, après des décennies d’automatisation, y a-t-il encore tant d’emplois dans le journalisme ? La réponse : malgré 40 ans d’automatisation, le journalisme, en tant qu’industrie créative, a fait preuve de résilience et d’une forte capacité d’adaptation et d’atténuation des nouvelles technologies. Nous sommes encore loin du scénario où un journaliste R2-D2 remplace un reporter humain…
Cet article a été initialement publié sur le site anglophone de l’EJO.
Tags: Artificial Intelligence, automated journalism, automatisation, intelligence artificielle, robot journalism; news bots; computational journalism