Comment réguler l’intelligence artificielle ?

17 juillet 2024 • Déontologie et qualité, Formats et pratiques, Innovation et numérique, Intelligence artificielle, Récent • by

Dans le monde du journalisme, l’implémentation de normes éthiques et déontologiques sur l’intelligence artificielle en est encore à ses premiers pas. @Dall-E

Dans le monde des médias, la question de la régulation de l’intelligence artificielle est brûlante d’actualité. En Suisse, l’implémentation de normes éthiques et déontologiques témoigne de la complexité de ce domaine en perpétuelle mutation.

L’intelligence artificielle est désormais incontournable dans le journalisme. Disons-le d’emblée, cet article n’aurait pas vu le jour sans elle. En effet, le panel qui a inspiré ces quelques lignes réunissait des personnes germanophones et mes derniers cours d’Allemand remontant à bien des années, je n’ai pas les compétences nécessaires à rendre compte convenablement d’un long échange prononcé dans cette langue. Il ne m’a été possible de le faire qu’en m’appuyant, de tout mon poids, sur les outils de transcription, de traduction, de correction, et de recherche qu’offre l’IA. Une opportunité ambiguë qui, d’une part, ouvre de nouveaux horizons et, d’autre part, contient son lot d’écueils. Car l’intervention humaine reste toujours nécessaire, par une relecture systématique et de multiples retouches. Comme l’expliquait Nicolas Becquet pour l’EJO, l’intelligence artificielle ne saurait jouer un autre rôle que celui « d’assistant-stagiaire », d’aide à la rédaction pour effectuer des tâches à faible valeur ajoutée. Mais où tirer la ligne entre journaliste et assistant ? Où mettre la limite entre utilisation abusive et usage raisonnable ? Comment légiférer sur l’intelligence artificielle ?

Cette question était au centre du panel qui se tenait à l’Université de Neuchâtel, dans le cadre de la 50ème conférence annuelle de la Société suisse des sciences de la communication et des médias (SSCM), en avril 2024. Anna Jobin, présidente de la Commission fédérale des médias (COFEM), Thomas Schneider, ambassadeur et directeur du Comité sur l’intelligence artificielle du Conseil de l’Europe, et Colin Porlezza, professeur assistant à l’Université de la Suisse italienne, se sont réunis sous la modération de Manuel Puppis, professeur à l’Université de Fribourg.

Un flou cinétique

La question de la régulation est d’une actualité brûlante, car le domaine de l’intelligence artificielle est en mutation et bouge en permanence. Mais, comment prendre le recul nécessaire à l’élaboration d’une législation adaptée ? Il est difficile de saisir l’instantané de la situation quand les innovations s’enchaînent à une vitesse frénétique. Dès lors, pour le législateur, l’IA reste encore plongée dans une sorte de « flou cinétique » insaisissable. Pour Thomas Schneider, ce sont deux temporalités qui se confrontent. D’un côté, la lenteur du processus législatif et, de l’autre, la rapidité de l’innovation : « Nous devons fondamentalement repenser nos systèmes de gouvernance pour les adapter à une technologie qui évolue sans cesse. Est-il encore logique, à notre époque, de passer cinq ans à élaborer une loi, de subir un « non » en référendum, et de repartir pour cinq ans ? »

Sur le plan national, dont traite Anna Jobin, et sur le plan international, spécialité de Thomas Schneider, les mêmes difficultés à légiférer se recoupent. Il faut dire que, dans le domaine médiatique, la discipline est relativement récente. Les premières directives éthiques sur l’Intelligence artificielle sont apparues au milieu des années 2010, et ce n’est, selon Colin Porlezza, qu’à partir de 2021 que la pratique se répand dans le monde entier, au sein des entreprises médiatiques, comme des formes pionnières d’auto-régulation de la profession. Mais, de manière plus générale, des jalons de régulation sont aussi posés à cette période au niveau politique, lorsqu’en novembre 2021, l’UNESCO publie ses Recommandations sur l’éthique de l’intelligence artificielle. S’ensuivent les premières recommandations nationales.

Le cas suisse

En Suisse, la Commission fédérale des médias (COFEM), présidée par Anna Jobin, a publié, le 28 novembre 2023, son analyse des « conséquences de l’essor de l’IA pour les médias ». Elle identifie cinq points clefs, ainsi que les risques et avantages qui les accompagnent :

1. « Moins d’obstacles à la conception, d’où davantage d’offres para-journalistiques »

Les nouvelles technologies facilitent la production de formats journalistiques (il n’est plus nécessaire de bien parler la langue pour suivre une conférence en allemand, par exemple). Cela permet une plus grande diversité, mais augmente simultanément le risque de désinformation.

2. « L’automatisation croissante du journalisme n’est pas sans effet sur la qualité »

D’un côté, l’automatisation de tâches auparavant effectuées par des humains permet une plus grande qualité de production (moins de fautes, des projets plus ambitieux, etc.), de l’autre, l’IA a certains défauts qui peuvent faire baisser la qualité (biais de statu quo, erreurs, inventions, etc.).

3. « La relation de confiance du public envers le journalisme évolue »

Les productions humaines et artificielles ne sont plus distinguables. Si l’IA porte atteinte à la crédibilité des contenus en général, le journalisme mise sur la qualité et l’auto-régulation de la branche : ce qui est apprécié du public.

4. « L’influence des intermédiaires et des grands groupes technologiques s’accroit »

Si des accords sont possibles entre les grands acteurs de l’intelligence artificielle (Le Monde, News Corp, etc.), le rapport de force pourrait tourner en défaveur des médias.

5. « La régulation de l’IA en cours ignore le régime juridique spécifique des médias »

En l’état, les travaux législatifs sur l’IA ne prennent pas en compte les spécificités des médias (notemment la protection des sources).

Pour Anna Jobin, la publication de ces cinq points n’est qu’une première étape qui devrait mener, in fine, à l’élaboration de recommandations. Un pas qui a déjà été franchi par les instances d’auto-régulation. En janvier de cette année, le Conseil suisse de la presse a publié ses propres lignes directrices déontologiques relatives à l’intelligence artificielle, en précisant être « conscient de l’évolution très rapide dans ce domaine » et en s’engageant à réexaminer « régulièrement ses lignes directrices ainsi que ses directives (devoirs et droits) en les adaptant si nécessaire ». Pour l’heure, il existe six directives :

  • Les journalistes sont responsables que ce qu’ils publient (que ce soit généré par l’IA ou non)
  • La transparence : les contenus générés artificiellement doivent être indiqués comme tel
  • Les sources de l’IA doivent être connues
  • Les images, sons et vidéos générés ne doivent pas être confondus avec le réel
  • Les données confidentielles doivent être protégées de l’IA
  • Le droit d’auteur doit être respecté

Il s’agit bien de recommandations temporaires, donc, susceptibles de changer pour s’adapter à la situation.

Sortir de la soupe primordiale

Selon Manuel Puppis, professeur à l’Université de Fribourg : « l’intelligence artificielle influence tous les aspects du journalisme, de la collecte d’informations à la production de nouvelles, jusqu’à la distribution et la personnalisation du contenu. » Ainsi, il ressort des différents intervenants que le monde médiatique traverse une époque charnière. L’évolution trop rapide des technologies prend de court les institutions normatives, qui peinent à suivre la cadence. Mais la situation change rapidement. Jadis morcelées entre les rédactions, les premières normes éthiques et déontologiques communes commencent à apparaitre. En somme, les médias sortent à peine de la soupe primordiale des réglementations sur l’IA.


Cet article a été réalisé à la suite du panel intitulé « L’intelligence artificielle dans la production et la distribution du journalisme : applications, gouvernance et résultats de recherche » qui a eu lieu lors de la conférence annuelle de la Société suisse des sciences de la communication et des médias (SGKM) en avril 2024.


Davantage de contenus sur l’intelligence artificielle sont à retrouver dans notre dossier thématique.


Cet article est publié sous licence Creative Commons (CC BY-ND 4.0). Il peut être republié à condition que l’emplacement original (fr.ejo.ch) et les auteurs soient clairement mentionnés, mais le contenu ne peut pas être modifié.

Tags: , , ,

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Send this to a friend