Quelle est la véritable efficacité des politiques anti fake news des réseaux sociaux ?

5 mars 2020 • Déontologie et qualité, Innovation et numérique, Récent • by

Source: YouTube

Les réseaux sociaux, accusés de contribuer à la diffusion de la désinformation, ont mis en place des actions pour lutter contre la circulation de contenus manipulés. Bien que positives, ces stratégies ont leurs limites et présentent plusieurs lacunes, estime Laura Carrer dans un article publié sur le site italophone de l’EJO. Si les deepfakes génèrent de grandes inquiétudes, la forme la plus puissante de manipulation audiovisuelle est en fait beaucoup plus basique : l’altération du contexte.

Facebook, qui vient de souffler ses seize bougies, est toujours confronté à de nouveaux défis. La désinformation et les deepfake en font partie. Le 6 janvier, la plateforme a annoncé qu’elle avait défini, avec cinquante experts internationaux issus de différents domaines (technique, juridique, universitaire, médiatique), des critères permettant d’opérer la suppression des contenus manipulés.

Les contenus susceptibles d’être supprimés devront notamment entrer dans une de ces deux catégories. La première désigne des contenus modifiés de manière incompréhensible à l’usager moyen, qui peut être induit en erreur. La deuxième décrit les contenus produits par l’intelligence artificielle et l’apprentissage automatique (machine learning), qui combinent, remplacent ou superposent des contenus à une vidéo, lui donnant ainsi un aspect authentique.

Un discours similaire a été fait par Instagram, qui appartient à Facebook. Ce qui est jugé faux – et donc supprimé – sur le premier, le sera aussi sur le deuxième.

Pour les contenus ou les vidéos qui ne transgressent pas ouvertement ces standards, Facebook a décidé d’appliquer une approche différente : ils ne seront pas supprimés, mais étiquetés, et leur importance dans le newsfeed se verra réduite. Ils seront maintenus sur la plateforme dans le but de mettre en garde ses usagers et de permettre un raisonnement critique sur leur véridicité. Le réseau social explique aussi que, de toute manière, ces contenus seraient disponibles sur d’autres sites ou sur d’autres médias sociaux. Les contextualiser serait donc plus utile que de les supprimer.

Facebook a aussi confirmé son intention de ne pas vérifier les publicités politiques sponsorisées. De plus, le géant américain a affirmé ne pas vouloir limiter ou surveiller ce que les politiciens publient sur la plateforme. Dans la perspective des élections présidentielles américaines de novembre, cela ne semble pas être de bon augure.

Ces politiques fonctionnent-elles vraiment ?

Au vu de ce qui précède, on peut légitimement se demander dans quelle mesure les règlements internes des réseaux sociaux sont efficaces. Si les dernières actions qu’ils ont menées sont intéressantes, il semble que l’impact de ce que l’on appelle, en psychologie, le « confirmation bias » ou « confirmatory bias » n’est pas encore pris en compte. Ces expressions désignent un type de biais cognitif qui conduit les gens à rechercher, interpréter, favoriser ou se souvenir d’informations qui soutiennent, d’une manière ou d’une autre, leurs croyances ou leur vision du monde.

Dans le contexte numérique, et plus particulièrement sur les médias sociaux, cette erreur de raisonnement est amplifiée par plusieurs facteurs. Nous faisons tous partie d’une « bulle de filtrage » (filter bubble), – expression développée par l’activiste Eli Pariser – désignant un écosystème personnel d’informations sélectionnées par des algorithmes de profilage comportemental, présents presque partout sur le web. Cette bulle met en avant les contenus publiés par d’autres utilisateurs qui partagent des croyances similaires aux nôtres, sur des sujets tels que la politique, le sport ou l’environnement. Bien que le thème des bulles de filtrage soit aujourd’hui présent dans le débat public et le jargon technique, leur existence réelle et leur impact sur l’information des citoyens sont encore sujets à des questionnements dans le milieu académique.

Dans tous les cas, il est avéré que les utilisateurs sont plus susceptibles d’être victimes de tels biais cognitifs lorsque les informations qui leur sont soumises sont émotionnelles, ou lorsqu’elles reflètent des valeurs ou des croyances profondément ancrées eu eux. En outre, dès les années 1980, il a été démontré que les fausses informations ou croyances peuvent dans de nombreux cas rester ancrées dans l’individu, et ce même après avoir été soigneusement discréditées.

Certains se méfient des mesures prises par les réseaux sociaux aussi parce que les méthodes d’identification des contenus manipulés sont complexes et pas nécessairement efficaces. De plus, elles prennent du temps : il est en effet possible que des contenus étiquetés comme faux puissent circuler bien avant d’être contrôlés et vérifiés par les plateformes.

Un autre élément problématique de ces pratiques est qu’elles s’appuient sur un raisonnement exclusivement technique, alors qu’elles sont censées repérer des comportements humains, qui ne peuvent pas forcément être standardisés. La satire illustre cette limite : la place que Facebook laisse à la satire est souvent utilisée pour transmettre de la désinformation. Un récent article publié sur le site satirique Babylon Bee, à propos de la mort du général Soleimani, a par exemple été partagé plus de 700’000 fois les réseaux sociaux.

Le danger de la désinformation « bon marché »

D’autres personnes s’inquiètent de la diffusion de contenus beaucoup moins élaborés, capables de cacher la violation des normes de la communauté des réseaux sociaux, et donc potentiellement d’échapper à sa surveillance. Il s’agit des cheap fake, terme inventé pat Britt Paris et Joan Donovan dans le rapport « Deepfakes and Cheap Fakes. The Manipulation of Audio and Visual Evidence », publié par Data&Society.

Selon les deux chercheuses, la manipulation obtenue par l’apprentissage automatique ou les techniques capables de produire des deepfake complexes ne constituent qu’une partie des contenu modifiés circulant en ligne. D’autres techniques moins coûteuses (cheap) sont basées sur des logiciels plus accessibles. Il arrive même que l’usage de logiciel ne soit pas nécessaire.

Il existe de nombreux logiciels bon marché et relativement faciles à utiliser, qui permettent de créer des Cheap Fakes. Parmi eux se trouvent par exemple Adobe After Effects et Premiere Pro, avec lesquels il est possible d’échanger les visages d’une image (face swap), ou Sony Vegas Pro, qui permet de ralentir ou d’accélérer les vidéos. Certains filtres en temps réel (real time filters) sont également fournis gratuitement par certaines applications, alors que d’autres modifient la vitesse des vidéos.

Au moins la moitié de ces logiciels sont maîtrisables par des enfants 11 ans (ou peut-être moins), déjà familiarisés avec des applications comme SnapChat, TikTok ou Instagram, utilisables à cette fin.

Ces outils sont actuellement facilement accessibles, gratuits, plutôt simples à utiliser et permettent d’obtenir des résultats suffisamment crédibles. Un exemple efficace de cheap fake a été récemment rapporté par BuzzFeed News : une simple story Instagram montrant des personnes en train de danser a été délibérément associées à la campagne présidentielle de Mike Bloomberg. Au contraire, pour créer un discret deepfake, le journaliste Timothy B. Lee de Ars Technica a, lui, dû dépenser 552 dollars et a dû y consacrer deux semaines de travail.

Il est donc important de tenir compte du fait que le contenu, une fois décontextualisé, édité ou accéléré, n’a pas nécessairement besoin d’être de haute qualité pour être crédible, du moins en ce qui concerne la politique. En effet, c’est dans un autre domaine que les deepfake rencontrent le plus de succès. Selon le rapport de 2019 de Deeptrace, presque toutes les vidéos manipulées sont de nature pornographique. Bien qu’il n’existe pas encore de preuves documentées de femmes victimes de cette technologie en Europe, il est clair que ces vidéos sont actuellement davantage utilisées à des fins sexuelles ou de harcèlement.

Dans un article publié sur le site The Verge, Russell Brandom s’interroge aussi sur la véritable ampleur de ce phénomène, qui n’a peut-être pas encore atteint son point culminant, puisqu’il n’y a pas besoin de technologies deepfake pour que les gens soient soumis au confirmation biais. La forme la plus puissante et la plus accessible de manipulation audiovisuelle n’est donc pas créée techniquement, mais par l’appropriation du contexte : les techniciens de la police scientifique ne trouveront pas un pixel déplacé, mais seulement des histoires fausses ayant des répercussions réelles.

Print Friendly, PDF & Email

Tags: , , , , , , ,

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Send this to a friend