Les bots de Twitter répandent-ils de la désinformation sur les vaccins ? Des études montrent que ce n’est pas si simple

2 novembre 2020 • Déontologie et qualité, Pédagogie et formation, Récent • by

La majorité des informations erronées sur Twitter ont été publiées par des personnes et non des bots. / Photo de Claudio Schwarz | @purzlbaum via Unsplash

Les discussions sur la désinformation en ligne dans le domaine de la politique et de la santé publique portent souvent sur le rôle des robots, les campagnes de désinformation organisées et les « fake news ». Un examen plus approfondi de ce que les utilisateurs voient et font des contenus sur les vaccins révèle que pour la plupart des utilisateurs de Twitter, les bots et les contenus anti-vaccins ne représentent qu’une infime partie de leur régime d’information.

Après avoir étudié pendant plusieurs années la manière dont l’information sur les vaccins se répand sur les médias sociaux, je pense que nous devrions recentrer nos efforts sur l’aide que l’on pourrait apporter aux personnes qui consomment des informations erronées plutôt que de blâmer ceux qui les produisent. La clé pour traiter la désinformation est de comprendre ce qui la rend importante dans les communautés où elle est concentrée.

Des contenus anti-vaccins sur Twitter ?

Dans notre dernière étude, publiée dans l’American Journal of Public Health, nous avons examiné comment les gens voient et utilisent les informations sur les vaccins sur Twitter. Nous avons montré que si les gens voient souvent du contenu sur les vaccins, la plupart d’entre eux n’en font pas la critique et presque aucun ne provient de robots.

Alors que d’autres recherches ont comptabilisé la quantité de contenus anti-vaccins publiés sur les médias sociaux, nous sommes allés plus loin et avons estimé la composition de ce que les gens voyaient et mesuré ce qu’ils en faisaient. Pour ce faire, nous avons suivi un ensemble de 53 000 utilisateurs typiques de Twitter aux États-Unis. En connectant les listes de ceux qu’ils suivent avec plus de 20 millions de tweets liés aux vaccins postés de 2017 à 2019, nous avons pu évaluer ce qu’ils étaient susceptibles de voir et ce qu’ils ont partagé.

Au cours de ces trois années, un utilisateur type de Twitter aux États-Unis peut avoir vu 727 tweets liés aux vaccins. Seuls 26 de ces tweets auraient été anti-vaccins, et aucun n’aurait été envoyé par un bot.

Bien que ce soit relativement peu fréquent, près de 37 % des utilisateurs ont posté ou retweeté du contenu relatif aux vaccins au moins une fois au cours des trois années. Seuls 4,5 % des utilisateurs ont retweeté un contenu critique sur les vaccins et 2,1 % des utilisateurs ont retweeté un contenu sur les vaccins posté par un bot.

Pour 5,8 % des utilisateurs de l’étude, les tweets critiques à l’égard des vaccins constituaient la plupart des contenus liés aux vaccins qu’ils ont pu voir sur Twitter au cours de ces trois années. Ce groupe était plus enclin à s’intéresser au contenu sur ce sujet en général et plus susceptible de retweeter du contenu critique sur les vaccins.

La plupart des utilisateurs de Twitter voient très peu de contenus anti-vaccins sur la plateforme. / Photo de Engin Akyurt via Unsplash

Etudier les gens, pas les posts

De nombreuses analyses sur la désinformation sur les médias sociaux sont basées sur le comptage du nombre de messages qui correspondent à un ensemble de mots-clés ou de hashtags, ou sur le nombre d’utilisateurs qui ont rejoint des groupes publics. De telles analyses sont relativement faciles à réaliser.

Cependant, ces chiffres ne vous disent rien sur l’impact des postes ou des groupes. Un tweet provenant d’un compte sans follower ou un billet de blog sur un site web que personne ne visite n’est pas la même chose qu’un article d’actualité important, une conversation avec un membre de confiance de la communauté ou le conseil d’un médecin.

La consommation d’informations est difficile à observer à l’échelle. Mon équipe et moi le faisons depuis de nombreuses années et nous avons développé des outils utiles dans ce cadre.

En 2015, nous avons constaté que le premier tweet d’un utilisateur de Twitter sur les vaccins contre le papillomavirus humain (HPV) est plus susceptible d’être critique s’il suit des personnes qui publient des contenus critiques. En 2017, nous avons constaté que des taux plus faibles de vaccination contre le HPV aux États-Unis étaient à associer à une plus grande exposition à certains sujets négatifs sur Twitter.

Une étude publiée dans Science en 2019 a utilisé une approche similaire et a trouvé que les fausses nouvelles sur les élections américaines de 2016 représentaient 6 % de la consommation de nouvelles pertinentes. Cette étude, comme la nôtre, a révélé que l’intérêt pour les fausses nouvelles était concentré dans une infime partie de la population.

Je pense également que les analyses centrées sur les posts sont populaires parce qu’il est commode de pouvoir rejeter la faute sur « d’autres », notamment les campagnes de désinformation organisées par des gouvernements étrangers ou des animateurs de télé-réalité, même lorsque les résultats ne corroborent pas la conclusion. Mais les personnes enclines à transmettre des informations erronées ne vivent pas sous les ponts en mangeant des chèvres et des hobbits. Ce ne sont que des gens.

Résister à la désinformation sur la santé en ligne

Lorsque les chercheurs ne se contentent plus de compter les posts pour savoir pourquoi les gens interagissent dans des communautés, nous pouvons alors trouver de nouveaux moyens de donner aux gens les outils qui les aideront à résister à la désinformation. Les plateformes de médias sociaux peuvent également trouver de nouvelles façons d’ajouter des frictions au partage de tout message qui aurait été signalé comme potentiellement nuisible.

Bien qu’il y ait des problèmes non résolus, la psychologie individuelle et sociale de la désinformation est un domaine mature. Des guides basés sur des preuves concernant le debunking de théories du complot dans les communautés en ligne sont disponibles. En se concentrant sur les endroits où les gens rencontrent la désinformation, on pourra mieux relier la science des données et la recherche comportementale.

Connecter ces domaines nous aidera à comprendre ce qui rend la désinformation importante au lieu d’être simplement courante dans certaines communautés, et à décider quand il vaut la peine de la debunker. C’est important car nous devons donner la priorité aux cas où il existe un risque de préjudice. C’est également important parce que le fait de dénoncer la désinformation peut involontairement l’aider à gagner du terrain alors qu’elle pourrait autrement s’estomper.

Les taux de vaccination restent un problème dans les endroits où les taux d’hésitation et de refus de vaccination sont plus élevés et où le risque d’épidémies est plus grand. Concentrons-nous donc sur les moyens de donner aux populations vulnérables les outils dont elles ont besoin pour se protéger contre les informations préjudiciables.

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original en anglais.

Autres articles sur le sujet :

Print Friendly, PDF & Email

Tags: , , , , ,

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Send this to a friend