Le Mémo - Épisode 24 - Orange Com
←
→
Transcription du contenu de la page
Si votre navigateur ne rend pas la page correctement, lisez s'il vous plaît le contenu de la page ci-dessous
Le Mémo – Épisode 24 Désinformation : le Web est-il une fabrique à complots ? Germain : En 2016, Edgar Maddison Welch, un américain de 28 ans rentre dans une pizzeria de Washington. Dans ses mains, 3 armes à feu. Avec un fusil d’assaut, il tire sur la porte du local informatique du restaurant. Qu’espère-t-il trouver derrière ? Les preuves d’un trafic massif d’enfants. Selon une rumeur qu’il a vu naître sur internet pendant la campagne présidentielle, cette pizzeria servirait de plateforme à une organisation pédophile. Et pourtant, derrière la porte… Il ne trouve qu’un porte-manteau et un placard avec un ordinateur que le personnel utilise pour mettre de la musique. Cet homme qui voulait « mener son enquête » finira par écoper de 4 ans de prison ferme. Tout ça à cause d’une théorie qu’il avait lue en ligne. Bonjour Marine ! Marine : Bonjour Germain. Germain : Comme cette histoire tragique le montre, les théories qui naissent en ligne peuvent parfois avoir des conséquences dans la vie… réelle. Alors, comment passe-t-on d’une fausse information sur le web à une descente armée dans une pizzeria familiale ? Comment ces théories du complot naissent et s’amplifient en ligne ? L’architecture des plateformes du web favorise-t-elle la propagation des rumeurs ? C’est ce que nous allons explorer dans ce nouvel épisode du Mémo. Marine : Pour commencer, les théories du complot sont vieilles comme le monde. Des théories ont germé sur la peste noire, les attentats du 11 septembre, ou encore les premiers pas sur la Lune. Germain : Mais comme moi, tu remarques que de nouvelles théories du complot prolifèrent un peu partout ces dernières années. Marine : Oui, comme on l’a vu pour le père de famille américain désormais en prison, ces théories trouvent un écho grandissant dans la population, alors qu’elles naissent souvent dans des recoins plutôt sombres du net. Par exemple, cette rumeur de grand complot des élites démocrates impliquées dans un réseau de pédophiles provient de 4Chan, un forum assez populaire dans le monde anglo- saxon. A l’origine de cette rumeur, un certain Q. Personne ne sait qui c’est, ni même si c’est une vraie personne. Mais il a forgé une communauté autour de son mythe : les QAnon. Germain : Anon provenant « d’anonyme » mais c’est aussi la manière dont on s’invective sur 4chan entre posteurs anonyme… Marine : C’est d’ailleurs ce qui fait la particularité de ce mouvement, il est immatériel et anonyme. Selon le magazine américain The Atlantic, « QAnon n’est pas lié à un endroit physique, mais il a une infrastructure, une littérature, des membres de plus en plus nombreux, et beaucoup de marchandise à vendre. (…) Pour QAnon, toutes les contradictions peuvent être justifiées, aucun argument contre ne peut triompher ».
Germain : Et à la différence des complots historiques, aujourd’hui, la rumeur court vite, très vite. Marine : Oui, avec internet, ce qui est crucial, c’est la capacité pour une rumeur à devenir virale. Et à être plus rapide que les médias traditionnels. Ça, les conspirationnistes l’ont bien compris. Dans une interview donnée au Figaro en 2019, consacré à l’analyse critique du conspirationnisme, Rudy Reichstadt, directeur du site ConspiracyWatch.info explique que : « Les réseaux sociaux, leurs algorithmes, les smartphones ont créé des conditions particulièrement propices au retour de la pensée magique ». Germain : Quelles sont ces conditions qu’il évoque ? Je veux dire, concrètement, les plateformes du web aident vraiment à propager la désinformation ? Marine : Pour qu’une désinformation soit efficace, elle doit se propager massivement. C’est là que les bots entrent en scène. Un bot, contraction de robot en anglais, est un logiciel opérant de manière autonome et automatique, qui effectue des tâches précises et répétées. Un bot peut donc gérer un compte Twitter ou Facebook, créer des hashtags, retweeter ses propres publications toute la journée, et influencer l’actualité. Selon l’agence Québécoise Science Presse, « Des chercheurs de l’Université Carnegie Mellon, aux États-Unis, ont analysé plus de 200 millions de tweets au sujet de la Covid-19. Leur constat : 45% des auteurs de ces messages semblaient être des comptes robotisés conçus uniquement pour répandre des théories du complot, de fausses nouvelles et autres messages néfastes ou trompeurs. » Germain : Cela voudrait dire que presque la moitié de ce que je vois sur Twitter proviendrait d’un robot ? Étonnant. Voir détonant… Marine : Pour comprendre les risques, je te conseille un rapport fascinant publié conjointement par le ministère de l’Europe et des Affaires Etrangères, et le ministère des Armées. Le risque de manipulation de l’information aurait considérablement augmenté avec la prolifération des plateformes numériques : « par la surabondance d’informations (…) qui affaiblit notre vigilance…(…) Par le faible coût de cette diffusion et la démocratisation de l’apparence journalistique ». Il y a un dernier point qui m’a interpellée et que note le rapport : « le fait qu’Internet n’ait pas de frontière, et donc les puissances étrangères [peuvent] facilement y infiltrer des communautés et y répandre de fausses nouvelles ». Germain : Selon les experts, c’est une pratique que le gouvernement russe utiliserait par exemple abondamment depuis plusieurs années. Marine : Oui, à de nombreuses reprises l’appareil gouvernemental russe aurait utilisé des hashtags et des publications massives pour exacerber les tensions raciales aux États-Unis, notamment en 2020 durant le mouvement Black Lives Matter. A Saint-Pétersbourg il existe même une « usine à trolls », où des dizaines de jeunes sont payés pour créer du faux contenu, et inonder la toile d’articles, de blogs, de tweets pour influencer l’opinion. Selon le site indépendant The Conversation, « les faux comptes créent l’illusion que l’information est soutenue par plusieurs milliers voire millions de personnes, la rendant plus « fiable ». » Germain : Finalement, ils utilisent des techniques de marketing viral assez classiques et qui ne coûtent pas très cher à mettre en place.
Marine : Oui, la création d’un hashtag ou de pages Facebook, sont est utilisées pour susciter de l’émotion, alimenter les polémiques, et surfer sur des thématiques d’actualité. Là où ça devient dangereux, c’est quand ils sont utilisés à grande échelle pour tenter d’influencer le comportement des citoyens. Le but n’étant pas nécessairement de leur faire croire quelque chose en particulier, mais d’exacerber des tensions, et de répandre le doute dans les institutions démocratiques. Germain : Et en temps de pandémie, époque où nous passons tous plus de temps derrières des écrans, les risques de désinformation sont plus grands. Marine : Surtout que les théoriciens du complot redoublent d’effort pour que leur message passe, comme le montre le magazine MIT Technology Review. Je cite : « ils utilisent les mêmes techniques qui ont permis aux youtubeurs de devenir célèbres. » Robert F. Kennedy Junior, un américain qui propage l’idée fausse que les vaccins causeraient l’autisme, en est l’exemple. Youtube et Facebook l’ont exclu en 2018 de leurs plateformes. Germain : Mais sorti par la porte, le complotiste est revenu par la fenêtre. Marine : Oui, la MIT Technology Review explique qu’il a été invité pour de longues interviews sur la chaîne d’un autre youtubeur suivi par 2,2 millions d’abonnés. Résultat : plus d’un million de vues en deux jours. Et même si l’une des vidéos a été retirée quelques jours plus tard, l’info a eu largement le temps de circuler de façon massive. Germain : Ça me rappelle le cas du documentaire français Hold-Up. Marine : Tout à fait. Le documentaire stipulerait, selon le journal Le Monde, que « Le Covid-19 ne serait guère plus qu’une « grippette »… et que les citoyens du monde entier se seraient faits berner par une élite corrompue. » Même si par la suite, de nombreux médias ont démontré que certaines informations du documentaire étaient erronées, il a été vu 2,7 millions de fois en 6 jours. Germain : Dans ce cas-là aussi, le web a été amplificateur. Marine: Oui, entre autre une publication Instagram de l’actrice Sophie Marceau, forte de ses 500 000 abonnés, a grandement renforcé sa viralité. Germain : Mais peut-on dire pour autant que le web est une fabrique à complots ? Marine : Si le web en lui-même ne peut pas être blâmé pour tous les maux du monde – ce sont bien les utilisateurs qui en font cet usage –, on comprend que l'architecture de certaines plateformes comme Facebook ou Twitter favorise la diffusion de ces théories et leur reprise ensuite par les médias plus traditionnels. Un article récent publié dans The Atlantic décrypte: « A chaque fois que vous cliquez sur une bouton de réaction sur Facebook, un algorithme l’enregistre, et affine son portrait de qui vous êtes. Le micro-ciblage des utilisateurs, rendu possible par la collecte de leurs données personnelles, crée l’environnement parfait pour la manipulation - par des publicitaires, des campagnes politiques, des émissaires de la désinformation, et bien sûr, par Facebook même, qui, in fine, contrôle ce que vous voyez et ce que vous ne voyez pas sur le site ». Germain : La première conséquence de cela, c’est qu’on a l’impression que l’on voit tous la même information sur notre mur Facebook, alors que non. Chaque fil
d’actualité est différent selon ce que l’algorithme a choisi pour nous, ce qui crée ce fameux effet de bulle de filtre. Marine : Oui, et le deuxième mécanisme inquiétant c’est l’échelle de Facebook : le réseau contrôle des millions de pages d’actualité, c’est un potentiel danger pour le débat démocratique. The Atlantic note que : « Dans chaque situation de violence extrémiste que nous avons étudiée, nous avons retrouvé des posts Facebook. Et cela atteint énormément de personnes. La portée très large est ce qui (…) normalise l’extrémisme et le rend grand public ». Germain : Alors est-ce que Facebook et les autres réseaux ont pris des mesures pour limiter la circulation des théories du complot ? Marine : Ils ont un peu essayé, comme le rapporte le New York Times en novembre 2020. « Facebook a lancé une étude auprès de ses utilisateurs pour différencier les posts qui sont « bons pour la planète » de ceux qui sont « mauvais pour la planète ». Dans un premier temps Facebook a demandé à ses algorithmes d’enlever les posts perçus comme mauvais pour la planète. Mais avec ce résultat, je cite « cela a aussi fait diminuer le nombre de fois que les utilisateurs ont ouvert Facebook ». The Atlantic conclut donc que : « Facebook a calibré l’algorithme afin que juste assez de contenus dangereux soient laissé dans les actualités pour que les utilisateurs continuent à y revenir. » Germain : Alors Marine, comment agir pour limiter l’impact de la désinformation sur nos démocraties ? Marine : Et bien, l’Union Européenne et le parlement Britannique y travaillent notamment. En décembre 2020, les dirigeants européens ont proposé des régulations qui s’imposeraient à ces entreprises. Je cite le New York Times : « Les réglementations proposées par l’Union européenne obligeraient les entreprises à faire plus pour empêcher la propagation des discours haineux, et la vente de contrefaçons, et à donner plus d’informations sur la façon dont la publicité ciblée fonctionne. » Germain : C’est assez ambitieux comme régulation. Marine : Oui, mais les législateurs insistent sur le fait, je cite, qu’« une grande taille implique de grandes responsabilités ». Germain : Merci beaucoup Marine et merci à vous de nous avoir écoutés. Si cet épisode vous a plu, n’hésitez pas à le partager ou à nous laisser un commentaire sur votre application de podcast préférée. A bientôt ! Sources : The Prophecies of Q (The Atlantic) Rudy Reichstadt « Internet donne une chance historique aux complotistes de se développer » (Le 1) Les bots ne tweetent pas seulement en Anglais ! (Agence Science Presse) Les manipulations de l'information, un défi pour nos démocraties, rapport ministériel La désinformation russe sur les réseaux sociaux au temps du Covid-19 (The Conversation)
Les contre-vérités de « Hold-Up » documentaire à succès qui prétend dévoiler la face cachée de l’épidémie (Le Monde) How covid-19 conspiracy theorists are exploiting YouTube culture (MIT Technology Review) Facebook Is a Doomsday Machine (The Atlantic) Facebook Struggles To Balance Civility and Growth (The New York Times) Big Fines and Strict Rules Unveiled Against ‘Big Tech’ in Europe (The New York Times)
Vous pouvez aussi lire