Le Mémo - Épisode 24 - Orange Com

La page est créée Emma Leroux
 
CONTINUER À LIRE
Le Mémo – Épisode 24
Désinformation : le Web est-il une fabrique à complots ?

Germain : En 2016, Edgar Maddison Welch, un américain de 28 ans rentre dans
une pizzeria de Washington. Dans ses mains, 3 armes à feu. Avec un fusil d’assaut,
il tire sur la porte du local informatique du restaurant. Qu’espère-t-il trouver
derrière ? Les preuves d’un trafic massif d’enfants. Selon une rumeur qu’il a vu
naître sur internet pendant la campagne présidentielle, cette pizzeria servirait de
plateforme à une organisation pédophile. Et pourtant, derrière la porte… Il ne trouve
qu’un porte-manteau et un placard avec un ordinateur que le personnel utilise pour
mettre de la musique. Cet homme qui voulait « mener son enquête » finira par
écoper de 4 ans de prison ferme. Tout ça à cause d’une théorie qu’il avait lue en
ligne. Bonjour Marine !

Marine : Bonjour Germain.

Germain : Comme cette histoire tragique le montre, les théories qui naissent en
ligne peuvent parfois avoir des conséquences dans la vie… réelle. Alors, comment
passe-t-on d’une fausse information sur le web à une descente armée dans une
pizzeria familiale ? Comment ces théories du complot naissent et s’amplifient en
ligne ? L’architecture des plateformes du web favorise-t-elle la propagation des
rumeurs ? C’est ce que nous allons explorer dans ce nouvel épisode du Mémo.

Marine : Pour commencer, les théories du complot sont vieilles comme le monde.
Des théories ont germé sur la peste noire, les attentats du 11 septembre, ou encore
les premiers pas sur la Lune.

Germain : Mais comme moi, tu remarques que de nouvelles théories du complot
prolifèrent un peu partout ces dernières années.

Marine : Oui, comme on l’a vu pour le père de famille américain désormais en
prison, ces théories trouvent un écho grandissant dans la population, alors qu’elles
naissent souvent dans des recoins plutôt sombres du net. Par exemple, cette
rumeur de grand complot des élites démocrates impliquées dans un réseau de
pédophiles provient de 4Chan, un forum assez populaire dans le monde anglo-
saxon. A l’origine de cette rumeur, un certain Q. Personne ne sait qui c’est, ni même
si c’est une vraie personne. Mais il a forgé une communauté autour de son mythe :
les QAnon.

Germain : Anon provenant « d’anonyme » mais c’est aussi la manière dont on
s’invective sur 4chan entre posteurs anonyme…

Marine : C’est d’ailleurs ce qui fait la particularité de ce mouvement, il est
immatériel et anonyme. Selon le magazine américain The Atlantic, « QAnon n’est
pas lié à un endroit physique, mais il a une infrastructure, une littérature, des
membres de plus en plus nombreux, et beaucoup de marchandise à vendre. (…)
Pour QAnon, toutes les contradictions peuvent être justifiées, aucun argument
contre ne peut triompher ».
Germain : Et à la différence des complots historiques, aujourd’hui, la rumeur court
vite, très vite.

Marine : Oui, avec internet, ce qui est crucial, c’est la capacité pour une rumeur à
devenir virale. Et à être plus rapide que les médias traditionnels. Ça, les
conspirationnistes l’ont bien compris. Dans une interview donnée au Figaro en
2019, consacré à l’analyse critique du conspirationnisme, Rudy Reichstadt,
directeur du site ConspiracyWatch.info explique que : « Les réseaux sociaux, leurs
algorithmes, les smartphones ont créé des conditions particulièrement propices au
retour de la pensée magique ».

Germain : Quelles sont ces conditions qu’il évoque ? Je veux dire, concrètement,
les plateformes du web aident vraiment à propager la désinformation ?

Marine : Pour qu’une désinformation soit efficace, elle doit se propager
massivement. C’est là que les bots entrent en scène. Un bot, contraction de robot
en anglais, est un logiciel opérant de manière autonome et automatique, qui
effectue des tâches précises et répétées. Un bot peut donc gérer un compte Twitter
ou Facebook, créer des hashtags, retweeter ses propres publications toute la
journée, et influencer l’actualité. Selon l’agence Québécoise Science Presse, « Des
chercheurs de l’Université Carnegie Mellon, aux États-Unis, ont analysé plus de 200
millions de tweets au sujet de la Covid-19. Leur constat : 45% des auteurs de ces
messages semblaient être des comptes robotisés conçus uniquement pour
répandre des théories du complot, de fausses nouvelles et autres messages
néfastes ou trompeurs. »

Germain : Cela voudrait dire que presque la moitié de ce que je vois sur Twitter
proviendrait d’un robot ? Étonnant. Voir détonant…

Marine : Pour comprendre les risques, je te conseille un rapport fascinant publié
conjointement par le ministère de l’Europe et des Affaires Etrangères, et le ministère
des Armées. Le risque de manipulation de l’information aurait considérablement
augmenté avec la prolifération des plateformes numériques : « par la surabondance
d’informations (…) qui affaiblit notre vigilance…(…) Par le faible coût de cette
diffusion et la démocratisation de l’apparence journalistique ». Il y a un dernier point
qui m’a interpellée et que note le rapport : « le fait qu’Internet n’ait pas de frontière,
et donc les puissances étrangères [peuvent] facilement y infiltrer des communautés
et y répandre de fausses nouvelles ».

Germain : Selon les experts, c’est une pratique que le gouvernement russe
utiliserait par exemple abondamment depuis plusieurs années.

Marine : Oui, à de nombreuses reprises l’appareil gouvernemental russe aurait
utilisé des hashtags et des publications massives pour exacerber les tensions
raciales aux États-Unis, notamment en 2020 durant le mouvement Black Lives
Matter. A Saint-Pétersbourg il existe même une « usine à trolls », où des dizaines
de jeunes sont payés pour créer du faux contenu, et inonder la toile d’articles, de
blogs, de tweets pour influencer l’opinion. Selon le site indépendant The
Conversation, « les faux comptes créent l’illusion que l’information est soutenue par
plusieurs milliers voire millions de personnes, la rendant plus « fiable ». »

Germain : Finalement, ils utilisent des techniques de marketing viral assez
classiques et qui ne coûtent pas très cher à mettre en place.
Marine : Oui, la création d’un hashtag ou de pages Facebook, sont est utilisées
pour susciter de l’émotion, alimenter les polémiques, et surfer sur des thématiques
d’actualité. Là où ça devient dangereux, c’est quand ils sont utilisés à grande
échelle pour tenter d’influencer le comportement des citoyens. Le but n’étant pas
nécessairement de leur faire croire quelque chose en particulier, mais d’exacerber
des tensions, et de répandre le doute dans les institutions démocratiques.

Germain : Et en temps de pandémie, époque où nous passons tous plus de temps
derrières des écrans, les risques de désinformation sont plus grands.

Marine : Surtout que les théoriciens du complot redoublent d’effort pour que leur
message passe, comme le montre le magazine MIT Technology Review. Je
cite : « ils utilisent les mêmes techniques qui ont permis aux youtubeurs de devenir
célèbres. » Robert F. Kennedy Junior, un américain qui propage l’idée fausse que
les vaccins causeraient l’autisme, en est l’exemple. Youtube et Facebook l’ont exclu
en 2018 de leurs plateformes.

Germain : Mais sorti par la porte, le complotiste est revenu par la fenêtre.

Marine : Oui, la MIT Technology Review explique qu’il a été invité pour de longues
interviews sur la chaîne d’un autre youtubeur suivi par 2,2 millions d’abonnés.
Résultat : plus d’un million de vues en deux jours. Et même si l’une des vidéos a été
retirée quelques jours plus tard, l’info a eu largement le temps de circuler de façon
massive.

Germain : Ça me rappelle le cas du documentaire français Hold-Up.

Marine : Tout à fait. Le documentaire stipulerait, selon le journal Le Monde, que
« Le Covid-19 ne serait guère plus qu’une « grippette »… et que les citoyens du
monde entier se seraient faits berner par une élite corrompue. » Même si par la
suite, de nombreux médias ont démontré que certaines informations du
documentaire étaient erronées, il a été vu 2,7 millions de fois en 6 jours.

Germain : Dans ce cas-là aussi, le web a été amplificateur.

Marine: Oui, entre autre une publication Instagram de l’actrice Sophie Marceau,
forte de ses 500 000 abonnés, a grandement renforcé sa viralité.

Germain : Mais peut-on dire pour autant que le web est une fabrique à complots ?

Marine : Si le web en lui-même ne peut pas être blâmé pour tous les maux du
monde – ce sont bien les utilisateurs qui en font cet usage –, on comprend que
l'architecture de certaines plateformes comme Facebook ou Twitter favorise la
diffusion de ces théories et leur reprise ensuite par les médias plus traditionnels. Un
article récent publié dans The Atlantic décrypte: « A chaque fois que vous cliquez
sur une bouton de réaction sur Facebook, un algorithme l’enregistre, et affine son
portrait de qui vous êtes. Le micro-ciblage des utilisateurs, rendu possible par la
collecte de leurs données personnelles, crée l’environnement parfait pour la
manipulation - par des publicitaires, des campagnes politiques, des émissaires de la
désinformation, et bien sûr, par Facebook même, qui, in fine, contrôle ce que vous
voyez et ce que vous ne voyez pas sur le site ».

Germain : La première conséquence de cela, c’est qu’on a l’impression que l’on voit
tous la même information sur notre mur Facebook, alors que non. Chaque fil
d’actualité est différent selon ce que l’algorithme a choisi pour nous, ce qui crée ce
fameux effet de bulle de filtre.

Marine : Oui, et le deuxième mécanisme inquiétant c’est l’échelle de Facebook : le
réseau contrôle des millions de pages d’actualité, c’est un potentiel danger pour le
débat démocratique. The Atlantic note que : « Dans chaque situation de violence
extrémiste que nous avons étudiée, nous avons retrouvé des posts Facebook. Et
cela atteint énormément de personnes. La portée très large est ce qui (…)
normalise l’extrémisme et le rend grand public ».

Germain : Alors est-ce que Facebook et les autres réseaux ont pris des mesures
pour limiter la circulation des théories du complot ?

Marine : Ils ont un peu essayé, comme le rapporte le New York Times en novembre
2020. « Facebook a lancé une étude auprès de ses utilisateurs pour différencier les
posts qui sont « bons pour la planète » de ceux qui sont « mauvais pour la
planète ». Dans un premier temps Facebook a demandé à ses algorithmes
d’enlever les posts perçus comme mauvais pour la planète. Mais avec ce résultat, je
cite « cela a aussi fait diminuer le nombre de fois que les utilisateurs ont ouvert
Facebook ». The Atlantic conclut donc que : « Facebook a calibré l’algorithme afin
que juste assez de contenus dangereux soient laissé dans les actualités pour que
les utilisateurs continuent à y revenir. »

Germain : Alors Marine, comment agir pour limiter l’impact de la désinformation sur
nos démocraties ?

Marine : Et bien, l’Union Européenne et le parlement Britannique y travaillent
notamment. En décembre 2020, les dirigeants européens ont proposé des
régulations qui s’imposeraient à ces entreprises. Je cite le New York Times : « Les
réglementations proposées par l’Union européenne obligeraient les entreprises à
faire plus pour empêcher la propagation des discours haineux, et la vente de
contrefaçons, et à donner plus d’informations sur la façon dont la publicité ciblée
fonctionne. »

Germain : C’est assez ambitieux comme régulation.

Marine : Oui, mais les législateurs insistent sur le fait, je cite, qu’« une grande taille
implique de grandes responsabilités ».

Germain : Merci beaucoup Marine et merci à vous de nous avoir écoutés. Si cet
épisode vous a plu, n’hésitez pas à le partager ou à nous laisser un commentaire
sur votre application de podcast préférée. A bientôt !

Sources :
    The Prophecies of Q (The Atlantic)
    Rudy Reichstadt « Internet donne une chance historique aux complotistes de se
      développer » (Le 1)
    Les bots ne tweetent pas seulement en Anglais ! (Agence Science Presse)
    Les manipulations de l'information, un défi pour nos démocraties, rapport
      ministériel
    La désinformation russe sur les réseaux sociaux au temps du Covid-19 (The
      Conversation)
   Les contre-vérités de « Hold-Up » documentaire à succès qui prétend
    dévoiler la face cachée de l’épidémie (Le Monde)
   How covid-19 conspiracy theorists are exploiting YouTube culture (MIT
    Technology Review)
   Facebook Is a Doomsday Machine (The Atlantic)
   Facebook Struggles To Balance Civility and Growth (The New York Times)
   Big Fines and Strict Rules Unveiled Against ‘Big Tech’ in Europe (The New York
    Times)
Vous pouvez aussi lire