L'adhésion et la propagation de l'infoxcomplotisme (un mélange d'infox ou fausses informations, et de théories du complot) sont significativement influencées par les effets de groupe et la structure même de l'environnement numérique. Les réseaux sociaux, conçus pour connecter les gens, peuvent paradoxalement les enfermer dans des bulles informationnelles, où la désinformation et les théories du complot prospèrent. Voici une analyse détaillée des mécanismes en jeu :
Les algorithmes des réseaux sociaux sont conçus pour personnaliser l'expérience utilisateur en affichant du contenu que l'utilisateur est susceptible d'apprécier ou avec lequel il est susceptible d'interagir. Cette personnalisation, bien qu'elle vise à améliorer l'engagement, crée des "chambres d'écho" et des "bulles de filtre".
Dans une chambre d'écho, les individus sont exposés de manière répétée à des informations qui confirment leurs croyances existantes, tandis que les points de vue divergents sont minimisés ou exclus. Cela renforce la polarisation, car les utilisateurs deviennent de plus en plus convaincus de la justesse de leurs opinions, même si elles sont basées sur des informations erronées ou incomplètes. Par exemple, une personne qui commence à s'intéresser à une théorie du complot sur la vaccination peut se retrouver inondée de contenus similaires, renforçant sa méfiance envers les vaccins et l'isolant des informations scientifiques fiables.
Les réseaux sociaux utilisent des indicateurs d'engagement – likes, partages, commentaires – pour signaler la popularité et la crédibilité d'une information. Cependant, ces indicateurs peuvent être manipulés ou mal interprétés, conduisant à une "validation sociale" de l'infoxcomplotisme.
Lorsqu'une publication contenant de fausses informations reçoit un grand nombre de likes ou de partages, elle peut sembler crédible aux yeux des utilisateurs, même si elle est factuellement incorrecte. Cela est particulièrement vrai pour les personnes qui manquent de compétences en littératie médiatique ou qui sont déjà prédisposées à croire en des théories du complot. L'affaire du "Pizzagate" en 2016, où une fausse théorie du complot impliquant une pizzeria à Washington D.C. dans un réseau de trafic d'enfants a gagné en popularité grâce aux partages sur les réseaux sociaux, illustre ce phénomène. Malgré le manque de preuves, la théorie a été validée par un nombre suffisant de personnes en ligne pour inciter un individu à se rendre à la pizzeria et à tirer avec une arme à feu.
Les groupes en ligne, qu'il s'agisse de groupes Facebook, de forums ou de communautés sur d'autres plateformes, exercent une pression normative sur leurs membres. Pour être acceptés et éviter l'exclusion, les individus ont tendance à se conformer aux croyances et aux comportements du groupe, même s'ils ont des doutes ou des réserves. Cela peut conduire à une adhésion accrue à l'infoxcomplotisme, car les membres du groupe peuvent se sentir obligés de croire et de partager des informations fausses ou trompeuses pour maintenir leur statut social.
Par exemple, dans les groupes anti-vaccination, les membres peuvent être ostracisés ou exclus s'ils expriment des opinions favorables à la vaccination, ce qui les incite à adopter et à promouvoir des théories du complot sur les vaccins, même si elles sont contraires aux preuves scientifiques.
La logique des plateformes de réseaux sociaux, axée sur l'engagement utilisateur, peut favoriser un "engagement progressif" vers des contenus de plus en plus radicaux. Les algorithmes, conçus pour recommander du contenu pertinent, peuvent entraîner les utilisateurs vers des contenus extrêmes ou conspirationnistes s'ils montrent un intérêt initial pour des sujets connexes.
Une personne qui regarde une vidéo sur une théorie du complot mineure peut se voir recommander des vidéos de théories plus extrêmes, créant une "pente savonneuse" de radicalisation. Ce phénomène a été observé dans le contexte de QAnon, où des individus ont commencé par s'intéresser à des théories marginales avant d'être entraînés dans un réseau complexe de croyances conspirationnistes de plus en plus délirantes.
Voici quelques exemples concrets qui illustrent comment les effets de groupe et l'environnement numérique contribuent à la diffusion de l'infoxcomplotisme :
Théorie du Complot | Plateforme Principale de Diffusion | Effets de Groupe Observés | Conséquences |
---|---|---|---|
La Terre est plate | YouTube, Facebook, Forums | Chambres d'écho, validation sociale par le nombre de vues et de commentaires, pression pour se conformer aux croyances du groupe. | Organisation de conférences et d'événements, harcèlement des scientifiques, remise en question de l'éducation scientifique. |
QAnon | Facebook, Twitter, Forums, YouTube | Engagement progressif via les algorithmes, validation sociale par les "likes" et les partages, pression normative pour adopter les croyances du groupe. | Participation à l'assaut du Capitole des États-Unis, harcèlement en ligne, désinformation sur la pandémie de COVID-19. |
Théories anti-vaccination | Facebook, Instagram, Telegram | Bulles de filtre, validation sociale par les partages, pression normative pour se conformer aux croyances anti-vaccins. | Baisse des taux de vaccination, propagation de maladies évitables, méfiance envers les autorités de santé publique. |
Les médias sociaux peuvent aider à créer une identité partagée en radicalisant les théories du complot, agissant comme une chambre d'écho pour de telles croyances. Les caractéristiques fondamentales des médias sociaux jouent un rôle essentiel dans la construction et le renforcement des chambres d'écho identitaires. Ces informations sont donc rapidement visibles pour les adeptes ou les membres d'un forum, qui peuvent ensuite être visibles par le biais de hashtags et via les algorithmes utilisés par certaines plateformes. De plus, les communautés axées sur les théories du complot se développent et se répandent en ligne.
Plus que jamais, le développement de la littératie médiatique et des compétences de pensée critique qui peuvent aider les citoyens à évaluer la crédibilité et la validité des sources d'information en ligne est devenu un défi essentiel. Ces compétences comprennent l'analyse, la synthèse, la mise en contraste des preuves et des options pour repérer les défauts et les incohérences, entre autres. Il est également important de s'attaquer aux problèmes sociaux sous-jacents qui peuvent contribuer à la propagation des théories du complot.
L'effet de chambre d'écho se produit lorsque les individus sont exposés de manière répétée à des informations qui confirment leurs croyances existantes, tandis que les points de vue divergents sont minimisés ou exclus.
Les algorithmes des réseaux sociaux sont conçus pour personnaliser l'expérience utilisateur en affichant du contenu que l'utilisateur est susceptible d'apprécier ou avec lequel il est susceptible d'interagir. Cela peut entraîner les utilisateurs vers des contenus extrêmes ou conspirationnistes s'ils montrent un intérêt initial pour des sujets connexes.
La validation sociale, par le biais des "likes", des partages et des commentaires, peut donner une apparence de crédibilité à des informations fausses ou trompeuses, incitant les utilisateurs à y croire.
La pression normative de groupe peut inciter les individus à se conformer aux croyances et aux comportements du groupe pour être acceptés et éviter l'exclusion, même s'ils ont des doutes ou des réserves.