Dans un contexte où les réseaux sociaux jouent un rôle prépondérant dans la circulation de l’information, leur multiplication et la diversité des plateformes soulèvent des questions essentielles. Une étude récente menée par Mosleh, Allen et Rand explore comment l’orientation politique, la qualité des informations et les comportements d’engagement varient sur sept plateformes distinctes : Twitter (X), BlueSky, TruthSocial, Gab, GETTR, Mastodon, et LinkedIn.
Cette analyse met en lumière des dynamiques complexes et fournit des clés de compréhension essentielles pour aborder les enjeux contemporains liés à la désinformation et à la polarisation.
On vous explique.
Fragmentation des réseaux sociaux : vers des « plateformes-écho »
Historiquement, les grandes plateformes comme Facebook et Twitter étaient des points de convergence pour des millions d’utilisateurs. Cependant, avec l’évolution des préférences des utilisateurs et des changements dans les politiques de modération (notamment depuis l’acquisition de Twitter par Elon Musk), le paysage numérique tend à se diversifier. Des plateformes alternatives comme TruthSocial, Gab, BlueSky ou Mastodon ont émergé, chacune attirant un public spécifique avec des valeurs et des attentes particulières.
TruthSocial et Gab par exemple, attirent principalement des utilisateurs conservateurs et sceptiques vis-à-vis des politiques de modération stricte, alors que Mastodon et BlueSky privilégient des modèles sans algorithmes de recommandation, attirant ainsi des publics progressistes ou en quête d’espaces de discussions diversifiés.
Cette diversité a conduit à la formation de ce que les auteurs appellent des « plateformes-écho », où les interactions renforcent les croyances existantes des utilisateurs, amplifiant potentiellement la polarisation politique.
Méthodologie : analyser la diversité et l’engagement sur sept plateformes
L’étude s’est concentrée sur une période de collecte spécifique, janvier 2024, en analysant plus de 10 millions de publications contenant des liens vers des sources d’actualité. Deux dimensions clés ont été examinées : la qualité de l’information et l’orientation politique.
La qualité de l’information est évaluée par un système d’agrégation basé sur les évaluations de journalistes, fact-checkers et universitaires. Chaque source a été notée sur une échelle de 0 (faible qualité) à 1 (haute qualité).
L’Orientation politique quant à elle a été mesurée à l’aide d’outils d’IA avancés (GPT-4), qui ont attribué une note de -5 (très progressiste) à +5 (très conservateur) à chaque source.
En combinant ces mesures, les chercheurs ont analysé les relations entre la qualité des informations, leur orientation politique et l’engagement (likes, partages) généré par les utilisateurs.
Résultats principaux : une variation marquée entre les plateformes
Un premier constat frappant est la relation inverse entre l’orientation politique des plateformes et la qualité des contenus partagés. Les plateformes avec des bases d’utilisateurs conservateurs (comme Gab et TruthSocial) partagent proportionnellement plus de contenus de faible qualité. À l’inverse, les plateformes progressistes ou neutres (comme Mastodon et LinkedIn) favorisent les contenus de meilleure qualité.
Cependant, malgré cette corrélation, la majorité des contenus partagés sur l’ensemble des plateformes reste de qualité élevée, mais ces contenus génèrent un engagement souvent inférieur à celui des contenus de faible qualité.
Les chercheurs ont également constaté que l’engagement (likes et partages) varie selon la concordance entre l’orientation politique d’une publication et celle de la plateforme. Les contenus alignés avec la dominante politique de la plateforme suscitent davantage de réactions. Autrement dit, sur les plateformes conservatrices (Gab, TruthSocial), les contenus de droite reçoivent significativement plus d’engagement, alors que sur les plateformes progressistes (Mastodon, LinkedIn) les contenus de gauche suscitent davantage d’interactions.
Cette dynamique confirme l’existence de chambres d’écho renforcées, où les utilisateurs interagissent principalement avec des contenus qui confortent leurs opinions existantes. On retrouve ici une manifestation du biais de confirmation qui va pousser une personne à ne se confronter qu’à des contenus qui confirment ce en quoi elle croit, ou ce en quoi elle a envie de croire (exposition sélective).
Enfin, un des résultats les plus intrigants de l’étude est que, sur toutes les plateformes étudiées, les contenus de faible qualité génèrent un engagement supérieur à celui des contenus de haute qualité, et ce même en l’absence d’algorithmes de recommandation. Cette tendance pourrait s’expliquer par des préférences intrinsèques des utilisateurs pour des contenus sensationnels, polarisants ou émotionnellement marquants.
Par exemple, sur Mastodon (une plateforme dépourvue d’algorithmes favorisant l’engagement), les contenus de faible qualité attirent tout de même davantage de réactions. Cela suggère que l’engagement élevé pour ces contenus n’est pas uniquement dû aux algorithmes, mais reflète des préférences utilisateur.
Cette appétence particulière pour ce type de contenu a déjà été étudiée dans le cadre des rumeurs, des légendes, des informations télévisées et n’est donc pas à proprement parlé une nouveauté.
Implications pour la désinformation et la qualité de l’information
L’étude met en évidence un double paradoxe dans le paysage numérique actuel. Tout d’abord, les contenus de haute qualité sont largement partagés, ce qui indique une prévalence accrue d’informations fiables sur les réseaux sociaux. Deuxièmement, les contenus de faible qualité génèrent toutefois une part disproportionnée de l’engagement total, ce qui reflète une tendance préoccupante de l’audience à privilégier des contenus moins fiables.
Cette réalité complique la lutte contre la désinformation, car les plateformes doivent jongler entre la promotion de contenus qualitatifs et la nécessité de répondre aux préférences de leurs utilisateurs pour des contenus plus engageants.
Contrairement à l’idée reçue selon laquelle les algorithmes seraient les principaux responsables de la diffusion de la désinformation, cette étude démontre que la préférence des utilisateurs pour des contenus de faible qualité joue un rôle clé. Des facteurs comme la nouveauté, l’émotion ou le caractère controversé des informations pourraient expliquer cette tendance.
Cependant, il est essentiel de noter que les grands médias de haute qualité (New York Times, Washington Post, etc.) souffrent d’une relative sous-performance en termes d’engagement, ce qui pourrait découler d’un manque de « viralité » perçue dans leurs contenus.
Cette étude comporte néanmoins certaines limites, concernant notamment l’échantillonnage temporel et géographique. En effet, l’analyse se concentre sur une période unique et courte (janvier 2024) et exclut certaines plateformes majeures comme Facebook en raison de limitations d’accès aux données. Les résultats pourraient donc varier avec le temps ou sur d’autres plateformes.
Bien que l’étude fournisse une vue d’ensemble précieuse, la diversité croissante des plateformes numériques suggère que des recherches supplémentaires sont nécessaires pour mieux comprendre les dynamiques propres à chaque écosystème.
Conclusion : repenser la diversité et la fragmentation des réseaux sociaux
Cette étude anglo-américaine souligne l’importance de considérer les réseaux sociaux comme des écosystèmes variés, où chaque plateforme possède ses propres dynamiques en matière de qualité et d’engagement. Alors que la fragmentation continue d’évoluer, il devient crucial d’adopter une approche nuancée pour analyser et comprendre ces tendances.