Les algorithmes de X influencent-ils nos opinions politiques ?

Vous le savez probablement, parmi nos grandes préoccupations, il y a l’influence que peuvent avoir les algorithmes sur nos opinions. Nous avons déjà eu l’occasion de présenter certains mécanismes utiliser par les Big Tech pour modifier, orienter, polariser nos croyances [article] [article].

Les réseaux sociaux jouent aujourd’hui un rôle central dans la manière dont nous nous informons. Aux États-Unis, une part importante des adultes déclare s’informer au moins en partie via les plateformes sociales. Chez les adolescents, la tendance est la même puisque plus d’un jeune sur 2 s’informe quotidiennement sur les réseaux sociaux numériques [site]. Cette dernière constatation est souvent un argument utilisé par les opposants à l’interdiction des réseaux sociaux pour les adolescents.

Une question mérite alors d’être placée au cœur des débats : les algorithmes qui sélectionnent et hiérarchisent les contenus influencent-ils réellement nos opinions politiques ?

Une étude récente publiée dans Nature apporte des éléments de réponse en s’intéressant à la plateforme X (anciennement Twitter). Contrairement à plusieurs travaux antérieurs menés sur d’autres réseaux sociaux, cette recherche montre que l’algorithme de recommandation de X peut bel et bien modifier certaines attitudes politiques — mais de façon asymétrique et subtile.

On vous raconte.

opinions politiques

Fil chronologique ou fil algorithmique : quelle différence ?

L’étude, est réalisée en 2023. Sur X, les utilisateurs peuvent alors choisir entre deux modes d’affichage :

  • Le fil chronologique (“Following”) : les messages des comptes suivis apparaissent dans l’ordre de publication.
  • Le fil algorithmique (“For you”) : un algorithme sélectionne et classe les contenus, y compris ceux provenant de comptes que l’utilisateur ne suit pas.

Avant l’ère des algorithmes, tous les fils étaient chronologiques. Aujourd’hui, l’algorithme joue un rôle central : il décide quels messages sont mis en avant, lesquels sont relégués au second plan, et quels nouveaux comptes sont suggérés.

Une expérience grandeur nature

Pour mesurer l’impact réel de cet algorithme, les chercheurs ont mené une expérience contrôlée durant l’été 2023 auprès de près de 5 000 utilisateurs américains actifs de X. Les participants ont été répartis aléatoirement en deux groupes pendant sept semaines :

  • certains ont été assignés au fil algorithmique ;
  • d’autres au fil chronologique.

L’intérêt de cette méthode est qu’elle permet de comparer directement les effets du “passage à l’algorithme” (l’allumer) et du “retour au chronologique” (l’éteindre).

Les chercheurs ont mesuré plusieurs variables avant et après l’expérience : niveau d’engagement sur la plateforme, priorités politiques, opinions sur des événements d’actualité, polarisation affective (antipathie envers le camp opposé), identification partisane, et même bien-être subjectif.

Premier constat : l’algorithme augmente l’engagement

Sans surprise, le fil algorithmique rend les utilisateurs plus actifs. Ceux qui sont passés du fil chronologique au fil algorithmique ont davantage maintenu ou augmenté leur usage de la plateforme.

L’analyse du contenu explique en partie ce phénomène : les messages promus par l’algorithme reçoivent beaucoup plus de likes, de partages et de commentaires. Autrement dit, l’algorithme privilégie les contenus déjà fortement engageants.

Mais ce n’est pas tout.

Un biais conservateur dans les contenus promus

L’un des résultats majeurs de l’étude est que l’algorithme de X favorise davantage les contenus conservateurs que les contenus libéraux (on s’en doutait déjà).

Plus précisément :

  • les publications politiques conservatrices apparaissent plus souvent dans le fil algorithmique que dans le fil chronologique ;
  • les contenus issus de médias traditionnels sont moins mis en avant ;
  • les publications de militants politiques (notamment conservateurs) sont davantage promues.

Il est important de noter que ce biais s’observe aussi bien chez les utilisateurs démocrates que républicains. Même les utilisateurs se déclarant démocrates voient proportionnellement plus de contenus conservateurs dans leur fil algorithmique que dans leur fil chronologique.

opinions politiques

Des effets mesurables sur certaines opinions

L’exposition pendant sept semaines au fil algorithmique a eu des effets significatifs, mais ciblés.

Chez les utilisateurs initialement en fil chronologique, le passage à l’algorithme a entraîné :

  • une plus grande priorité accordée à des thèmes associés au Parti républicain (immigration, criminalité, inflation) ;
  • une probabilité accrue de considérer les poursuites judiciaires contre Donald Trump comme injustes ou politiquement motivées ;
  • des attitudes plus critiques envers l’Ukraine dans la guerre l’opposant à la Russie.

En revanche, l’algorithme n’a pas modifié :

  • l’identification partisane (se dire démocrate ou républicain) ;
  • la polarisation affective (le degré d’antipathie envers le camp opposé) ;
  • le niveau de satisfaction dans la vie.

Les effets observés sont donc spécifiques : ils touchent les priorités politiques et les opinions sur l’actualité, mais pas les appartenances partisanes profondes.

Une asymétrie frappante : allumer change, éteindre ne corrige pas

L’un des résultats les plus intrigants est l’asymétrie des effets.

Passer du fil chronologique au fil algorithmique modifie certaines opinions.

Mais l’inverse (passer de l’algorithme au chronologique) n’a quasiment aucun effet.

Pourquoi ? Les chercheurs avancent une explication comportementale : l’algorithme ne se contente pas de montrer du contenu, il influence aussi les comptes que les utilisateurs choisissent de suivre.

Durant l’expérience, les participants exposés à l’algorithme ont commencé à suivre davantage de comptes militants conservateurs. Une fois ces comptes suivis, leurs publications apparaissent même en mode chronologique.

Autrement dit, l’algorithme modifie l’écosystème informationnel de l’utilisateur de façon durable. Éteindre l’algorithme ne supprime pas les nouveaux abonnements.

Ce mécanisme pourrait expliquer pourquoi des études précédentes menées sur d’autres plateformes n’avaient pas détecté d’effets politiques en “désactivant” l’algorithme : si l’exposition passée a déjà façonné les abonnements, le retour au chronologique ne change plus grand-chose.

Pourquoi pas d’effet sur la polarisation ?

Un point important : malgré le biais observé dans la promotion des contenus, l’étude ne trouve pas d’augmentation de la polarisation affective.

Cela suggère que certaines attitudes — comme le rejet du camp opposé (sont relativement stables et difficiles à modifier à court terme). En revanche, les priorités politiques ou les jugements sur l’actualité semblent plus malléables.

Cette distinction est essentielle : elle montre que les algorithmes peuvent influencer l’agenda mental des utilisateurs sans nécessairement transformer leur identité politique.

Des résultats à contextualiser

Les auteurs soulignent plusieurs limites :

  • Les effets observés concernent X en 2023, dans un contexte politique particulier.
  • Les algorithmes évoluent en permanence.
  • L’étude porte sur des utilisateurs actifs ; les effets pourraient être plus faibles chez des utilisateurs occasionnels.
  • Des différences non observées entre les groupes (traits de personnalité, par exemple) pourraient aussi jouer un rôle.

Enfin, le contexte spécifique de X après son rachat par Elon Musk peut influencer la nature des contenus promus.

opinions politiques

Conclusion

Cette étude apporte une contribution importante au débat sur l’impact politique des réseaux sociaux.

Elle montre que :

  1. Les algorithmes peuvent influencer certaines opinions politiques.
  2. L’effet peut être asymétrique : l’exposition initiale compte davantage que son retrait.
  3. Les algorithmes agissent indirectement en influençant les comptes que nous choisissons de suivre.
  4. Toutes les attitudes politiques ne sont pas également sensibles à l’exposition algorithmique.

En somme, les algorithmes ne transforment pas nécessairement les démocrates en républicains (ou inversement), mais ils peuvent orienter l’attention, modifier les priorités et infléchir les jugements sur l’actualité.

À l’heure où les plateformes numériques sont devenues des acteurs majeurs de l’espace public, comprendre ces mécanismes est crucial. Les algorithmes ne sont pas de simples outils techniques : ce sont aussi des architectures invisibles qui façonnent, progressivement, notre environnement informationnel et (peut-être), nos opinions.

Il convient donc de tenir compte de ces considérations sociales et éthiques dans les choix des politiques publiques concernant la régulation et les conditions d’accès à ces réseaux sociaux numériques