Des études menées par Meta et des chercheurs sur l’algorithme de Facebook montrent qu’il n’affecte pas les croyances politiques des utilisateurs. 

Démystification de l’algorithme Facebook : une étude infirme les effets sur les convictions 

Une percée significative dans la recherche a émergé à l’approche des élections américaines de 2020, remettant en question une notion largement répandue : celle selon laquelle l’algorithme de Facebook influençait les convictions politiques de ses utilisateurs. Les résultats d’un projet d’études d’envergure, fruit d’une collaboration entre Meta et un collectif de chercheurs issus d’universités américaines, ont été dévoilés.

Les chercheurs ont obtenu un accès privilégié aux données internes de l’entreprise, leur permettant de conduire une série d’expériences en altérant l’expérience en ligne des utilisateurs. Contre toute attente, leurs conclusions suggèrent que l’algorithme de Facebook n’a pas modifié l’opinion politique de ses membres, ébranlant ainsi certaines idées préconçues. 

Les algorithmes ont peu d’influence sur les croyances politiques des gens  

Quatre études percutantes viennent d’être rendues publiques dans les revues scientifiques de renom, Science et Nature, apportant un éclairage inattendu sur l’interaction entre les croyances politiques et l’algorithme de Facebook. Les maîtres d’œuvre de cette recherche, à savoir Talia Stroud de l’université du Texas à Austin et Joshua Tucker de l’université de New York, ont affirmé que l’algorithme exerce une influence significative sur l’expérience des utilisateurs sur la plateforme, régissant ce qu’ils voient et le temps qu’ils y passent.

Cependant, malgré cette influence, le changement temporaire de l’algorithme de Facebook semble avoir peu d’effet sur les opinions des individus, comme l’ont souligné les chercheurs. Les croyances politiques ont été évaluées au moyen de questionnaires remplis par les participants après leur participation aux expériences, lesquelles ont altéré le contenu visible sur leur page d’accueil. 

Les études dévoilent une perspective nuancée 

Les études menées par les chercheurs évoquent une réalité complexe, remettant en question les conceptions préconçues concernant l’impact de l’algorithme Facebook. Bien que la durée d’observation de trois mois puisse être perçue comme courte, compte tenu du renforcement progressif de la polarisation politique aux États-Unis sur plusieurs décennies, les experts reconnaissent qu’elle pourrait ne pas suffire pour détecter des effets significatifs. Les auteurs d’une de ces études ont souligné que ces résultats contredisent le discours courant, lequel attribue souvent aux bulles informationnelles des médias sociaux les maux actuels de la démocratie américaine. Cette remise en question de la perspective traditionnelle suggère une trame plus subtile dans l’influence de l’algorithme Facebook sur les croyances politiques. 

Une première observation réalisée auprès de 40 000 utilisateurs volontaires 

L’algorithme de Facebook, propulsé par l’apprentissage automatique pour personnaliser le contenu en fonction des préférences des utilisateurs, a longtemps été dans le viseur pour son rôle présumé dans l’accentuation de l’isolement idéologique et la propagation de la désinformation. Dans une tentative de démystification, la première étude a mobilisé environ 40 000 volontaires, attirés par des invitations affichées sur leurs pages Facebook et Instagram. Divisés en deux groupes, l’un a continué à naviguer avec l’algorithme Facebook standard tandis que l’autre s’est vu présenter un agencement chronologique des publications (les plus récentes en tête).

Ce retour à l’approche originelle de la plateforme sociale a suscité l’attention, car certains observateurs estiment que cette disposition pourrait contrebalancer les effets nocifs des médias sociaux. Les résultats ont révélé que le groupe sous le fil chronologique passait la moitié moins de temps sur les plateformes que ses homologues soumis à l’algorithme Facebook traditionnel. Une constatation qui alimente les discussions sur les ajustements possibles pour améliorer l’expérience en ligne des utilisateurs. 

Le réseau social de Meta au banc d’essais : effets de l’ordre chronologique sur la diversité et la fiabilité 

La réintroduction de l’ordre chronologique dans l’affichage des contenus sur le réseau social de Meta a engendré des résultats fascinants. Les abonnés ont été exposés à une plus grande variété de contenus provenant d’amis aux opinions plus modérées ainsi que de groupes et de pages présentant une diversité d’opinions.

Cependant, ce changement a également entraîné une hausse de la consommation de contenus politiques douteux et non fiables. Les implications de cette modification de l’algorithme Facebook ont été soigneusement scrutées, et malgré l’ampleur des ajustements, les chercheurs n’ont pas noté de transformations significatives dans les croyances politiques des utilisateurs. Jennifer Pan, co-autrice de l’étude et affiliée à l’université Stanford, a souligné que cela met en évidence le fait que l’ordre chronologique ne constitue pas une solution miracle pour contrer le problème de la polarisation politique. Une constatation qui alimente la réflexion sur les approches futures pour modeler le paysage numérique. 

Les contenus partagés : une piste explorable 

Une deuxième étude s’est attelée à déchiffrer l’influence des contenus partagés, qui représentent plus d’un quart du panorama affiché aux usagers. Avec un œil vers la gestion des contenus viraux, certains experts suggèrent que la suppression de ces partages issus d’amis pourrait être une piste à explorer. C’est cette hypothèse qui a été mise à l’épreuve dans une expérience menée auprès d’un groupe d’abonnés. Les résultats ont dévoilé que la proportion de publications liées à la politique s’est amoindrie sur la page d’accueil de ces participants. Cependant, à l’instar des conclusions précédentes, cet ajustement n’a pas laissé entrevoir d’altérations marquées dans les croyances politiques des utilisateurs par l’algorithme Facebook. Une découverte qui remet en question la conception traditionnelle de l’impact des partages sur les médias sociaux. 

Les publications issues de pages, de groupes ou d’autres usagers au cœur des observations 

Une troisième étude sur l’impact de l’algorithme Facebook s’est penchée sur l’influence des contenus provenant de pages, groupes ou utilisateurs partageant des opinions similaires, représentant la majeure partie de ce que les adultes américains voient sur la plateforme. À travers une expérience menée avec plus de 23 000 participants, la suppression de ces contenus a été testée, mais les résultats ont réitéré un constat déjà observé : l’impact sur l’extrémisme idéologique et la propension à croire en des affirmations erronées demeure insignifiant. Cette démarche a ainsi mis en évidence la résilience de certaines dynamiques en ligne, malgré les tentatives de manipulation de l’algorithme Facebook. Ces résultats stimulent la réflexion sur les moyens à prendre pour aborder de manière plus approfondie les effets des algorithmes sur la perception et les opinions des usagers. 

Décryptage des tendances : les opinions homogènes impactent les membres conservateurs 

Une quatrième étude a apporté une nuance à ce tableau en confirmant l’existence d’un « isolement idéologique » sur la plateforme sociale. Les chercheurs ont observé que les utilisateurs conservateurs étaient plus enclins à être enfermés dans des sphères d’opinions homogènes que leurs homologues de gauche.

En outre, une observation saisissante a émergé : près de 97 % des publications identifiées comme fausses par des programmes de vérification d’informations, parmi lesquels figure l’AFP, étaient davantage consultées par des conservateurs que par des progressistes.

Meta a accueilli ces conclusions avec satisfaction. Nick Clegg, responsable des affaires internationales du groupe, a souligné que ces découvertes s’ajoutent aux preuves grandissantes démontrant que l’algorithme de Facebook ainsi que les réseaux sociaux ne sont pas intrinsèquement responsables de la polarisation ou d’impact majeur sur les croyances et comportements politiques. Une affirmation qui suscite de nouvelles réflexions sur l’écosystème numérique en constante évolution. 

Avec ETX / DailyUp 

Article similaire