Categories: Cloud

Vie privée : séquence émotions sur Facebook

La teneur des messages que publient les utilisateurs de Facebook est-elle influencée par les contenus auxquels ces derniers sont exposés ?

Le réseau social y répond par l’affirmative, à l’appui d’une étude menée du 11 au 18 janvier 2012 avec des équipes de scientifiques issus des universités Cornell et de Californie à San Francisco. Les résultats de cette expérience jusqu’alors passée inaperçue ont été publiés ce 17 juin dans le numéro 111 de la revue américaine Compte rendus de l’Académie nationale des sciences (Proceedings of the National Academy of Sciences).

Près de 690 000 internautes anglophones en ont été les sujets. Il s’agissait d’examiner dans quelle mesure les réseaux sociaux pouvaient favoriser le phénomène dit de « contagion émotionnelle ». Dans cette optique, les chercheurs ont modifié – secrètement – les algorithmes de Facebook afin d’afficher, sur le fil d’actualité des cobayes, des informations au ton plus ou moins positif.

Les tests furent concluants. A mesure que l’on parcourait le spectre émotionnel, le comportement des utilisateurs évoluait. Ces derniers « ont ressenti les mêmes émotions [que leurs amis] sans en être conscientes ». De nombreuses recherches avaient déjà été menées en la matière, mais celle-ci est sans précédent de par son principe : modifier des données à la source.


Les auteurs de l’étude ont pris soin de préciser l’adéquation de leur procédé vis-à-vis de la politique de confidentialité en vigueur sur Facebook… et que les nouveaux membres acceptent explicitement lors de leur inscription. Sans remettre en cause la légalité d’une telle pratique, les grands médias américains qui s’en sont fait l’écho ce week-end ont émis de sérieuses réserves sur l’aspect éthique.

Les réactions ont fusé sur la Toile. Tantôt, l’expérience était qualifiée « d’alarmante » ; tantôt, de « démoniaque ». Plus d’un en a appelé à un boycott du réseau social, tout particulièrement face à la posture des deux universités, qui disent avoir approuvé les travaux en considérant qu’apparemment, Facebook « [manipulait] systématiquement le contenu des informations diffusées sur son site ».

Du côté des principaux intéressés, on souligne la « courte durée » de l’étude et le fait qu’aucune information n’était liée au compte d’une personne en particulier. La porte-parole qui s’est confiée à l’AFP évoque « une expérience nécessaire […] pour comprendre comment les individus répondent à différents types de contenus » et ainsi « améliorer les services de Facebook ».

Cette « contagion émotionnelle » vaut tout autant pour les sentiments positifs que négatifs.

—— A voir aussi ——
Quiz ITespresso.fr : connaissez-vous les principes du SMO ?

Crédit photo : Sukharevskyy Dmytro (nevodka) – Shutterstock.com

Recent Posts

PC IA : les entreprises sont enthousiastes malgré quelques incertitudes

Les dernières migrations de Windows 10 vers Windows 11 vont accélérer l'adoption des PC IA. Mais des…

2 semaines ago

Digital Workplace : comment l’IA Générative s’installe dans l’environnement de travail

L’IA générative excelle dans plusieurs cas d’usage, notamment dans l’analyse, la recherche et la synthèse…

1 mois ago

PC Copilot+ : avec Arm ou x86 ?

Trop tôt pour envisager d'acquérir un PC Copilot+ ? Les roadmaps d'Intel et d'AMD peuvent…

2 mois ago

Copilot+ : une sélection de PC convertibles

Dévoilés lors du CES 2025, les PC Copilot+ au format convertible restent encore limitée dans…

2 mois ago

Avec Gemini intégré à Google Workspace, les prix s’envolent

Les fonctionnalités de Gemini sont intégrées dans la suite bureautique Google Workspace. Conséquence : les…

2 mois ago

PC Copilot+ : c’est parti pour la transformation du parc

Au CES 2025, les principaux constructeurs ont annoncé l'arrivée des ordinateurs de bureau dotés de…

3 mois ago