Pour gérer vos consentements :
Categories: Cloud

Vie privée : séquence émotions sur Facebook

La teneur des messages que publient les utilisateurs de Facebook est-elle influencée par les contenus auxquels ces derniers sont exposés ?

Le réseau social y répond par l’affirmative, à l’appui d’une étude menée du 11 au 18 janvier 2012 avec des équipes de scientifiques issus des universités Cornell et de Californie à San Francisco. Les résultats de cette expérience jusqu’alors passée inaperçue ont été publiés ce 17 juin dans le numéro 111 de la revue américaine Compte rendus de l’Académie nationale des sciences (Proceedings of the National Academy of Sciences).

Près de 690 000 internautes anglophones en ont été les sujets. Il s’agissait d’examiner dans quelle mesure les réseaux sociaux pouvaient favoriser le phénomène dit de « contagion émotionnelle ». Dans cette optique, les chercheurs ont modifié – secrètement – les algorithmes de Facebook afin d’afficher, sur le fil d’actualité des cobayes, des informations au ton plus ou moins positif.

Les tests furent concluants. A mesure que l’on parcourait le spectre émotionnel, le comportement des utilisateurs évoluait. Ces derniers « ont ressenti les mêmes émotions [que leurs amis] sans en être conscientes ». De nombreuses recherches avaient déjà été menées en la matière, mais celle-ci est sans précédent de par son principe : modifier des données à la source.


Les auteurs de l’étude ont pris soin de préciser l’adéquation de leur procédé vis-à-vis de la politique de confidentialité en vigueur sur Facebook… et que les nouveaux membres acceptent explicitement lors de leur inscription. Sans remettre en cause la légalité d’une telle pratique, les grands médias américains qui s’en sont fait l’écho ce week-end ont émis de sérieuses réserves sur l’aspect éthique.

Les réactions ont fusé sur la Toile. Tantôt, l’expérience était qualifiée « d’alarmante » ; tantôt, de « démoniaque ». Plus d’un en a appelé à un boycott du réseau social, tout particulièrement face à la posture des deux universités, qui disent avoir approuvé les travaux en considérant qu’apparemment, Facebook « [manipulait] systématiquement le contenu des informations diffusées sur son site ».

Du côté des principaux intéressés, on souligne la « courte durée » de l’étude et le fait qu’aucune information n’était liée au compte d’une personne en particulier. La porte-parole qui s’est confiée à l’AFP évoque « une expérience nécessaire […] pour comprendre comment les individus répondent à différents types de contenus » et ainsi « améliorer les services de Facebook ».

Cette « contagion émotionnelle » vaut tout autant pour les sentiments positifs que négatifs.

—— A voir aussi ——
Quiz ITespresso.fr : connaissez-vous les principes du SMO ?

Crédit photo : Sukharevskyy Dmytro (nevodka) – Shutterstock.com

Recent Posts

Cybersécurité : attention aux QR codes dans les PDF

Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…

3 semaines ago

Windows 11 : une mise à jour majeure apporte de nouvelles fonctionnalités

Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…

2 mois ago

Microsoft 365 : comment Copilot se déploie dans toutes les applications

L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…

2 mois ago

PC Copilot + : Microsoft veut garder Recall

Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…

3 mois ago

Windows 11 : comment Microsoft va réduire la taille des mises à jour

Comment réduire la taille des mises à jour de Windows 11 ? Microsoft annonce la…

4 mois ago

Windows 11 : comment Bloc-notes va remplacer WordPad

Déjà doté de la sauvegarde automatique, d'un compteur de caractères et de Copilot, Bloc-notes embarque…

4 mois ago