Facebook fait la lumière sur son traitement de l’actualité
Facebook se défend de tout biais idéologique sur la sélection des « Trending topics », malgré une intervention humaine en complément aux algorithmes.
Facebook est sur la défensive dans l’affaire des « Trending topics ».
Le réseau social est accusé d’avoir introduit, a minima aux États-Unis, un biais politique dans ces « sujets populaires » qui ont leur encart dédié, sur la droite du flux d’actualités.
Gizmodo a allumé la mèche en début de semaine, s’appuyant sur les déclarations d’un ex-employé de Facebook qui aurait pointé du doigt deux pratiques.
D’une part, le fait de faire remonter « artificiellement » certains sujets jugés dignes d’intérêt, mais que l’algorithme associé aux « Trending topics » n’a pas mis en avant. D’autre part, le traitement particulier de certains contenus à tendance conservatrice, afin qu’ils n’apparaissent pas dans le module.
Le dossier est remonté jusqu’au Sénat américain, qui a adressé, via son Comité au commerce, aux sciences et aux transports, une lettre à Mark Zuckerberg.
Branle-bas de combat
Le CEO et fondateur de Facebook a réagi publiquement.
Exprimant le souhait de s’entretenir avec les conservateurs et plus globalement la sphère politique, il explique : « Nous nous sommes engagés à développer une plate-forme où toutes les idées peuvent s’exprimer. […] De rigoureuses mesures ont été mises en place pour s’assurer qu’aucun point de vue ne soit priorisé ».
Justin Osofsky, vice-président aux relations médias, confirme : « Nous avons instauré des garde-fous pour s’assurer que les sujets populaires et importants soient mis en avant, peu importe où ils se situent sur le spectre idéologique ». Et d’ajouter : « Ces consignes illustrent notre approche responsable, avec l’objectif de créer un produit à haute valeur ajoutée ».
Mais de quelles consignes parle-t-on ? De celles que s’est procurées le Guardian.
En une vingtaine de pages, on mesure à quel point l’humain intervient dans le processus de sélection des « Trending topics ».
À la rédaction
Facebook s’appuie en l’occurrence sur une petite équipe en interne, avec une dizaine de collaborateurs qui se relaient pour faire de la veille.
Ils ont la capacité « d’injecter » des sujets d’actualité dans le module, mais aussi d’en mettre en liste noire pour une durée pouvant aller jusqu’à 24 heures.
La rédaction du document est parcimonieuse. Les consignes données à l’équipe éditoriale ressemblent à celles que l’on peut trouve dans des médias traditionnels. Témoin cette liste de « sources de confiance » qui doit permettre de déterminer si un sujet est digne d’intérêt.
Plus d’un millier de sources sont répertoriées, mais elles sont seulement 10 à faire réellement autorité aux États-Unis : BBC News, CNN, Fox News, The Guardian, NBC News, The New York Times, USA Today, The Wall Street Journal, The Washington Post et Yahoo (News).
La veille effectuée sur ces médias doit permettre d’ajuster éventuellement la sélection de « Trending topics » pour compenser la « faiblesse » des algorithmes, prompts à sélectionner des doublons ou des canulars. Mais l’équipe éditoriale peut aussi anticiper les tendances en allant chercher l’actualité en dehors de Facebook, via un programme qui parcourt des milliers de flux.
Artificiel ?
Selon le New York Times, qui en réfère à une porte-parole du réseau social, cette stratégie a véritablement été mise en place en 2014, à l’heure où Facebook était critiqué pour ne pas avoir suffisamment couvert les émeutes à Ferguson, tout en mettant en avant des sujets a priori importants comme l’Ice Bucket Challenge.
Pour sa défense, Facebook explique que les consignes obtenues par le Guardian ne sont plus en vigueur. La nouvelle version publiée pour l’occasion (document PDF, 28 pages) n’éclaircit pas beaucoup plus la situation, si ce n’est que la liste des « sources de confiance » évolue pour inclure entre autres BuzzFeed.
La question se pose alors concernant les propos de Tom Stocky. Le vice-président à la recherche chez Facebook avait assuré, au lendemain des révélations de Gizmodo, que les équipes du réseau social n’injectaient pas des sujets « artificiellement ».
Tout dépend du sens que l’on donne au mot « artificiellement ». D’après trois anciens membres de l’équipe éditoriale qui se sont confiés au Guardian, le traitement humain est « vital », mais n’a en aucun cas vocation à introduire un quelconque biais.
À voir en complément sur les relations de Facebook avec les médias, un entretien de Will Cathcart avec The Verge. Le directeur produit du News Feed (fil d’actualités) revient notamment sur les problématiques de transparence vis-à-vis de l’exploitation des algorithmes.
Crédit photo : dolphfyn – Shutterstock.com