Facebook, Twitter et YouTube ont gagné en réactivité comme en efficacité pour traiter les signalements de contenus incitant à la violence et à la haine.
La Commission européenne établissait ce constat en juin dernier, un peu plus d’un an après la signature, par les trois plates-formes, d’un « Code de conduite » par lequel elles s’engageaient à accentuer leurs efforts en la matière.
Ce bilan d’étape avait laissé entrevoir les progrès réalisés depuis le premier point effectué en décembre 2016.
La tendance se confirme avec le troisième rapport d’évaluation, publié la semaine passée.
Pour cette nouvelle vague, 2 982 notifications ont été envoyées aux trois plates-formes, entre le 6 novembre et le 15 décembre 2017 : 1 802 par les canaux publics et le reste par l’intermédiaire de leviers spécifiques fondés sur des fact-checkers de confiance.
Une trentaine d’organisations de la société civile (en France, la Ligue internationale contre le racisme et l’antisémitisme, ainsi que la plate-forme Pharos) et deux autorités nationales (France, Espagne) ont participé à l’opération, organisée à l’échelle de 27 États membres (le Luxembourg n’était pas dans la boucle).
Les notifications (1 408 adressées à Facebook ; 794 à Twitter ; 780 à YouTube) concernaient des contenus jugés illégaux au regard des lois nationales issues de la décision-cadre 2008/913/JAI du Conseil de l’UE sur la lutte contre certaines formes et manifestations de racisme et de xénophobie au moyen du droit pénal.
Près de 70 % de ces notifications ont été suivies du retrait du contenu incriminé. Ce taux était respectivement de 28 % et de 59 % aux deux premiers pointages.
Une progression est à relever pour toutes les plates-formes (de 66,5 % à 79,8 % pour Facebook ; de 37,4 % à 45,7 % pour Twitter ; de 66 % à 75 % pour YouTube), qui se montrent par ailleurs plus réactives dans le traitement des demandes : 81,7 % l’ont été en moins de 24 h (+ 30 points environ).
Facebook (89,3 %) reste néanmoins plus efficace que Twitter (80,2 %) et YouTube (62,7 %) sur ce critère inscrit parmi les engagements du Code de conduite.
Le réseau social de Mark Zuckerberg se montre aussi le plus transparent, tout du moins au niveau des alertes faites en réponse aux suppressions de contenus : dans 94,8 % des cas, le signaleur est averti (70,4 % chez Twitter et 20,8 % chez YouTube).
Ce feedback a tendance à être plus systématique lorsque les signalement proviennent de fact-checkers (96 % chez Facebook et 95,1 % chez Twitter).
La prochaine évaluation se fera avec Instagram, dont Facebook a annoncé qu’il adhérait au Code de conduite.
Google+ sera également inclus dans le périmètre de l’étude, au travers de laquelle Bruxelles prêtera attention à un aspect encore peu développé : moins de 20 % des signalements ont donné lieu à une communication aux forces de police ou à d’autres autorités nationales.
Crédit photo : West Midlands Police via VisualHunt.com / CC BY-SA
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…
Comment réduire la taille des mises à jour de Windows 11 ? Microsoft annonce la…
Déjà doté de la sauvegarde automatique, d'un compteur de caractères et de Copilot, Bloc-notes embarque…
Microsoft modifie la fonctionnalité de Recall sur les PC Copilot+ qui passe en opt-in. Reste…