Comment limiter la propagation de contenus indésirables sur Facebook ? En restreignant davantage l’accès au service de live streaming.
Ce pari se traduira par des blocages temporaires pour quiconque aura posté, où que ce soit sur le réseau social, ne serait-ce qu’un contenu violant « les règles les plus importantes ».
Ces règles répriment les individus et les organisations impliqués dans cinq catégories d’activités, ayant trait au terrorisme, à la haine, aux meurtres, à la traite des êtres humains et et à la violence organisée. Elles ont récemment été invoquées pour fermer les comptes de plusieurs personnalités classées essentiellement d’extrême-droite.
Facebook donne un exemple d’infraction répréhensible : la publication, sans contexte, d’un lien vers une déclaration d’un groupe terroriste.
Il est question d’étendre ces blocages dans les prochaines semaines ; notamment pour empêcher les individus et organisations visés de créer des publicités sur le réseau social.
Cette initiative intervient en parallèle du déplacement de Jacinda Andern à Paris.
La première ministre de Nouvelle-Zélande a rencontré, ce 15 mai 2019, des chefs d’État et de gouvernement (Emmanuel, Macron, Theresa May, Justin Trudeau, Abdallah II de Jordanie). Ainsi que des représentants de sociétés high-tech (Google, Microsoft, Twitter, Wikimedia…).
Elle a invité ces dernières à s’impliquer davantage dans la lutte contre l’usage abusif de leurs plates-formes respectives.
En toile de fond, les attaques terroristes survenues voilà deux mois dans deux mosquées de Christchurch (Nouvelle-Zélande). Leur auteur a utilisé Facebook Live pour diffuser en direct son forfait.
Dans les jours suivant le drame, Facebook a régulièrement fait le point sur la propagation de la vidéo.
Celle-ci a duré 17 minutes. Elle a été vue « moins de 200 fois » pendant le live.
Le premier signalement est intervenu 12 minutes après la fin de la diffusion. Le temps de la supprimer, elle avait été vue environ 4 000 fois. Et au moins un utilisateur de 8chan avait posté un lien vers une copie hébergée sur un service de partage de fichiers.
Dès lors, la vidéo n’a cessé de réapparaître sur Facebook. Y compris dans des versions modifiées (« plus de 800 visuellement distinctes »), d’autant plus difficiles à détecter, même si l’analyse de l’audio a aidé.
Le réseau social dit avoir retiré, en 24 heures, environ 1,5 million de vidéos, dont 1,2 million avant qu’elles soient visibles des utilisateurs. Aucune précision n’est fournie sur la portée qu’ont eue les 300 000 autres.
Facebook évoque la « rareté » des attentats et explique manquer par là même de données pour entraîner ses algorithmes de détection. La ressemblance avec les jeux vidéo à caractère violent complique la tâche.
En outre, une vidéo non signalée pendant la diffusion a moins de chances d’être priorisée auprès des équipes de modération de Facebook.
Photo d’illustration © endermasali – Shutterstock.com
Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…
Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…
Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…