Le live streaming implique des responsabilités. Facebook prend progressivement conscience de l’impact de la diffusion vidéo en direct.
Certes, le réseau social fournit déjà des efforts de modération et de filtrage (à la fois automatique et humain) vis-à-vis des contenus vidéo à caractère violente et d’incitation à la haine.
Ce n’est pas suffisant au regard des homicides qui apparaissent sur Facebook comme on a pu le constater récemment en Thaïlande et aux Etats-Unis.
Le groupe Internet va gonfler de manière significative son équipe en charge de la surveillance des vidéos diffusées sur son réseau social.
Mark Zuckerberg prend la main sur ce sujet sensible. Le CEO et co-fondateur de Facebook annonce que son bataillon de modérateurs va changer de dimension. L’effectif dédié va passer de 4500 à 7500 en un an. Sachant que le groupe numérique dispose d’une masse globale de 17 000 collaborateurs.
L’exploitation de Facebook Live, lancée en 2016, suscite parfois des dérives en tant que vecteur de diffusion de vidéos choquantes.
Dans sa contribution officielle, Mark Zuckerberg l’admet : « Au cours des dernières semaines, nous avons vu des gens s’automutiler. D’autres ont blessé des personnes sur Facebook soit en direct, soit en postant la vidéo ultérieurement. C’est déchirant et j’ai réfléchi sur la façon dont nous pouvons faire mieux pour notre communauté. »
Ces 3000 modérateurs supplémentaires devraient permettre à Facebook de se montrer plus réactifs vis-à-vis du traitement des millions de signalements de contenus inappropriés qui sont reçus chaque semaine.
« Ces examinateurs nous aideront à améliorer nos efforts en supprimant des choses que nous n’autorisons pas sur Facebook, comme les discours de haine et l’exploitation des enfants. »
La semaine dernière, un Thaïlandais a diffusé une vidéo via laquelle on assistait en direct au meurtre de sa fille. En l’espace d’un peu plus d’une journée, la vidéo avait été visualisée 370 000 fois, avant le retrait du contenu malsain par Facebook.
Les autorités nationales s’en inquiètent. En Allemagne, Facebook pourrait écoper d’une amende en cas de manque de réactivité pour supprimer les contenus indésirables. Le réseau social devra être en mesure d’en écarter une proportion de 70% en l’espace de 24 heures.
(Crédit photo : @Facebook)
Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…
Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…
Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…