Après le drame du 7 novembre, journée au cours de laquelle un étudiant Finlandais avait tué huit personnes en annonçant son acte dans une vidéo postée sur YouTube, la plate-forme de stockage et de partages de vidéos est sous pression. Des voix s’élèvent en effet pour demander à ce qu’une coopération s’instaure vraiment entre YouTube et la police afin de prévenir ce type d’actions criminelles.
Les vidéos postées par Pekka-Eric Auvinen, le jeune Finlandais auteur du massacre, ont été retirées du site quelques heures après le drame. On pouvait y voir le jeune homme de 18 ans, posant avec son arme et décrivant ses plans. Un cas qui rappelle celui de Virginia Tech : un étudiant coréen avait également annoncé ses intentions criminelles dans une vidéo qu’il avait envoyée à une chaîne de télévision américaine.
Mais Google, propriétaire de YouTube, a déclaré que l’instauration d’un système de contrôle a priori n’était pas à l’ordre du jour. « D’un point de vue logistique, nous ne pouvons pas tout pré-visionner », a déclaré Peter Fleischer, le responsable de la protection des données personnelles chez Google Europe, au journal britannique The Guardian. « Nous ne souhaitons pas devenir les censeurs du Web », a-t-il également ajouté.
« Si on se trouve face à un cas de pornographie infantile, nous avertissons immédiatement les autorités. Dans le cas d’une vidéo qui contient un discours appelant à la haine raciale et à la discrimination, nous fermons le compte de l’utilisateur », souligne Peter Fleischer.
Sept heures de vidéos mises en ligne chaque minute
YouTube ferait face à un défi technique réel, si jamais l’entreprise décidait de mettre en place d’un système de pré-visionnage exhaustif de ses vidéos. Car, actuellement, l’équivalent de sept heures de vidéos sont mises en ligne chaque minute sur la plate-forme. Un véritable maëlström d’extraits vidéo.
Le système jusque-là en vigueur chez YouTube est un système d’auto-régulation : celui d’une surveillance par les utilisateurs même du site. Les modérateurs n’interviennent qu’en second lieu, après avoir été alertés par un « flag » (drapeau en anglais).
Les vidéos susceptibles de recevoir un « flag » sont essentiellement celles contenant des éléments pornographiques, « choquants »,« incitant à la violence », ou « révélant des informations personnelles », explique YouTube.
Flagging amélioré
Suivant le même principe de contenu produit et géré par les utilisateurs, le site a toutefois récemment annoncé quelques améliorations dans son « système de flagging ».
Coïncidant presque jour pour jour avec le sanglant fait divers côté Finlande, YouTube a expliqué vouloir « rendre le système de flag vidéo plus cohérent, juste et moins mystérieux ». YouTube a élargi sa palette de catégories générales, y a ajouté 17 sous-catégories, ainsi que la possibilité d’indiquer le time-code de la vidéo posant problème afin d’obtenir une requête plus détaillée et plus facile à traiter pour YouTube.
Par exemple, dans la catégorie « atteinte à mes droits », l’utilisateur peut préciser la nature du contentieux (« atteinte à mes droits d’auteur », « invasion de ma vie privée » et « dévoile mes informations personnelles »).
Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…
Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…
Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…