Accentuer l’utilisation de la reconnaissance d’images et creuser le sillon de l’apprentissage automatique pour développer des algorithmes de classification… mais aussi solliciter davantage d’experts et d’ONG, tout en impliquant les YouTubeurs dans des campagnes contre le discours radical : face aux dérives extrémistes, Google cherche l’équilibre entre l’homme et la machine.
Sous la pression de l’Union européenne et de plusieurs de ses États membres, le groupe Internet a annoncé, par la voie de son directeur juridique Kent Walker, plusieurs mesures allant dans ce sens pour sa plate-forme vidéo.
Concernant la reconnaissance d’images, aujourd’hui exploitée principalement pour empêcher la remise en ligne de contenus ayant fait l’objet d’une suppression, elle se verra dédier davantage de ressources R&D. L’idée étant, grâce au machine learning, d’accélérer l’identification des contenus en question.
Pour les cas tangents qui pourraient porter atteinte à la liberté d’expression, le programme YouTube Trusted Flagger sera élargi. Une cinquantaine d’organisations s’ajouteront aux 63 actuellement impliquées. La collaboration avec les agences de contre-terrorisme sera renforcée en parallèle.
Google compte aussi se montrer plus strict sur les vidéos trop provocantes ou idéologiques, même si elles ne violent pas les conditions d’utilisation de la plate-forme. Un avertissement y sera intégré sous forme d’interstitiel et la vidéo ne pourra être ni monétisée, ni recommandée, ni commentées.
Autre axe de travail : le programme Creators for Change, qui promeut la voix des YouTubeurs contre les propos incitant à la haine. Il s’agira aussi d’implémenter plus largement en Europe la diffusion, auprès des recrues potentielles de l’État islamique, d’annonces ciblées redirigeant vers des vidéos antiterroristes.
Ces engagements font notamment écho à la volonté – réaffirmée la semaine passée – de la France de responsabiliser les sociétés technologiques sur les plates-formes desquelles circulent les propos à caractère extrémiste. Ce en les exposant à des sanctions plus sévères en cas de défaut de modération.
Au Royaume-Uni, le Parlement a émis des recommandations, à l’appui d’une étude qui a révélé une mise en application « trop lente » et « aléatoire » des engagements pris par YouTube et consorts auprès de l’Union européenne, dont le traitement de « la majorité des demandes valides de suppression de contenus sous 24 h ».
Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…
Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…
Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…