Facebook ajoute une corde à son arc dans sa démarche de lutte contre la propagation de fausses informations.
Ce combat, le groupe Internet le mène sous trois angles : accompagner les internautes dans la lecture critique de l’information, limiter les gains financiers des auteurs de ces « fake news » et en limiter le partage grâce à des outils.
Un format mis en place fin 2013 sera exploité dans ce cadre : les « articles connexes » (« related articles »).
Jusqu’alors, il s’agissait de recommander des contenus sur les fils d’actualité des utilisateurs en fonction de ce que ces derniers avaient consulté.
Depuis ce jeudi 3 août, certains internautes voient apparaître des « articles connexes » sous des liens qu’ils n’ont pas encore ouverts.
Ces liens peuvent aussi bien être très populaires sur le réseau social que pointer vers des actualités dont l’authenticité est contestée, sur la foi d’un contrôle effectué par des éditeurs médias et des organisations spécialisées.
L’idée est de donner accès à différents angles de traitement des actualités en question, afin de permettre à l’utilisateur de se faire une idée sur la véracité des propos… et éventuellement de se retenir de les relayer.
Les listes d’articles connexes ne font pas l’objet d’une personnalisation. Des signaux – les mêmes que pour l’option « À la une » du newsfeed, selon TechCrunch – permettent néanmoins d’afficher les contenus les plus adéquats, sans intervention humaine.
La fonctionnalité est mise en place aux États-Unis, en Allemagne, aux Pays-Bas et en France, pays où Facebook a noué des partenariats pour la vérification d’informations.
Difficile de ne pas faire le parallèle avec l’outil intégré cette année à Google Actualités. Un label « Faits vérifiés par… » s’affiche en vis-à-vis des articles apparaissant comme fiables après contrôle.
Tous ces efforts, la Commission européenne affirme les avoir constatés, jugeant que les exploitants de plates-formes communautaires, sur lesquels elle fait pression, ont gagné en réactivité, en transparence et en efficacité pour traiter les contenus problématiques.
Il faut dire que certains États membres ont pris des résolutions dissuasives. À l’image de l’Allemagne, avec un projet de loi qui vise à sanctionner d’une amende pouvant atteindre 50 millions d’euros les sociétés Internet qui feraient preuve de laxisme vis-à-vis d’éléments à caractère pornographique, diffamatoire ou encore terroriste.
Du côté de Facebook, qui aligne deux milliards d’utilisateurs actifs (connectés au moins une fois par mois), on affirme avoir optimisé, grâce au machine learning, la détection des comptes non authentiques. Et par là même le repérage des fausses informations, puis leur transmission aux organismes de vérification.
Crédit photo (Mark Zuckerberg avec le Premier ministre indien Narendra Modi) : Facebook
Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…
Comment réduire la taille des mises à jour de Windows 11 ? Microsoft annonce la…
Déjà doté de la sauvegarde automatique, d'un compteur de caractères et de Copilot, Bloc-notes embarque…