Simplification des méthodes de signalement, vérification des sources auprès d’organisations tierces, coupure du vivier publicitaire pour les fraudeurs… Facebook prend des engagements pour lutter contre la diffusion de fausses informations.
Pointé du doigt pour son inaction en la matière (illustrée par la circulation d’éléments contradictoires concernant l’issue du vote le jour de l’élection présidentielle aux États-Unis), le réseau social avait esquissé , le mois dernier, les grands axes de sa stratégie.
Le fondateur et CEO Mark Zuckerberg avait synthétisé la feuille de route* en sept points parmi lesquels le renforcement des exigences sur la qualité des « articles associés » apparaissant dans le fil d’actualités.
Cet aspect n’est pas abordé dans le bilan d’étape fait jeudi 15 décembre. En revanche, ça se précise sur la question du recours à des prestataires externes pour valider l’authenticité des informations.
Les organisations tierces sur lesquelles Facebook s’appuiera auront la particularité d’avoir adhéré aux principes de l’International Fact-Checking Network, réseau mondial supervisé par le groupe Poynter.
Elles se seront donc engagées à utiliser une méthodologie standardisée pour la vérification des sources, tout en acceptant de faire preuve de transparence sur leur financement ou encore leur organisation structurelle.
Sur les 43 signataires recensés au 15 décembre, aucun n’est basé en France. Autour de nous, on citera Pagella Politica (Italie), El Objetivo La Sexta (Espagne), Full Fact (Royaume-Uni), Observador (Portugal), Valheenpaljastaja (Finlande) et TheJournal.ie (Irlande).
Adhérer aux principes de l’International Fact-Checking Network sera « la condition minimum » pour rejoindre le cercle des sous-traitants.
Ces derniers n’interviendront que sur les contenus jugés douteux au regard de plusieurs critères dont leur signalement par les membres du réseau social ; lesquels vont bénéficier, dans cette optique, d’une option dédiée, qui s’ajoutera aux trois propositions actuelles (« C’est du contenu indésirable » ; « Je pense que cela n’a rien à faire sur Facebook » ; « C’est ennuyeux ou inintéressant »).
Si une information est considérée comme fausse à l’issue du processus de vérification, une alerte lui sera associée, avec un lien explicatif. Selon Facebook, elle « pourrait » par ailleurs apparaître plus bas dans les timelines. Il restera toutefois possible de la partager ; mais pas d’en faire une publicité.
* Tout en affirmant que « plus de 99 % du contenu qu’on voit sur Facebook est authentique ».
Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…
Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…
Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…