Le 29 mars dernier, Dominique Cardon était l’invité de l’association Doc Forum à Lyon pour délivrer ses réflexions sur le thème : « A quoi rêvent les algorithmes? Nos vies à l’heure des big data ».
En qualité de sociologue au Laboratoire des usages d’Orange Labs et professeur associé à l’Université de Marne-la-Vallée (LATTS), il s’intéressent aux relations entre les usages des nouvelles technologies et les pratiques culturelles et médiatiques. évoque l’influence des algorithmes à comprendre et à apprivoiser.
Google, Amazon, Facebook mais aussi les banques et assurances accumulent d’énormes quantités de données calculées par des algorithmes qui induisent une représentation spécifique de la société.
Le sociologue Dominique Cardon pointe la nécessité de comprendre le fonctionnement des algorithmes pour en tirer le meilleur parti.
« 95 % de l’audience du Web est centrée sur 0,03 % des contenus disponibles ». La statistique avancée par Dominique Cardon situe l’étroitesse du territoire calculé par les algorithmes qui structurent nos représentations du monde.
Avant l’avènement d’Internet, l’information était centralisée et hiérarchisée par les médias et les journalistes.
Aujourd’hui, les algorithmes de Google et des réseaux sociaux peuvent être grossièrement comparés aux processus d’élections qui produisent des résultats différents en fonction des modes de scrutins. Depuis le système anglais uninominal à un tour jusqu’au scrutin proportionnel en Israël.
Le sociologue postule que les algorithmes, loin d’être neutres, ont une logique intrinsèque qui promeut un type particulier de société. Il met en avant la nécessité de « loyauté ». A savoir une adéquation entre ce que les plateformes disent faire et ce qu’elles font.
Il ne s’agit pas, notamment, de demander la transparence du Page Rank de Google qui classe les résultats de recherche, ce qui ouvrirait la porte aux manipulations des référenceurs de sites Web pour figurer en tête des classements des pages de réponses sur le moteur.
Selon l’intervenant, il faudrait en revanche comprendre les algorithmes pour les apprivoiser. Nous sommes passés du lien hypertexte au début du Web, au Like des réseaux sociaux (« favoris », « j’aime », etc.), à la vue d’une information et enfin, à la trace qui repose sur l’analyse de l’historique de navigation.
« Pour Google, la visibilité se mérite ou s’achète »
Dominique Cardon identifie 4 grandes familles de calculs par les algorithmes. En premier lieu celui qui a trait à la popularité mesurée par l’audience selon les clics des internautes, permettant de distinguer les sites les plus consultés.
La promesse d’exactitude d’un outil de mesure comme Google Analytics peut être dévoyée. Par exemple, l’audience du site du Figaro intègre les résultats du site de conjugaison leconjugueur.lefigaro.fr.
Un autre type d’algorithme rend compte de l’autorité d’une source d’information. C’est celle qui est à la base du Page Rank, l’algorithme de Google qui hiérarchise les résultats de recherche en fonction du nombre de liens qui pointent vers un site et de leur pondération selon leur audience. Il s’agit d’un système méritocratique qui choisirait les meilleurs et rétrograderait les médiocres.
Selon Google, les sites dignes d’intérêt émergent gratuitement via le référencement naturel alors que les entreprises et institutions doivent acheter des mots-clés à Google pour être visibles.
Le troisième type d’algorithme, lié aux réseaux sociaux, traduit la réputation. En fonction du nombre de votes, les internautes comme dans un benchmark, agissent en fonction de mesures locales ou globales, pour se vendre, se promouvoir, être visible. Enfin, la 4ème famille d’algorithmes a trait à la prédiction et constitue, notamment, la base du Big Data.
Ce sont des méthodes statistiques d’apprentissage à partir des traces de navigation des internautes qui prédisent des comportements en analysant les régularités des informations.
Dominique Cardon termine son exposé sur une note optimiste. Et souligne l’abondance inédite et la diversité potentielle des informations accessibles sur Internet.
Mais les algorithmes mis en oeuvre derrière dans le cadre de la recherche sur Internet doivent être examinés par les Etats, les chercheurs en sciences sociales et les associations.
Doc Forum : espace d’échange de la société de la connaissance et du numérique |
Doc Forum est présenté sur son site Web comme « un espace innovant et original de dialogue et de débat pour mieux comprendre et mieux appréhender les enjeux techniques, économiques et socio-culturels de la société de la connaissance ». Soutenu par Lyon et la région Rhône-Alpes, Doc Forum a vocation depuis 20 ans à « observer, présenter et prévoir les grandes tendances de l’évolution des technologies et des usages » et « développer une pratique du dialogue entre experts scientifiques et société civile ». |
(Crédit photo : Orange et Shutterstock.com)
Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…
Comment réduire la taille des mises à jour de Windows 11 ? Microsoft annonce la…
Déjà doté de la sauvegarde automatique, d'un compteur de caractères et de Copilot, Bloc-notes embarque…