Plus de la moitié du trafic Internet n’émanerait pas d’une quelconque activité humaine, mais serait le fruit de robots généralement malintentionnés.
Espionnage, spam, piratage… pèsent sur les moins précautionneux des développeurs nombre de menaces bien définies, mais mal appréhendées, passées sous silence par Google Analytics et consorts.
De tels outils de mesure d’audience ne font pas la différence entre ces 49% d’internautes en chair et en os, ces 20% de bots (essentiellement les moteurs de recherche) et ces 31% restants, qui catalysent les craintes d’Incapsula.
Auteur d’une étude en ce sens, l’éditeur de solutions de sécurité a basé sa réflexion sur un millier de ses clients qui enregistrent plusieurs dizaines de milliers de visiteurs mensuels sur leur site.
A eux seuls, les logiciels de piratage généreraient quelque 5% du trafic Web total. Leur office à double temps consiste à un repérage initial d’éventuelles failles de sécurité, dans l’optique d’une exploitation ultérieure pour récupérer des données ou encore injecter du code malveillant.
Les analystes relèvent par ailleurs une recrudescence des attaques de type DDoS (déni de service distribué), qui consistent à multiplier les requêtes à destination d’un serveur jusqu’à saturation et plantage. Les Anonymous en sont tout particulièrement friands.
Dans une proportion similaire, environ une requête sur 20 (soit 5%) est l’oeuvre de scrapers, qui vont littéralement « gratter » dans les bases de données pour accaparer des données non structurées vouées à traitement et hiérarchisation (transformation en information).
C’est typiquement la tâche des comparateurs (voyages, banques, biens technologiques, etc.), auxquels les algorithmes Google Panda ont valu un déclassement pour ce même motif.
Minoritaires, mais coriaces, les spammeurs représentent 2% de l’activité sur la Toile.
Outre la multiplication des réclames et des liens malveillants, les effets secondaires de leur travail de sape incluent une dégradation du spam score des victimes, essentiellement des blogs, des wikis et des forums.
Le gros des effectifs se compose des robots espions : 19% de la meute et de loin les plus dangereux, capables de cibler la Business Intelligence (stratégies SEO, socle financier, etc.).
A propos d’Incapsula |
Editeur d’une solution éponyme de protection de sites Web (pare-feu applicatif, service de DNS, outils d’analyse de trafic, réseau de serveurs Content Delivery Network), Incapsula résulte d’une scission prononcée en 2009. La société dont elle s’est séparée, en l’occurrence Imperva, reste depuis lors son socle financier en qualité d’unique investisseur. |
Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…
Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…
Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…