Pour gérer vos consentements :
Categories: Cloud

SEO : Google affine son algorithme d’indexation Penguin

Pour lutter contre le référencement abusif et les spammeurs qui utilisent des techniques d’automatisation contraires aux bonnes pratiques en matière de SEO, Google projette une refonte de ses algorithmes.

Le groupe Internet de Mountain View se donne pour objectif d’éclaircir, d’ici la fin de l’été, dans son moteur de recherche, les zones grises qui subsistent entre les « White Hats » et les « Black Hats ».

Dans la nomenclature, les premiers s’alignent sur les recommandations en vigueur et recourent au référencement naturel ; a contrario, les seconds renforcent artificiellement leur visibilité sur la Toile en générant automatiquement du contenu (liens, commentaires, sites…)

Et les deux catégories ont tendance à coexister dans les pages de résultats, parfois au désavantage de ceux qui montrent pourtant patte blanche sur le dossier du SEO.

Directeur des opérations de recherche et développement chez Google, Matt Cutts assure que la situation devrait sensiblement évoluer dans les prochains mois.

Il détaille ses plans dans une vidéo postée sur YouTube, avec dix points principaux à prendre néanmoins avec des pincettes, « rien [n’étant] gravé dans le marbre« .

La consigne numéro un à destination des éditeurs reste de se concentrer sur le contenu à valeur ajoutée. Les sites considérés comme des références dans certains domaines verront ainsi leur PageRank rehaussé.

Ce sera le premier critère pris en compte par la nouvelle version de l’algorithme Penguin (2.0). Comme à son habitude, Google livre peu de détails, sinon que cette mouture est « plus exhaustive » que les précédentes.

Le discours est plus clair quant au durcissement des mesures contre le publireportage non distingué de l’éditorial, ainsi que les liens achetés ou loués.

Qu’il soit interne ou externe, le maillage « non naturel » déroge effectivement aux guidelines de Google, qui réitère son appel aux webmestres, invités à ne pas fonder exclusivement leur stratégie de référencement sur le netlinking artificiel.

Le contrôle des hyperliens sera d’ailleurs renforcé avec des outils d’analyse plus performants. Notamment sur les requêtes exposées au spam. Typiquement, celles qui concernent la finance ou les contenus à caractère pornographique.

Comme le note Search Engine Land, les travaux vont se porter plus tangiblement sur la détection des sites piratés et sur leur signalement via les Webmaster Tools.

En aparté, l’impact de la mise à jour Panda, appliquée en février 2011, devrait s’estomper progressivement pour de nombreux sites qui se sont vus désindexés alors qu’ils respectaient le plus clair des consignes de SEO.

—— A voir aussi ——
Quiz ITespresso.fr : connaissez-vous les secrets et astuces de Google ?

Recent Posts

PC Copilot+ : une porte d’entrée vers l’ IA locale ?

Equipés de NPU, les PC Copilot+ peuvent déployer des LLM en local. Un argument suffisant…

2 semaines ago

PCIe 5.0 : La révolution des cartes-mères est-elle en marche ?

Que vous soyez un novice dans le domaine informatique, ou avec un profil plus expérimenté,…

3 semaines ago

Cybersécurité : attention aux QR codes dans les PDF

Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…

2 mois ago

Windows 11 : une mise à jour majeure apporte de nouvelles fonctionnalités

Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…

3 mois ago

Microsoft 365 : comment Copilot se déploie dans toutes les applications

L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…

3 mois ago

PC Copilot + : Microsoft veut garder Recall

Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…

4 mois ago