SEO : Google affine son algorithme d’indexation Penguin
Pour lutter contre les spammeurs qui utilisent des techniques d’automatisation contraires aux bonnes pratiques en matière de SEO, Google projette de durcir, d’ici cet été, son algorithme d’indexation Penguin.
Pour lutter contre le référencement abusif et les spammeurs qui utilisent des techniques d’automatisation contraires aux bonnes pratiques en matière de SEO, Google projette une refonte de ses algorithmes.
Le groupe Internet de Mountain View se donne pour objectif d’éclaircir, d’ici la fin de l’été, dans son moteur de recherche, les zones grises qui subsistent entre les « White Hats » et les « Black Hats ».
Dans la nomenclature, les premiers s’alignent sur les recommandations en vigueur et recourent au référencement naturel ; a contrario, les seconds renforcent artificiellement leur visibilité sur la Toile en générant automatiquement du contenu (liens, commentaires, sites…)
Et les deux catégories ont tendance à coexister dans les pages de résultats, parfois au désavantage de ceux qui montrent pourtant patte blanche sur le dossier du SEO.
Directeur des opérations de recherche et développement chez Google, Matt Cutts assure que la situation devrait sensiblement évoluer dans les prochains mois.
Il détaille ses plans dans une vidéo postée sur YouTube, avec dix points principaux à prendre néanmoins avec des pincettes, « rien [n’étant] gravé dans le marbre« .
La consigne numéro un à destination des éditeurs reste de se concentrer sur le contenu à valeur ajoutée. Les sites considérés comme des références dans certains domaines verront ainsi leur PageRank rehaussé.
Ce sera le premier critère pris en compte par la nouvelle version de l’algorithme Penguin (2.0). Comme à son habitude, Google livre peu de détails, sinon que cette mouture est « plus exhaustive » que les précédentes.
Le discours est plus clair quant au durcissement des mesures contre le publireportage non distingué de l’éditorial, ainsi que les liens achetés ou loués.
Qu’il soit interne ou externe, le maillage « non naturel » déroge effectivement aux guidelines de Google, qui réitère son appel aux webmestres, invités à ne pas fonder exclusivement leur stratégie de référencement sur le netlinking artificiel.
Le contrôle des hyperliens sera d’ailleurs renforcé avec des outils d’analyse plus performants. Notamment sur les requêtes exposées au spam. Typiquement, celles qui concernent la finance ou les contenus à caractère pornographique.
Comme le note Search Engine Land, les travaux vont se porter plus tangiblement sur la détection des sites piratés et sur leur signalement via les Webmaster Tools.
En aparté, l’impact de la mise à jour Panda, appliquée en février 2011, devrait s’estomper progressivement pour de nombreux sites qui se sont vus désindexés alors qu’ils respectaient le plus clair des consignes de SEO.
—— A voir aussi ——
Quiz ITespresso.fr : connaissez-vous les secrets et astuces de Google ?