Categories: Cloud

SEO : Google affine son algorithme d’indexation Penguin

Pour lutter contre le référencement abusif et les spammeurs qui utilisent des techniques d’automatisation contraires aux bonnes pratiques en matière de SEO, Google projette une refonte de ses algorithmes.

Le groupe Internet de Mountain View se donne pour objectif d’éclaircir, d’ici la fin de l’été, dans son moteur de recherche, les zones grises qui subsistent entre les « White Hats » et les « Black Hats ».

Dans la nomenclature, les premiers s’alignent sur les recommandations en vigueur et recourent au référencement naturel ; a contrario, les seconds renforcent artificiellement leur visibilité sur la Toile en générant automatiquement du contenu (liens, commentaires, sites…)

Et les deux catégories ont tendance à coexister dans les pages de résultats, parfois au désavantage de ceux qui montrent pourtant patte blanche sur le dossier du SEO.

Directeur des opérations de recherche et développement chez Google, Matt Cutts assure que la situation devrait sensiblement évoluer dans les prochains mois.

Il détaille ses plans dans une vidéo postée sur YouTube, avec dix points principaux à prendre néanmoins avec des pincettes, « rien [n’étant] gravé dans le marbre« .

La consigne numéro un à destination des éditeurs reste de se concentrer sur le contenu à valeur ajoutée. Les sites considérés comme des références dans certains domaines verront ainsi leur PageRank rehaussé.

Ce sera le premier critère pris en compte par la nouvelle version de l’algorithme Penguin (2.0). Comme à son habitude, Google livre peu de détails, sinon que cette mouture est « plus exhaustive » que les précédentes.

Le discours est plus clair quant au durcissement des mesures contre le publireportage non distingué de l’éditorial, ainsi que les liens achetés ou loués.

Qu’il soit interne ou externe, le maillage « non naturel » déroge effectivement aux guidelines de Google, qui réitère son appel aux webmestres, invités à ne pas fonder exclusivement leur stratégie de référencement sur le netlinking artificiel.

Le contrôle des hyperliens sera d’ailleurs renforcé avec des outils d’analyse plus performants. Notamment sur les requêtes exposées au spam. Typiquement, celles qui concernent la finance ou les contenus à caractère pornographique.

Comme le note Search Engine Land, les travaux vont se porter plus tangiblement sur la détection des sites piratés et sur leur signalement via les Webmaster Tools.

En aparté, l’impact de la mise à jour Panda, appliquée en février 2011, devrait s’estomper progressivement pour de nombreux sites qui se sont vus désindexés alors qu’ils respectaient le plus clair des consignes de SEO.

—— A voir aussi ——
Quiz ITespresso.fr : connaissez-vous les secrets et astuces de Google ?

Recent Posts

PC IA : les entreprises sont enthousiastes malgré quelques incertitudes

Les dernières migrations de Windows 10 vers Windows 11 vont accélérer l'adoption des PC IA. Mais des…

2 semaines ago

Digital Workplace : comment l’IA Générative s’installe dans l’environnement de travail

L’IA générative excelle dans plusieurs cas d’usage, notamment dans l’analyse, la recherche et la synthèse…

1 mois ago

PC Copilot+ : avec Arm ou x86 ?

Trop tôt pour envisager d'acquérir un PC Copilot+ ? Les roadmaps d'Intel et d'AMD peuvent…

2 mois ago

Copilot+ : une sélection de PC convertibles

Dévoilés lors du CES 2025, les PC Copilot+ au format convertible restent encore limitée dans…

2 mois ago

Avec Gemini intégré à Google Workspace, les prix s’envolent

Les fonctionnalités de Gemini sont intégrées dans la suite bureautique Google Workspace. Conséquence : les…

2 mois ago

PC Copilot+ : c’est parti pour la transformation du parc

Au CES 2025, les principaux constructeurs ont annoncé l'arrivée des ordinateurs de bureau dotés de…

3 mois ago