Google vient de lancer un outil, en version bêta, qui offre aux éditeurs de sites Web la possibilité de donner au moteur de recherche plus d’informations sur leur site au lieu d’attendre que les robots de Google ne le visitent. Avec l’application Sitemaps, on pourra ainsi préciser la structure d’un site donné ainsi que la fréquence à laquelle il est modifié. Ce qui permettrait théoriquement à Google d’établir un index plus précis et de fournir de meilleurs résultats de recherche.
L’outil est destiné à la fois aux sites amateurs et professionnels, a indiqué Google. Les éditeurs de sites Web peuvent télécharger cette application gratuite qui crée un fichier XML contenant toutes les informations relatives au site. Le fonctionnement de Sitemaps est similaire à celui de Robots Exclusion Standard (RES), une autre technologie destinée à aider les moteurs de recherche.
Des informations accessibles à tous les moteurs
Grâce à un fichier texte nommé « robots.txt » et placé à la racine d’un serveur Web, RES indique aux robots des moteurs quels fichiers et répertoires ils doivent ajouter à leurs index. Alors que RES est un standard de l’industrie, la technologie Sitemaps est uniquement développée par Google. Cependant, rien n’empêche les moteurs de recherche concurrents d’accéder aux informations contenues dans le fichier XML et de les utiliser afin d’améliorer leur indexation.
Article traduit de VNUnet.com
Les attaques de phishing utilisant des QR codes frauduleux intégrés dans des documents PDF joints…
Microsoft a amorcé le déploiement de Windows 11 24H2. Passage en revue des nouvelles fonctionnalités…
L'intégration de Copilot dans la suite bureautique s'accélère. Où trouver l'assistant IA et comment l'utiliser…
Microsoft annonce une phase expérimentale pour lancer Recall sur les PC Copilot+. Elle doit commencer…
Comment réduire la taille des mises à jour de Windows 11 ? Microsoft annonce la…
Déjà doté de la sauvegarde automatique, d'un compteur de caractères et de Copilot, Bloc-notes embarque…