L’analyse de logs est une pratique pertinente pour améliorer votre référencement naturel.
Tag
robots.txt
Budget Crawl : qu’est-ce que c’est ? Comment l’optimiser ?
Pour indexer votre site internet, les moteurs de recherche, comme Google, utilisent ce que l’on appelle des robots pour analyser vos pages web.
Robots.txt : quel est son rôle et comment le créer ?
Robots.txt est un fichier qui indique aux moteurs de recherche les zones de votre site web à indexer.
Sitemap : tout savoir sur le plan de site d’un site web
Un sitemap, appelé également plan de site est un fichier au format XML. Qu’est-ce qu’un sitemap et quel est son rôle ?