Audit SEO — Mac4Ever
Architecture, URLs, crawl, robots.txt, sitemap, indexation + plan d’action priorisé.
Voir le projet← Hub Audit SEO · Audit SEO — Mac4Ever · Audit mobile — Butsoccers · Référencement web (page pilier)
Le crawl et l’indexation, c’est la plomberie du SEO. Si c’est cassé, le reste est décoratif. Ici : les contrôles essentiels (robots.txt, sitemap, canonicals, statuts HTTP, duplication) et une checklist actionnable pour diagnostiquer vite.
Une page peut être crawlée mais non indexée (qualité faible, duplication, noindex, canonicals, etc.),
et une page peut être indexable mais jamais découverte (maillage pauvre, page orpheline).
Vérifiez les 200/301/302/404/410/5xx. Les 301 doivent être cohérents (pas de chaînes), les 404/410 doivent être assumées, et les 5xx sont des urgences.
Robots bloque le crawl. Ce n’est pas un outil de “désindexation”. On évite de bloquer des sections stratégiques et on s’assure que le sitemap est déclaré.
Le sitemap doit contenir les URLs canoniques importantes (200, indexables), pas du bruit. Il sert à accélérer la découverte et à clarifier ce qui compte.
noindex empêche l’indexation (même si la page est crawlée). Très utile, mais dangereux si appliqué par erreur.
Canonical indique la version “officielle” d’une page. Si les canonicals sont incohérents, vous demandez à Google de choisir à votre place, et il le fera… parfois mal.
Variantes techniques (http/https, www/non-www, trailing slash), paramètres, pages proches : ça dilue le crawl budget et affaiblit la clarté de l’index.
Une page importante doit recevoir des liens internes depuis un hub/pilier. Sans liens entrants, elle est “orpheline” : découverte tardive, poids faible.
L’objectif n’est pas de “lister des erreurs”, mais de décider quoi corriger et dans quel ordre. Un audit crawl/indexation sérieux aboutit généralement à :
noindex / canonicals erronésCes études de cas illustrent le type de points contrôlés dans un audit crawl/indexation et dans les livrables techniques.
Architecture, URLs, crawl, robots.txt, sitemap, indexation + plan d’action priorisé.
Voir le projetCore Web Vitals + erreurs techniques (403, robots.txt) + plan d’action.
Voir le projet
Robots.txt empêche surtout le crawl. Une URL bloquée peut parfois rester indexée si elle est connue ailleurs.
Pour empêcher l’indexation, on utilise plutôt noindex ou une stratégie de consolidation.
Le canonical indique la version préférée d’un contenu. Il aide Google à choisir la bonne URL quand il existe plusieurs variantes proches (paramètres, catégories, doublons).
Non. Le sitemap aide à découvrir, mais l’indexation dépend aussi de la qualité, de la duplication, des signaux, et du fait que la page soit utile et cohérente avec l’intention.
Après diagnostic, pas avant.