SEO : Sitemaps et Robots.txt
Gérez vos sitemaps XML et le fichier robots.txt pour aider les moteurs de recherche à découvrir et explorer votre contenu efficacement.
Aperçu
Les sitemaps et robots.txt sont deux outils fondamentaux pour guider les robots des moteurs de recherche. Les sitemaps indiquent aux robots quelles pages existent et leur importance. Robots.txt indique quelles parties de votre site ils peuvent ou ne peuvent pas accéder. RakuWP vous donne un contrôle total sur les deux depuis le panneau.
Sitemaps XML
Accéder aux sitemaps
- Allez dans SEO dans la barre latérale et sélectionnez votre site.
- Cliquez sur l'onglet Config, puis sélectionnez Sitemaps.
Quels sitemaps sont générés
RakuWP génère des sitemaps XML pour chaque type de contenu de votre site WordPress : articles, pages, catégories, tags et archives d'auteurs. La page des sitemaps affiche les sitemaps disponibles avec le nombre d'entrées de chacun.
Sitemap d'actualités
Pour les éditeurs de presse, vous pouvez activer le Sitemap d'actualités. Cela génère un sitemap séparé suivant les spécifications Google Actualités, incluant uniquement les articles publiés dans les dernières 48 heures. Il est essentiel pour apparaître dans les résultats Google Actualités.
Fonctionnement des sitemaps
Le plugin génère le XML du sitemap dynamiquement sur votre site WordPress. Les moteurs de recherche découvrent le sitemap via le fichier robots.txt (qui inclut une directive Sitemap:) ou lorsque vous le soumettez manuellement dans Google Search Console ou Bing Webmaster Tools.
Robots.txt
Accéder à l'éditeur robots.txt
- Allez dans SEO > Config > Robots.txt.
Modifier les règles
L'éditeur visuel permet de gérer les règles robots.txt sans modifier le fichier manuellement. Chaque règle comprend :
- User-agent : Le robot concerné (
*pour tous les robots, ou un nom spécifique commeGooglebot). - Disallow : Chemins que le robot ne doit pas explorer (par exemple,
/wp-admin/). - Allow : Chemins que le robot peut explorer, même dans un répertoire bloqué.
- Crawl-delay : Secondes entre les requêtes (respecté par certains robots, pas par Google).
Synchronisation avec WordPress
Lorsque vous enregistrez les règles robots.txt dans le panneau, elles sont synchronisées avec votre site WordPress. Le plugin intercepte la sortie robots.txt par défaut de WordPress et la remplace par vos règles personnalisées. Cela signifie que vous contrôlez robots.txt entièrement depuis le panneau RakuWP.
Bonnes pratiques
- Assurez-vous toujours que l'URL de votre sitemap est référencée dans robots.txt.
- Ne bloquez pas les fichiers CSS et JS dans robots.txt, car Google en a besoin pour rendre les pages correctement.
- Utilisez
Disallow: /wp-admin/maisAllow: /wp-admin/admin-ajax.phppour les sites WordPress. - Soumettez votre sitemap à Google Search Console et Bing Webmaster Tools pour une découverte plus rapide.