SEO: Sitemaps y Robots.txt
Gestiona tus sitemaps XML y el archivo robots.txt para ayudar a los buscadores a descubrir y rastrear tu contenido eficientemente.
Descripción general
Los sitemaps y robots.txt son dos herramientas fundamentales para guiar a los rastreadores de buscadores. Los sitemaps indican a los rastreadores qué páginas existen y su importancia. Robots.txt indica qué partes de tu sitio pueden o no acceder. RakuWP te da control total sobre ambos desde el panel.
Sitemaps XML
Acceder a los sitemaps
- Ve a SEO en la barra lateral y selecciona tu sitio.
- Haz clic en la pestaña Config y luego selecciona Sitemaps.
Qué sitemaps se generan
RakuWP genera sitemaps XML para cada tipo de contenido de tu sitio WordPress: entradas, páginas, categorías, etiquetas y archivos de autor. La página de sitemaps muestra los sitemaps disponibles con el número de entradas de cada uno.
Sitemap de noticias
Para editores de noticias, puedes habilitar el Sitemap de noticias. Esto genera un sitemap separado siguiendo las especificaciones de Google News, incluyendo solo artículos publicados en las últimas 48 horas. Es esencial para aparecer en los resultados de Google News.
Cómo funcionan los sitemaps
El plugin genera el XML del sitemap dinámicamente en tu sitio WordPress. Los buscadores descubren el sitemap a través del archivo robots.txt (que incluye una directiva Sitemap:) o cuando lo envías manualmente en Google Search Console o Bing Webmaster Tools.
Robots.txt
Acceder al editor de robots.txt
- Ve a SEO > Config > Robots.txt.
Editar reglas
El editor visual permite gestionar las reglas de robots.txt sin editar el archivo manualmente. Cada regla consiste en:
- User-agent: El bot al que se aplica la regla (
*para todos los bots, o un nombre específico comoGooglebot). - Disallow: Rutas que el bot no debe rastrear (por ejemplo,
/wp-admin/). - Allow: Rutas que el bot puede rastrear, incluso dentro de un directorio bloqueado.
- Crawl-delay: Segundos entre solicitudes (respetado por algunos bots, no por Google).
Sincronización con WordPress
Cuando guardas las reglas de robots.txt en el panel, se sincronizan con tu sitio WordPress. El plugin intercepta la salida predeterminada de robots.txt de WordPress y la reemplaza con tus reglas personalizadas. Esto significa que controlas robots.txt completamente desde el panel de RakuWP.
Buenas prácticas
- Asegúrate siempre de que la URL de tu sitemap esté referenciada en robots.txt.
- No bloquees archivos CSS y JS en robots.txt, ya que Google los necesita para renderizar las páginas correctamente.
- Usa
Disallow: /wp-admin/peroAllow: /wp-admin/admin-ajax.phppara sitios WordPress. - Envía tu sitemap tanto a Google Search Console como a Bing Webmaster Tools para un descubrimiento más rápido.