Volver a todos los artículos
guides 12 min read

Optimización del crawl budget: haga que Google indexe lo importante

Ali Gundogdu ·

Cada día, Googlebot visita su sitio web con una cantidad limitada de tiempo y recursos. Si gasta esos recursos rastreando páginas de poco valor, su contenido más importante puede quedar sin descubrir durante semanas o incluso meses. Este es el problema central que resuelve la optimización del crawl budget.

Para muchos dueños de sitios, el crawl budget es un cuello de botella invisible. Todo parece bien en la superficie, pero entre bastidores los motores de búsqueda están gastando sus visitas en páginas que no aportan nada a su visibilidad orgánica. Entender y optimizar el crawl budget es uno de los trabajos técnicos de SEO con mayor impacto que puede emprender.

Qué es el crawl budget

El crawl budget es el número de páginas que un motor de búsqueda rastreará en su sitio dentro de un marco temporal determinado. Google lo define como la intersección de dos factores:

El límite de velocidad de rastreo es el número máximo de conexiones simultáneas que Googlebot usará para rastrear su sitio, junto con el retraso entre peticiones. Google fija este límite para no sobrecargar su servidor. Si su servidor responde rápido y sin errores, el límite tiende a subir. Si su servidor sufre, Google retrocede.

La demanda de rastreo es cuánto quiere Google rastrear realmente su sitio. Las páginas que son populares, que se actualizan con frecuencia o que se descubren recientemente tienen más demanda. Las páginas obsoletas, de baja calidad o duplicadas tienen menos.

Su crawl budget efectivo es el menor de esos dos valores. Incluso si Google quiere rastrear miles de sus páginas, un servidor lento limitará cuántas puede realmente visitar. A la inversa, un servidor rápido no ayuda si Google no ve razón para rastrear la mayoría de sus URLs.

A quién le debe importar el crawl budget

No todos los sitios tienen un problema de crawl budget. Si su sitio tiene unas pocas cientos de páginas y una estructura limpia, Googlebot probablemente lo rastreará entero sin problema. Pero el crawl budget se vuelve un asunto crítico para:

  • Sitios grandes con decenas de miles o millones de páginas, como tiendas online, editores de noticias, portales de empleo y listados inmobiliarios
  • Sitios con problemas técnicos como exceso de contenido duplicado, cadenas de redirección o variaciones de URL generadas de forma dinámica
  • Sitios que crecen rápido que están añadiendo cientos o miles de páginas con regularidad y necesitan que se indexen pronto
  • Sitios con recursos de servidor limitados donde los tiempos de respuesta lentos fuerzan a Google a reducir su velocidad de rastreo

Si está en cualquiera de estas categorías, la optimización del crawl budget debería ser parte regular de su flujo de trabajo de SEO técnico.

Señales de un problema de crawl budget

Los problemas de crawl budget rara vez se anuncian con mensajes de error claros. Aparecen como síntomas sutiles que son fáciles de malinterpretar:

  • Indexación lenta de contenido nuevo. Publica páginas nuevas, pero tardan semanas en aparecer en los informes de cobertura de Google Search Console o en los resultados de búsqueda.
  • Páginas importantes ausentes del índice. Consulta site:sudominio.com/pagina-importante y descubre que no está indexada, a pesar de estar en vivo y enlazada internamente.
  • Estadísticas de rastreo que muestran esfuerzo desperdiciado. En Google Search Console bajo Ajustes y Estadísticas de rastreo, ve que Googlebot pasa la mayor parte de su tiempo en URLs de poco valor como páginas filtradas, secuencias antiguas de paginación o variantes con parámetros.
  • El análisis de logs del servidor revela el patrón. Cuando examina los logs crudos, encuentra a Googlebot pidiendo repetidamente URLs que devuelven redirecciones 301, errores 404 o contenido casi duplicado en lugar de sus páginas prioritarias.

Estos síntomas suelen coexistir. Un sitio que gasta crawl budget en contenido duplicado experimentará al mismo tiempo una indexación lenta de páginas nuevas, porque los dos problemas comparten la misma causa raíz.

Qué desperdicia el crawl budget

Entender las fuentes comunes de desperdicio es el primer paso para arreglarlas.

Contenido duplicado

Es la mayor fuente única de desperdicio de crawl budget en la mayoría de sitios. El contenido duplicado puede surgir de parámetros en la URL (ordenación, filtrado, códigos de seguimiento), variantes con www y sin www, versiones HTTP y HTTPS, barras al final, IDs de sesión añadidas a las URLs y versiones de página aptas para imprimir. Cada variante parece una URL distinta para Googlebot, incluso si el contenido es idéntico.

Cadenas de redirección

Cuando la URL A redirige a la URL B, que redirige a la URL C, que finalmente redirige a la URL D, Googlebot tiene que seguir cada paso en esa cadena. Cada salto consume una petición de rastreo. Con el tiempo, las cadenas se acumulan por migraciones, reestructuraciones de URL y cambios de CMS. Una sola cadena de cuatro saltos desperdicia tres peticiones de rastreo cada vez que Googlebot la encuentra.

Errores soft 404

Un soft 404 ocurre cuando una página devuelve un código 200 pero muestra contenido que dice “página no encontrada” o enseña una plantilla vacía. Googlebot tiene que descargar y renderizar estas páginas completamente antes de poder determinar que no tienen valor. Las respuestas 404 reales se identifican inmediatamente por el código de estado y cuestan mucho menos crawl budget.

Espacios infinitos de URL

Los calendarios, las páginas de resultados de búsqueda y la navegación facetada pueden generar combinaciones virtualmente ilimitadas de URLs. Un widget de calendario puede permitir navegar a cualquier fecha en cualquier año, creando miles de URLs rastreables sin contenido único. La navegación facetada en una tienda online puede combinar talla, color, marca, rango de precio y material en millones de permutaciones.

IDs de sesión y parámetros de seguimiento

Cuando los identificadores de sesión o los parámetros de analítica se incluyen en las URLs en lugar de en cookies o en JavaScript, cada sesión de usuario genera un conjunto único de URLs para el mismo contenido. Googlebot trata cada URL con parámetros como una página distinta.

Estrategias de optimización

Usar robots.txt para bloquear secciones de poco valor

El archivo robots.txt es su herramienta principal para impedir que Googlebot gaste tiempo en secciones de su sitio que nunca deberían indexarse. Los candidatos habituales incluyen:

  • Páginas de resultados de búsqueda interna
  • Áreas de administración y acceso
  • Páginas de carrito y pago
  • Rutas de navegación facetada que producen contenido duplicado
  • Páginas de combinaciones de etiquetas y filtros

Sea preciso con sus reglas Disallow. Bloquear un directorio entero es sencillo, pero asegúrese de no bloquear accidentalmente páginas que deberían rastrearse.

Entender noindex frente a disallow

Estas dos directivas cumplen propósitos diferentes y no son intercambiables.

Disallow en robots.txt impide que Googlebot rastree una URL por completo. La página no será descargada y su contenido no será evaluado. Sin embargo, si otros sitios enlazan a esa URL, Google puede indexar la URL en sí (sin contenido) basándose en el texto del enlace y el contexto del enlace.

La etiqueta meta noindex requiere que Googlebot realmente rastree y renderice la página para descubrir la directiva. Después la retira del índice. Esto consume crawl budget pero asegura que la página queda definitivamente fuera de los resultados de búsqueda.

La regla general: use disallow para páginas que no tienen valor SEO y no reciben enlaces externos. Use noindex para páginas que pueden recibir enlaces externos pero que no deberían aparecer en los resultados. Para optimización a gran escala, disallow es más eficiente porque evita el rastreo del todo.

Arreglar cadenas de redirección y enlaces rotos

Audite su sitio en busca de cadenas de redirección y actualícelas para que cada redirección apunte directamente al destino final. Una cadena A a B a C a D debería convertirse en A a D, B a D y C a D. Identifique y arregle también los enlaces internos rotos que llevan a páginas 404. Cada enlace roto desperdicia una petición de rastreo y envía a Googlebot a un callejón sin salida.

Consolidar el contenido duplicado con etiquetas canonical

Para páginas duplicadas que deben seguir siendo accesibles (como páginas de producto alcanzables por varias rutas de categoría), use la etiqueta rel="canonical" para apuntar todas las variantes a una URL preferida. Esto le dice a Google qué versión indexar y ayuda a consolidar las señales de rastreo. Las etiquetas canonical no impiden el rastreo, pero ayudan a Google a priorizar la versión correcta.

Mejorar los enlaces internos hacia las páginas importantes

Su estructura de enlaces internos influye directamente en la prioridad de rastreo. Las páginas que reciben enlaces desde muchas otras páginas de su sitio se rastrean con más frecuencia. Revise sus enlaces internos para asegurarse de que sus páginas más importantes (las que generan ingresos, el contenido clave, las categorías principales) reciben enlaces sólidos desde la navegación, el pie, la barra lateral y desde los enlaces en el contenido.

A la inversa, evite enlazar en exceso a páginas de baja prioridad. Cada enlace interno es una invitación a Googlebot para visitar esa URL.

Optimizar el sitemap XML

Su sitemap XML debería ser una lista curada de cada página que quiera indexada, y nada más. Quite del sitemap:

  • URLs que devuelven códigos distintos de 200
  • URLs que redirigen
  • URLs bloqueadas por robots.txt
  • Páginas con noindex
  • Páginas duplicadas o casi idénticas
  • Páginas paginadas que no sean la primera de la serie

Mantenga su sitemap actualizado automáticamente cuando añada o elimine páginas. Incluya fechas <lastmod> que reflejen cambios reales de contenido, no solo la fecha en que se regeneró el sitemap. Unas fechas lastmod honestas ayudan a Google a priorizar las páginas actualizadas recientemente.

Mejorar el tiempo de respuesta del servidor

Un servidor más rápido sube directamente su límite de velocidad de rastreo. Google rastreará más páginas por visita si su servidor responde rápido y de forma fiable. Las mejoras clave incluyen:

  • Use caché en el lado del servidor para las páginas que no cambian con frecuencia
  • Optimice las consultas a la base de datos que ralentizan la generación de páginas
  • Use una CDN para reducir la latencia para Googlebot, que rastrea principalmente desde direcciones IP situadas en los Estados Unidos
  • Vigile los errores 5xx, que hacen que Google reduzca la velocidad de rastreo de forma importante
  • Asegúrese de que su alojamiento puede manejar peticiones concurrentes sin degradación

Cómo supervisar el crawl budget

Optimizar sin medir es adivinar. Hay tres métodos principales para supervisar el crawl budget.

Análisis de logs del servidor

Los logs crudos del servidor dan la imagen más completa de cómo los motores de búsqueda interactúan con su sitio. Filtrando los logs por los user agents y rangos de IP conocidos de Googlebot, puede ver exactamente qué URLs se piden, con qué frecuencia y qué códigos de estado devuelven. El análisis de logs revela patrones que ninguna otra herramienta puede mostrar, como Googlebot entrando repetidamente en un bucle de redirección o gastando un tiempo desproporcionado en un directorio concreto.

Estadísticas de rastreo de Google Search Console

Bajo Ajustes en Google Search Console, el informe Estadísticas de rastreo muestra las peticiones totales, el tiempo medio de respuesta y un desglose de las respuestas por tipo. Estos datos son agregados y llegan con retraso, pero ofrecen una visión fiable de tendencias. Vigile los aumentos de respuestas “no modificadas” (que indican que Googlebot está volviendo a rastrear páginas sin cambios) y los picos de errores de servidor.

Usar un crawler para encontrar desperdicio

Un crawler SEO de escritorio le permite simular lo que Googlebot encuentra cuando visita su sitio. Puede identificar cadenas de redirección, enlaces rotos, contenido duplicado, páginas huérfanas y etiquetas canonical mal configuradas antes de que desperdicien crawl budget. Herramientas como Seodisias son especialmente útiles para este tipo de auditoría porque rastrean toda la estructura de su sitio y marcan los problemas exactos que llevan al desperdicio de rastreo, como cadenas largas de redirección, soft 404, títulos duplicados y páginas que faltan en su sitemap.

Ejecutar auditorías de rastreo de forma regular y cruzar los hallazgos con los logs del servidor le da una imagen completa de dónde se gasta el crawl budget y dónde se desperdicia.

Uniéndolo todo

La optimización del crawl budget no es una tarea de una sola vez. Es una disciplina continua que debería formar parte de su mantenimiento técnico de SEO habitual. Empiece identificando las mayores fuentes de desperdicio con análisis de logs y un rastreo del sitio. Priorice arreglos que afecten al mayor número de URLs: consolidar contenido duplicado, limpiar cadenas de redirección y bloquear con robots.txt los espacios de URL de poco valor.

Después, cambie el foco al lado positivo de la ecuación: fortalezca los enlaces internos hacia sus páginas más importantes, mantenga un sitemap XML limpio y conserve su servidor rápido y fiable. Supervise sus estadísticas de rastreo mensualmente para detectar nuevos problemas antes de que se acumulen.

Para sitios pequeños, estas optimizaciones pueden parecer innecesarias. Pero para cualquier sitio que se acerca a los miles de páginas, un crawl budget bien gestionado es la diferencia entre que el contenido nuevo se indexe en días y que tarde semanas. Y en nichos competitivos, esa ventaja de velocidad se traduce directamente en tráfico orgánico.