Crawl Budget: Qué Es y Cómo Asegurar Que Google Lo Usa Bien
Por Emily Redmond, Analista de Datos en Emilytics · Abril 2026
TL;DR: Google tiene un crawl budget—un límite en cuántas páginas rastrea por día. Si lo desperdicias en páginas de bajo valor, páginas importantes no se rastrean. Optimiza bloqueando páginas de desperdicio y mejorando velocidad del sitio.
Qué Es Crawl Budget
El bot de Google, Googlebot, rastrea tu sitio cada día. No rastrea cada página, está limitado por presupuesto.
Crawl budget = el número de páginas que Googlebot rastreará en un día.
Para un sitio pequeño (100 páginas): el crawl budget podría ser 50 páginas/día.
Para un sitio medio (10,000 páginas): podría ser 5,000 páginas/día.
Para un sitio grande (1,000,000 páginas): podría ser 50,000 páginas/día.
Google determina crawl budget basado en:
- Velocidad del sitio - Sitios más rápidos obtienen presupuestos más altos
- Tiempo de respuesta del servidor - Si tu servidor es lento, Google rastrea menos
- Salud del sitio - Los errores reducen el presupuesto
Por Qué Crawl Budget Importa
Imagina que tienes 1,000 páginas. El crawl budget de Google es 100 páginas/día.
Si optimizas:
- Google rastrea tus 50 páginas más importantes dos veces por día.
- Contenido nuevo se rastrea dentro de 24 horas.
- Las actualizaciones se indexan rápidamente.
Si desperdicias presupuesto:
- Google desperdicia presupuesto en páginas duplicadas, páginas filtradas, contenido antiguo.
- Tus páginas importantes se rastrea una vez por semana.
- Contenido nuevo tarda 3–7 días en indexarse.
Crawl budget desperdiciado = indexación más lenta = ranking más lento.
Cómo Revisar Tu Crawl Budget
En Google Search Console:
- Ve a Configuración > Estadísticas de rastreo.
- Verás:
- Solicitudes por día (crawl budget usado)
- Páginas rastreadas por día (cuánto está rastreando Google)
- Datos descargados por día (volumen de datos)
- Tiempo dedicado a descargar una página (qué tan rápido son tus páginas)
Qué buscar:
Si las solicitudes por día son constantes (p. ej., siempre 1,000), Google está usando su presupuesto completo. Eso es bueno, si es eficiente.
Si las solicitudes por día están bajando, Google está rastreando menos. Investiga por qué (usualmente velocidad del sitio o errores).
Páginas Que Desperdician Crawl Budget
Categoría 1: Páginas Duplicadas
Páginas filtradas, páginas ordenadas, paginación, son variaciones del mismo contenido.
Ejemplo: Sitio de e-commerce
/products/shoes/products/shoes?sort=price/products/shoes?sort=rating/products/shoes?color=blue
Todas son la misma página de producto, solo filtradas diferente. Google rastrea todas, desperdiciando presupuesto.
Solución: Usa rel=canonical para decirle a Google cuál es la página principal.
<link rel="canonical" href="/products/shoes">
Pon esto en las versiones filtradas. Google rastreará la canónica (principal) y saltará las otras.
Categoría 2: Contenido Anticuado
Posts de blog viejos, contenido archivado, páginas ya no relevantes.
Si tienes 1,000 posts viejos y 100 nuevos, Google desperdicia tiempo rastreando el contenido antiguo.
Solución: O elimina contenido anticuado o redirecciona a contenido más nuevo.
Categoría 3: Páginas de Bajo Valor
Páginas de prueba, borradores, herramientas internas, páginas protegidas por contraseña.
Google podría rastrea estas pero tienen cero valor empresarial.
Solución: Bloquea estas en robots.txt o usa noindex.
Ejemplo robots.txt:
User-agent: *
Disallow: /test/
Disallow: /drafts/
Disallow: /admin/
Disallow: /old-versions/
Categoría 4: Facetas Infinitas
Widgets de calendario, páginas de parámetros, combinaciones de filtros que generan URLs infinitas.
Tu sitio podría estar generando 10,000+ URLs que realmente no existen.
Solución: Revisa Google Search Console para "Crawl Issues." Bloquea facetas infinitas en robots.txt.
💡 Emily's take: He visto sitios con crawl budgets de 500 páginas/día pero solo 1,000 páginas indexables totales. Eso es desperdicio masivo. Tenían páginas de parámetros duplicadas, contenido anticuado, páginas de prueba. Después del limpie, la eficiencia de crawl de Google saltó 40%. Más páginas rastreadas, menos presupuesto desperdiciado.
Cómo Optimizar Crawl Budget
Paso 1: Audita Páginas Rastreadas
En GSC:
- Ve a Estadísticas de rastreo.
- Exporta los datos.
- Revisa: ¿Qué páginas está rastreando Google?
Si ves contenido antiguo, páginas de prueba, o páginas de bajo valor siendo rastreadas, tienes un problema.
Paso 2: Bloquea Páginas de Desperdicio
Actualiza robots.txt:
User-agent: *
Disallow: /admin/
Disallow: /drafts/
Disallow: /old-blog/
Disallow: /*?utm_source= (bloquea páginas de parámetros de rastreo)
O usa <meta name="robots" content="noindex"> en páginas específicas.
Paso 3: Usa Canonical Tags
Para casi-duplicados (páginas filtradas, paginación), añade:
<link rel="canonical" href="[pagina-principal]">
Paso 4: Mejora Velocidad del Sitio
Los sitios más rápidos obtienen crawl budgets más altos. Optimiza:
- Tamaños de imagen (comprime)
- Tiempo de respuesta del servidor (upgrade hosting)
- Minifica CSS/JavaScript
- Habilita caching
Una mejora de velocidad de 1 segundo puede aumentar crawl budget 10–20%.
Paso 5: Reduce Cadenas de Redirección
Las redirecciones consumen crawl budget. Una cadena de 5 redirecciones desperdicia tiempo.
Revisa: ¿/old-page redirecciona a /new-page que redirecciona a /final-page?
Solución: Haz que /old-page redireccione directamente a /final-page.
Crawl Budget para Diferentes Tipos de Sitio
Sitio Pequeño (< 1,000 páginas)
Probablemente no necesites optimizar crawl budget. Google rastrea todo de todos modos.
Solo asegúrate:
- Sin facetas infinitas o páginas de parámetros duplicadas
- Velocidad básica del sitio está bien
- Sin errores de rastreo
Sitio Medio (1,000–100,000 páginas)
Comienza a prestar atención. Bloquea páginas de desperdicio. Usa canonical tags. Monitorea estadísticas de rastreo.
Sitio Grande (> 100,000 páginas)
Crawl budget es crítico. Implementa:
- Bloqueo estricto de robots.txt
- Canonicalización agresiva
- Gestión dedicada de crawl budget
- Auditorías regulares de sitio
Preguntas Frecuentes
P: ¿Puedo aumentar mi crawl budget?
R: Sí. Mejora velocidad del sitio, arregla errores, bloquea páginas de desperdicio. Google aumentará gradualmente el presupuesto.
P: ¿El crawl budget afecta los rankings?
R: Indirectamente. Si tus páginas importantes no se rastrea frecuentemente, Google no sabe sobre actualizaciones. La indexación más lenta puede dañar rankings de contenido fresco.
P: ¿Debo bloquear PDFs del rastreo?
R: A menos que los PDFs sean importantes para SEO, sí. Consumen crawl budget. Bloquea en robots.txt: Disallow: *.pdf
P: ¿Con qué frecuencia Google recalcula crawl budget?
R: Diariamente. Basado en velocidad del sitio, errores y otros factores.
P: ¿Puedo establecer un límite de crawl budget?
R: No directamente. Pero puedes guiarlo con robots.txt y canonical tags.
Lista de Verificación de Auditoría de Crawl Budget
- Revisa crawl budget actual en GSC
- Exporta datos de estadísticas de rastreo
- Identifica páginas de desperdicio (prueba, borradores, contenido antiguo)
- Bloquea páginas de desperdicio en robots.txt
- Revisa casi-duplicados (añade canonical tags)
- Audita cadenas de redirección (arregla o consolida)
- Prueba velocidad del sitio
- Optimiza imágenes y respuesta del servidor
- Vuelve a revisar estadísticas de rastreo después de 2 semanas
La Conclusión
Crawl budget es la tubería detrás de indexación. Un crawl budget saludable significa que Google encuentra e indexa tu contenido rápidamente.
Bloquea páginas de desperdicio. Usa canonical tags. Mejora velocidad del sitio. Monitorea estadísticas de rastreo.
Para sitios pequeños, esto es "agradable tener." Para sitios grandes, es crítico.
Emily Redmond es una analista de datos en Emilytics, el agente de analytics con IA observando tus datos las 24 horas. 8 años de experiencia. Saluda →