Orçamento de Crawl: O Que É e Como Garantir Que Google O Use Bem

Emily RedmondAnalista de Dados, Emilytics18 de abril de 2026

Orçamento de Crawl: O Que É e Como Garantir Que Google O Use Bem

Por Emily Redmond, Analista de Dados na Emilytics · Abril de 2026

TL;DR: Google tem um orçamento de crawl—um limite em quantas páginas ele faz crawl por dia. Se você o desperdiça em páginas de baixo valor, páginas importantes não são feitas crawl. Otimize bloqueando páginas de desperdício e melhorando velocidade do site.


O Que É Orçamento de Crawl?

O bot do Google, Googlebot, faz crawl de seu site a cada dia. Não faz crawl de cada página—é limitado por orçamento.

Orçamento de crawl = o número de páginas que Googlebot fará crawl em um dia.

Para um site pequeno (100 páginas): Orçamento de crawl pode ser 50 páginas/dia.

Para um site médio (10.000 páginas): Pode ser 5.000 páginas/dia.

Para um site grande (1.000.000 páginas): Pode ser 50.000 páginas/dia.

Google determina orçamento de crawl baseado em:

  1. Velocidade do site - Sites mais rápidos recebem orçamentos maiores
  2. Tempo de resposta do servidor - Se seu servidor é lento, Google faz crawl menos
  3. Saúde do site - Erros reduzem orçamento

Por Que Orçamento de Crawl Importa

Imagine que você tem 1.000 páginas. Orçamento de crawl do Google é 100 páginas/dia.

Se você otimiza:

  • Google faz crawl de suas 50 páginas mais importantes duas vezes por dia.
  • Conteúdo novo é feito crawl em 24 horas.
  • Atualizações são indexadas rapidamente.

Se você desperdiça orçamento:

  • Google desperdiça orçamento em páginas duplicadas, páginas filtradas, conteúdo antigo.
  • Suas páginas importantes são feitas crawl uma vez por semana.
  • Conteúdo novo leva 3–7 dias para ser indexado.

Orçamento de crawl desperdiçado = indexação mais lenta = ranking mais lento.


Como Verificar Seu Orçamento de Crawl

Em Google Search Console:

  1. Vá para Configurações > Estatísticas de Crawl.
  2. Você verá:
    • Solicitações por dia (orçamento de crawl usado)
    • Páginas feitas crawl por dia (quanto Google está fazendo crawl)
    • Dados baixados por dia (volume de dados)
    • Tempo gasto baixando uma página (quão rápido suas páginas são)

O que procurar:

Se solicitações por dia são constantes (p.ex., sempre 1.000), Google está usando seu orçamento completo. Isso é bom—se for eficiente.

Se solicitações por dia estão caindo, Google está fazendo crawl menos. Investigue por quê (geralmente velocidade do site ou erros).


Páginas Que Desperdiçam Orçamento de Crawl

Categoria 1: Páginas Duplicadas

Páginas filtradas, páginas de classificação, paginação—são variações do mesmo conteúdo.

Exemplo: Site de e-commerce

  • /produtos/sapatos
  • /produtos/sapatos?sort=price
  • /produtos/sapatos?sort=rating
  • /produtos/sapatos?color=blue

Todas são a mesma página de produto, apenas filtradas diferente. Google faz crawl de todas, desperdiçando orçamento.

Correção: Use rel=canonical para dizer ao Google qual é a página primária.

<link rel="canonical" href="/produtos/sapatos">

Coloque isso nas versões filtradas. Google fará crawl da canônica (primária) e pulará as outras.

Categoria 2: Conteúdo Desatualizado

Posts de blog antigos, conteúdo arquivado, páginas não mais relevantes.

Se você tem 1.000 posts antigos de blog e 100 novos, Google desperdiça tempo fazendo crawl do conteúdo antigo.

Correção: Ou delete conteúdo desatualizado ou redirecione para conteúdo mais novo.

Categoria 3: Páginas de Baixo Valor

Páginas de teste, rascunhos, ferramentas internas, páginas protegidas por senha.

Google pode fazer crawl dessas mas têm zero valor de negócio.

Correção: Bloqueie essas em robots.txt ou use noindex.

Exemplo robots.txt:

User-agent: *
Disallow: /test/
Disallow: /drafts/
Disallow: /admin/
Disallow: /old-versions/

Categoria 4: Facetas Infinitas

Widgets de calendário, páginas de parâmetro, combinações de filtro que geram URLs infinitas.

Seu site pode estar gerando 10.000+ URLs que não realmente existem.

Correção: Verifique Google Search Console para "Problemas de Crawl." Bloqueie facetas infinitas em robots.txt.

💡 A opinião da Emily: Eu vi sites com orçamentos de crawl de 500 páginas/dia mas apenas 1.000 páginas indexáveis totais. Isso é desperdício massivo. Eles tinham páginas de parâmetro duplicadas, conteúdo desatualizado, páginas de teste. Após limpeza, eficiência de crawl do Google saltou 40%. Mais páginas feitas crawl, menos orçamento desperdiçado.


Como Otimizar Orçamento de Crawl

Passo 1: Auditar Páginas Feitas Crawl

Em GSC:

  1. Vá para Estatísticas de Crawl.
  2. Exporte os dados.
  3. Verifique: Quais páginas Google está fazendo crawl?

Se você vê conteúdo antigo, páginas de teste ou páginas de baixo valor sendo feitas crawl, você tem um problema.

Passo 2: Bloquear Páginas de Desperdício

Atualize robots.txt:

User-agent: *
Disallow: /admin/
Disallow: /drafts/
Disallow: /old-blog/
Disallow: /*?utm_source=  (bloquear páginas de parâmetro de rastreamento)

Ou use <meta name="robots" content="noindex"> em páginas específicas.

Passo 3: Usar Tags Canônicas

Para quase-duplicatas (páginas filtradas, paginação), adicione:

<link rel="canonical" href="[pagina-primaria]">

Passo 4: Melhorar Velocidade do Site

Sites mais rápidos recebem orçamentos de crawl maiores. Otimize:

  • Tamanhos de imagem (comprimir)
  • Tempo de resposta do servidor (atualizar hospedagem)
  • Minificar CSS/JavaScript
  • Ativar cache

Uma melhoria de velocidade de 1 segundo pode aumentar orçamento de crawl em 10–20%.

Passo 5: Reduzir Cadeias de Redirecionar

Redirecionar consomem orçamento de crawl. Uma cadeia de 5 redireciona desperdiça tempo.

Verifique: /pagina-antiga redireciona para /pagina-nova redireciona para /pagina-final?

Correção: Faça /pagina-antiga redirecionar diretamente para /pagina-final.


Orçamento de Crawl para Diferentes Tipos de Site

Site Pequeno (< 1.000 páginas)

Você provavelmente não precisa otimizar orçamento de crawl. Google faz crawl de tudo mesmo.

Apenas garanta:

  • Sem facetas infinitas ou páginas de parâmetro duplicadas
  • Velocidade básica do site está bem
  • Sem erros de crawl

Site Médio (1.000–100.000 páginas)

Comece a prestar atenção. Bloqueie páginas de desperdício. Use tags canônicas. Monitore estatísticas de crawl.

Site Grande (> 100.000 páginas)

Orçamento de crawl é crítico. Implemente:

  • Bloqueio rigoroso de robots.txt
  • Canonicalização agressiva
  • Gerenciamento de orçamento de crawl dedicado
  • Auditorias regulares de site

Perguntas Frequentes

P: Posso aumentar meu orçamento de crawl?

R: Sim. Melhore velocidade do site, corrija erros e bloqueie páginas de desperdício. Google aumentará o orçamento gradualmente.

P: Orçamento de crawl afeta rankings?

R: Indiretamente. Se suas páginas importantes não são feitas crawl frequentemente, Google não sabe sobre atualizações. Indexação mais lenta pode prejudicar rankings de conteúdo fresco.

P: Devo bloquear PDFs de crawling?

R: A menos que PDFs sejam importantes para SEO, sim. Eles consomem orçamento de crawl. Bloqueie em robots.txt: Disallow: *.pdf

P: Com que frequência Google recalcula orçamento de crawl?

R: Diariamente. Baseado em velocidade do site, erros e outros fatores.

P: Posso definir um limite de orçamento de crawl?

R: Não diretamente. Mas você pode guiá-lo com robots.txt e tags canônicas.


Checklist de Auditoria de Orçamento de Crawl

  • Verifique orçamento de crawl atual em GSC
  • Exporte dados de estatísticas de crawl
  • Identifique páginas de desperdício (teste, rascunhos, conteúdo antigo)
  • Bloqueie páginas de desperdício em robots.txt
  • Verifique quase-duplicatas (adicione tags canônicas)
  • Audite cadeias de redirecionar (corrija ou consolide)
  • Teste velocidade do site
  • Otimize imagens e resposta do servidor
  • Re-verifique estatísticas de crawl após 2 semanas

A Conclusão

Orçamento de crawl é o encanamento atrás de indexação. Um orçamento de crawl saudável significa Google encontra e indexa seu conteúdo rapidamente.

Bloqueie páginas de desperdício. Use tags canônicas. Melhore velocidade do site. Monitore estatísticas de crawl.

Para sites pequenos, isso é "bom ter." Para sites grandes, é crítico.


Emily Redmond é uma analista de dados na Emilytics — o agente de analytics com IA observando seus dados 24 horas por dia. 8 anos de experiência. Diga oi →