Como Fazer Teste A/B em Landing Pages e Medir o Vencedor em GA4
Por Emily Redmond, Analista de Dados na Emilytics · Abril 2026
TL;DR: Teste A/B em GA4 requer: defina sua hipótese, divida tráfego 50/50, rode por 2–4 semanas, depois verifique significância estatística. Um teste é real apenas se p-value < 0,05.
Vi uma empresa declarar vitória após 3 dias. Variante estava em alta 25%. Eles a colocaram em 100% do tráfego. Depois caiu 8%.
Três dias não era dados suficientes. O lift de 25% era ruído aleatório. Eles prejudicaram sua taxa de conversão ao pular a arma.
Teste A/B é poderoso. Mas apenas se você faz certo.
O Framework de Teste A/B
Teste A/B tem uma regra: mude uma variável por vez.
Se você muda headline, imagem e cor do botão de uma vez, você não saberá qual mexeu a agulha.
O processo:
- Forme uma hipótese (específica, mensurável)
- Mude uma variável
- Rode em 50% do tráfego
- Mantenha o outro 50% como controle
- Meça por 2–4 semanas
- Calcule significância estatística
- Decida
Passo 1: Forme Sua Hipótese
Uma boa hipótese é específica e testável.
Hipótese ruim: "O formulário provavelmente é muito longo."
Hipótese boa: "Nosso formulário de 5 campos tem 25% taxa de conclusão. Formulários de concorrentes com 2 campos têm 40% conclusão. Se reduzirmos nosso formulário para 2 campos (email + company), aumentaremos conclusão por pelo menos 15%."
A hipótese boa:
- Nomeia o problema (5 campos)
- Tem um benchmark (dados de concorrente)
- É mensurável (melhoria mínima de 15%)
- Tem uma razão (fricção reduzida)
Passo 2: Decida O Que Testar
Testes A/B comuns:
| Elemento | Exemplo |
|---|---|
| Headline | "Comece seu Trial Gratuito Hoje" vs. "Obtenha Superpoderes de Produtividade" |
| Texto CTA | "Enviar" vs. "Começar" vs. "Reclame seu Trial Gratuito" |
| Cor CTA | Azul vs. Laranja vs. Verde |
| Campos de formulário | 5 campos vs. 3 campos vs. 1 campo |
| Imagem | Foto de stock vs. foto de cliente vs. sem imagem |
| Comprimento de copy | 200 palavras vs. 500 palavras |
| Prova social | Sem testimoniais vs. 3 testimoniais vs. 5 testimoniais |
Regra: Teste os elementos que impulsionam conversão, não os que parecem legais.
Mudar cor de botão: impacto baixo geralmente (lifts de 5–10% no máximo). Mudar headline: impacto alto geralmente (lifts de 15–30% possíveis). Mudar comprimento de formulário: impacto alto (lifts de 20–40% possíveis).
Passo 3: Configure Seu Teste em GA4
GA4 tem uma ferramenta nativa de teste A/B: GA4 Experiments.
Para configurar:
- Vá para GA4 Admin → Experiments
- Clique "Create Experiment"
- Nomeie: "Homepage CTA Test" ou similar
- Selecione sua campanha: qual tráfego você está testando? (todo tráfego, ou fonte específica)
- Escolha variantes:
- Control (original)
- Variant 1 (nova versão)
- Configure alocação de tráfego: 50% control, 50% variant
- Escolha sua métrica primária: Conversion rate
- Configure sua hipótese: efeito mínimo detectável (ex: melhoria de 15%)
GA4 calculará tamanho de amostra necessário.
Alternativa: Use uma ferramenta de terceiros
Se você usa Optimizely, VWO, ou Unbounce, elas lidam com divisão e medição. Você não precisa GA4 Experiments.
Vantagem: mais fácil de usar, melhor reporte Desvantagem: outra ferramenta para pagar
Para este guia, pressumirei GA4 Experiments.
Passo 4: Calcule seu Tamanho de Amostra
Isso é crítico. Visitantes demais poucos e você está medindo ruído. Muitos e você está desperdiçando tempo.
GA4 Experiments calcula isso para você, mas aqui está a matemática:
Você precisa de visitantes suficientes para detectar sua melhoria alvo com 95% de confiança.
Exemplo:
- Taxa de conversão atual: 2%
- Melhoria alvo: 15% (para 2,3%)
- Nível de confiança: 95%
- Tamanho de amostra necessário: ~33.000 visitantes por variante
Se você tem 10.000 visitantes mensais:
- 5.000 para controle
- 5.000 para variante
- Isso é meia mês por variante
- Então 1 mês duração total do teste
Use uma calculadora online (Optimizely, VWO, ou GCALC) para computar seu tamanho de amostra específico.
Passo 5: Rode Seu Teste
Regras para rodar um teste:
Regra 1: Não olhe para resultados antes do teste acabar Toda vez que você olha, você é tentado a parar cedo. Não. Espere pela duração completa.
Regra 2: Rode por pelo menos 2 semanas Variação de dia da semana é real. Segunda ≠ Sexta. Rode duas semanas completas mínimo.
Regra 3: Rode por pelo menos 1 ciclo de venda completo (se aplicável) Se seu ciclo de venda é 4 semanas, rode pelo menos 4 semanas. Senão você está comparando maçãs com laranjas.
Regra 4: Não mude sua hipótese no meio Você começou testando "comprimento de formulário." Não mude para testar "cor de botão" no meio. Termine o teste.
Regra 5: Rastreie todas conversões, não apenas a principal Se você está testando para aumentar envios de formulário, também rastreie:
- Taxa de conclusão de formulário
- Abandono de formulário
- Conversões downstream (eles realmente compraram?)
Um teste pode aumentar envios de formulário mas diminuir qualidade de formulário. Você precisa ver ambos.
Passo 6: Analise os Resultados
O teste acabou. Agora você lê os dados.
Passo 1: Verifique tamanho de amostra Você tem visitantes suficientes para fazer uma conclusão? Use a calculadora novamente.
- Se sim, proceda
- Se não, você precisa de mais tempo ou mais tráfego
Passo 2: Calcule significância estatística Essa é a métrica mais importante. Use estatísticas integradas do GA4 ou uma calculadora como essa:
Significância estatística = quão confiantes estamos de que esse resultado é real (não aleatório)?
Você quer 95% de confiança mínimo. Em fala de estatística: p-value < 0,05.
Exemplo:
- Control: taxa de conversão de 2%
- Variante: taxa de conversão de 2,4% (+20%)
- Tamanho de amostra: 50.000 por variante
- Confiança: 95% (p-value = 0,03)
Interpretação: Há 95% de chance essa melhoria de 20% é real. Você pode declarar um vencedor.
Contra-exemplo:
- Control: taxa de conversão de 2%
- Variante: taxa de conversão de 2,3% (+15%)
- Tamanho de amostra: 100 por variante
- Confiança: 60% (p-value = 0,40)
Interpretação: Há apenas 60% de chance essa melhoria é real. Pode ser sorte. Mantenha o teste rodando ou abandone.
GA4 Experiments faz esse cálculo para você automaticamente. Te dirá "Este resultado é 87% estatisticamente significativo" ou "95% estatisticamente significativo." Só aja em 95%+.
Passo 3: Verifique métricas secundárias A variante melhorou:
- Taxa de conversão? Sim ✓
- Receita por conversão? Subiu ou desceu?
- Taxa de rejeição? Piorou?
- Taxa de conclusão de formulário? Mais pessoas terminaram?
Um teste pode ser estatisticamente significativo mas prejudicar outras métricas. Verifique.
Declare um Vencedor
Se variante vence (95%+ confiança):
- Coloque em 100% do tráfego
- Documente o resultado (o que mudou, o que melhorou, por quanto)
- Mova para próximo teste
Se controle vence:
- Mantenha o original
- Volte à estaca zero
- O que deu errado com a hipótese?
Se nenhum vencedor (abaixo de 95% confiança):
- Opção 1: Rode o teste mais tempo (mais 2 semanas)
- Opção 2: Aceite que não há diferença significativa e mantenha o original
- Opção 3: Mude sua hipótese e teste algo diferente
Não mantenha uma variante "perdedora" apenas porque você gosta. Dados vencem.
Erros Comuns em Teste A/B
Erro 1: Testar muitas coisas de uma vez Se você muda headline e cor do botão, você não saberá qual funcionou. Teste uma variável.
Erro 2: Parar o teste cedo Você atingiu significância estatística no dia 10. Pare! Você precisa 2–4 semanas para considerar variação semanal.
Erro 3: Medir a métrica errada Testando comprimento de formulário mas medindo envios de formulário, não taxa de conclusão de formulário. Meça o que importa.
Erro 4: Não considerar variação sazonal Testando sua homepage durante Black Friday? Resultados não se aplicarão a tráfego normal. Teste durante períodos "normais".
Erro 5: Ignorar qualidade de variante Um teste pode aumentar conversões mas converter clientes de baixa qualidade. Verifique métricas downstream (reembolsos, tickets de suporte, LTV).
💡 Emily's take: Uma vez rodei um teste que aumentou inscrições de trial gratuito por 40%. Parecia incrível. Depois percebi que a taxa de conversão de trial gratuito para pago realmente caiu por 20%, porque a nova variante estava atraindo "freebie seekers," não prospects sérios. Revertemos. Meça o que importa, não apenas o que converte no estágio de funil que está testando.
Rodar Múltiplos Testes
Uma vez que tem um sistema, rode testes concorrentes:
Exemplo de timeline:
- Teste 1: Headline (semanas 1–4)
- Teste 2: Comprimento de formulário (semanas 1–4, rodando simultaneamente)
- Teste 3: Cor CTA (semanas 5–8)
Isso requer tráfego suficiente para dividir 4 maneiras (controle + 3 variantes), mas se tem, pode ir mais rápido.
Não teste 10 coisas de uma vez. Isso é caos. Teste máximo 2–3 testes concorrentes.
Perguntas Frequentes
P: Por quanto tempo devo rodar um teste? R: Mínimo 2 semanas (para considerar variação de dia da semana), melhor 4 semanas (para considerar padrões semanais). Veja Por Quanto Tempo Deve Ser seu Período de Observação de Analytics?
P: Qual tamanho de amostra preciso? R: Depende de sua taxa de conversão atual e melhoria alvo. Use uma calculadora. Faixa típica: 1.000–50.000 por variante.
P: Posso manter uma variante se for 85% estatisticamente significativa? R: Tecnicamente, talvez. Mas recomendo esperar por 95%. A semana extra de confiança previne falsos vencedores. Plus, o custo de um falso positivo (colocar uma variante ruim em produção) é geralmente maior que o benefício de velocidade.
P: E se tenho muito baixo tráfego? R: Rode testes mais tempo (6–8 semanas em vez de 4). Ou teste mudanças maiores (copy completamente novo vs. pequenos tweaks). Ou use feedback qualitativo (entrevistas de usuário) para validar antes de testar.
P: Devo testar em móvel e desktop separadamente? R: Sim, se tem tráfego suficiente. Móvel e desktop frequentemente se comportam diferente. Se tráfego é baixo, teste ambos junto primeiro, depois segmente depois que vê um vencedor.
P: Posso fazer Teste A/B em tráfego de busca orgânica? R: Sim, usando GA4 Experiments. Mas note: tráfego orgânico é auto-selecionado (procuraram você). Mudanças que funcionam para orgânico podem não funcionar para PPC.
O Resultado Final
Teste A/B é como você transforma intuições em conhecimento.
Mas apenas se você é disciplinado: uma variável, 2–4 semanas, 95% significância. Apresse e você colocará em produção mudanças ruins.
Vá devagar. Teste pequeno. Aprenda rápido.
Emily Redmond é uma analista de dados na Emilytics — agente de AI analytics observando seu GA4, Search Console, e dados do Bing 24 horas por dia. 8 anos de experiência. Diga oi →