A Diferença Entre Correlação e Causação em Analytics de CRO
Por Emily Redmond, Analista de Dados na Emilytics · Abril 2026
TL;DR: GA4 mostra correlações (duas métricas se movendo juntas). Apenas A/B tests provam causação (esta mudança causou aquele resultado). Não confunda as duas.
Uma empresa notou que em dias com mais tráfego, tinha taxas de conversão mais baixas.
Hipótese: "Tráfego alto é ruim para conversões. Devemos reduzir nosso gasto em anúncios."
Errado. Eles tinham apenas lançado uma nova campanha publicitária visando audiências amplas. Mais tráfego, tráfego menor intenção, taxa de conversão menor.
Duas métricas se moveram juntas, mas nenhuma causou a outra. Um terceiro fator (qualidade de tráfego) causou ambas.
Isto é correlação vs. causação.
Qual é a Diferença?
Correlação: Duas coisas se movem juntas
- Exemplo: Tráfego sobe, taxa de bounce sobe
Causação: Uma coisa causa a outra
- Exemplo: Carregamentos lentos de página causam taxa de bounce mais alta
Correlação pode sugerir causação, mas não prova.
Correlações Falsas Comuns em CRO
Correlação Falsa 1: Sazonalidade
Observação: Todo dezembro, taxa de conversão sobe. Janeiro desce.
Conclusão falsa: Nossa campanha de novembro é incrível. Novembro causa conversões de dezembro.
Razão real: Dezembro é estação de compras de feriado (demanda sazonal), janeiro é orçamento restrito (comportamento sazonal).
Prova: Teste uma campanha de novembro em julho. Conversão fica plana (não é a campanha, é a estação).
Correlação Falsa 2: Qualidade de Tráfego vs. Volume
Observação: Conforme tráfego paid social aumenta, taxa de conversão diminui.
Conclusão falsa: Paid social não funciona. Pare de comprá-lo.
Razão real: Paid social traz volume, mas tráfego menor intenção. Maior intenção vem de organic search.
Prova: Organic 3% conversão, paid social 1% conversão. Não pare paid social porque volume compensa (mais visitantes × taxa menor = mesma receita). Em vez disso, melhore targeting paid social.
Correlação Falsa 3: Tempo de Teste
Observação: Você rodou um teste segunda-sexta e venceu. A versão fim de semana perdeu.
Conclusão falsa: A mudança é ruim.
Razão real: Segunda-sexta tem intenção de tráfego diferente que fins de semana (dia da semana = profissional/pesquisa, fim de semana = navegação/casual).
Prova: Execute o mesmo teste em fins de semana. Pode vencer ou perder diferentemente. Teste por dia da semana separadamente.
Correlação Falsa 4: Eventos Externos
Observação: Taxa de conversão subiu no dia que seu CEO foi destaque na Forbes.
Conclusão falsa: O artigo causou conversões.
Razão real: Coincidência. Ou o artigo atraiu mix de tráfego diferente (mais alto intenção).
Prova: Acompanhe conversões pela semana. Se estão consistentemente acima, o artigo importou. Se é apenas um dia, é ruído.
Como Detectar Correlações Falsas
Teste 1: Lag de tempo
As duas métricas se movem juntas imediatamente ou há lag?
- Mudanças de taxa de conversão acontecem imediatamente (as pessoas começam convertendo diferente)
- Mudanças de receita acontecem com lag (as pessoas compram, depois mostra em contas)
Se conversão está acima mas receita é plana por uma semana, talvez as conversões não estejam pagando (ou são qualidade baixa).
Teste 2: Segmente os dados
A correlação se mantém em todos os segmentos ou apenas um?
Exemplo: "Tráfego está acima, conversão está abaixo"
Segmente por fonte:
- Organic: tráfego acima 10%, conversão plana
- Paid social: tráfego acima 30%, conversão abaixo 20%
A correlação é real, mas apenas para paid social. Algo diferente lá (talvez incompatibilidade de audiência ou mudança de algoritmo da plataforma).
Teste 3: Procure por um mecanismo
Você consegue explicar COMO uma coisa causou a outra?
"Tráfego acima, conversão abaixo" — como isto funciona? Mais visitantes geralmente não diminuem taxa de conversão a menos que:
- Página ficou mais lenta (sobrecarga de tráfego)
- Tráfego menor qualidade (audiência errada)
- Problema técnico (rastreamento quebrado)
Se não consegue explicar o mecanismo, provavelmente é correlação, não causação.
Correlação Pode Ser um Sinal, Não Prova
Correlação não é inútil. É um sinal para investigar.
Exemplo: Você nota: "Dias com profundidade scroll alta têm taxa de conversão mais alta."
Correlação = profundidade scroll e conversão se movem juntas.
Causação = NÃO provada ainda. Poderia ser:
- Profundidade scroll causa conversões (engagement leva a compra)
- Conversões causam profundidade scroll (eles leem mais porque estão interessados)
- Intenção causa ambas (usuários alto-intenção scrollam mais E convertem)
Como testar causação: Execute A/B test forçando profundidade scroll:
- Controle: página normal
- Variante: página com scroll forçado (página é mais alta, requer scroll)
Se variante melhora conversão, profundidade scroll causa conversão. Se não, a correlação era sinal de intenção, não a causa.
Como A/B Testing Prova Causação
A/B testing é a ÚNICA maneira de provar causação em CRO.
Por quê?
Um A/B test isola a variável:
- Controle: página original (profundidade scroll: natural)
- Variante: página nova (apenas uma coisa mudou: scroll forçado)
Se variante converte melhor, aquela mudança causou.
Dados GA4 apenas mostram correlações (duas coisas se movendo juntas). A/B tests provam causação (esta mudança causou aquele resultado).
A/B Testing GA4: Meça o Vencedor cobre como executar testes próprios.
Erros Comuns
Erro 1: Assumir Correlação Significa Sua Mudança Funcionou
Cenário: Você otimizou velocidade de página semana passada. Esta semana, conversões estão acima 5%.
Conclusão errada: Velocidade de página causou melhoria.
Conclusão melhor: Correlações existem. Algo mais mudou? Fonte de tráfego mudou? Você rodou novos anúncios? Houve sazonalidade?
Apenas um A/B test apropriado (velocidade antiga vs. velocidade nova) prova que velocidade de página causou.
Erro 2: Olhar Apenas uma Métrica
Cenário: Envios de formulário estão acima 20%.
Pode significar: Seu formulário ficou melhor. Ou... mais visitantes = mais envios (nenhuma melhoria de taxa de conversão). Ou... leads menor qualidade (envios altos, conversão baixa para cliente).
Sempre acompanhe múltiplas métricas:
- Contagem envio
- Taxa envio (por visitante)
- Conversão downstream (eles compram?)
Erro 3: Confundir "Correlacionado" com "Preditivo"
Cenário: "Usuários que visitam 3+ páginas convertem em 10%, usuários que visitam 1 página convertem em 1%. Então visitas multi-página predizem conversões."
Verdadeiro. Mas visitações de página múltipla CAUSAM maior conversão? Ou usuários alto-intenção visitam mais páginas AND convertem?
Teste: Force usuários a visitar 3+ páginas (fricção), depois meça conversão. Se cair, visitas multi-página são sinal de intenção, não uma causa.
Significância Estatística e Causação
Importante: Significância estatística ≠ causação
Significância estatística significa: "Este resultado é improvável ser aleatório (95%+ confiança)."
Exemplo:
- 50.000 usuários em teste
- Controle: 2% conversão
- Variante: 2,1% conversão
- Significância estatística: 95%
Isto é estatisticamente significativo (não aleatório). Mas a mudança causou? Apenas se você mudou UMA variável e controlou tudo mais.
Se você mudou headline, cor de botão e imagem tudo de uma vez, significância estatística diz que ALGO funcionou, não o quê.
Perguntas Frequentes
P: Como sei se uma correlação é real ou aleatória? R: Olhe tamanho de amostra e consistência. Uma instância de correlação = ruído. Correlação consistente em muitos pontos de dados = pode ser real. Mas sempre valide com um A/B test.
P: Se vejo correlação, devo testá-la? R: Apenas se alto impacto. "Tráfego acima, bounce rate acima" é comum (variação de qualidade de tráfego). Teste apenas se você tem hipótese (ex., "páginas lentas causam bounce maior").
P: Posso usar dados GA4 apenas para provar causação? R: Não. GA4 mostra correlações. A/B testing prova causação. Use ambos.
P: E se meu resultado A/B test contradiz minha correlação GA4? R: Confie no A/B test. É um experimento controlado. Correlações GA4 podem ser enganosas por variáveis confundidoras.
O Resultado Final
Dados GA4 mostram o que aconteceu. A/B tests mostram POR QUE aconteceu.
Não confunda correlação com causação. Duas métricas se movendo juntas é interessante, mas não é prova.
Sempre teste suas hipóteses. Apenas A/B tests provam causação.
Emily Redmond é analista de dados na Emilytics — agente de analytics AI observando GA4, Search Console e dados do Bing 24 horas. 8 anos de experiência. Diga oi →