Der Unterschied zwischen Korrelation und Kausalität in CRO Analytics
Von Emily Redmond, Datenanalystin bei Emilytics · April 2026
TL;DR: GA4 zeigt Korrelationen (zwei Metriken bewegen sich zusammen). Nur A/B Tests beweisen Kausalität (diese Änderung verursachte dieses Ergebnis). Vermische sie nicht.
Ein Unternehmen bemerkte, dass an Tagen mit mehr Traffic sie niedrigere Konvertierungsraten hatten.
Hypothese: „Hoher Traffic ist schlecht für Konvertierungen. Wir sollten unser Ad-Budget reduzieren."
Falsch. Sie hatten gerade eine neue Kampagne lanciert, die breite Publikum anvisierte. Mehr Traffic, niedrigere-Intent Traffic, niedrigere Konvertierungsrate.
Zwei Metriken bewegt sich zusammen, aber weder verursachte die andere. Ein dritter Faktor (Traffic-Qualität) verursachte beide.
Das ist Korrelation vs. Kausalität.
Was ist der Unterschied?
Korrelation: Zwei Dinge bewegen sich zusammen
- Beispiel: Traffic geht hoch, Absprungrate geht hoch
Kausalität: Eine Sache verursacht die andere
- Beispiel: Langsame Seitenladzeiten verursachen höhere Absprungrate
Korrelation kann auf Kausalität hindeuten, aber sie beweist sie nicht.
Häufige falsche Korrelationen in CRO
Falsche Korrelation 1: Saisonalität
Beobachtung: Jeden Dezember geht die Konvertierungsrate hoch. Januar geht runter.
Falsche Schlussfolgerung: Unsere November-Kampagne ist erstaunlich. November verursacht Dezember-Konvertierungen.
Echter Grund: Dezember ist Feiertag-Shopping-Saison (saisonale Nachfrage), Januar ist Budget-beschränkt (saisonales Verhalten).
Beweis: Teste eine November-Kampagne im Juli. Konvertierung bleibt flach (nicht die Kampagne, es ist die Saison).
Falsche Korrelation 2: Traffic-Qualität vs. Volumen
Beobachtung: Wie bezahlter Social Traffic steigt, Konvertierungsrate sinkt.
Falsche Schlussfolgerung: Bezahlte Social funktioniert nicht. Stoppe das Kaufen davon.
Echter Grund: Bezahlte Social bringt Volumen, aber niedrigere-Intent Traffic. Höhere Intent kommt von organischer Suche.
Beweis: Organisch 3%-Konvertierung, bezahlte Social 1%-Konvertierung. Stoppe nicht bezahlte Social weil Volumen kompensiert (mehr Besucher × niedrigere Rate = gleiche Einnahmen). Statt dem, verbessere bezahlte Social-Targeting.
Falsche Korrelation 3: Test-Zeitpunkt
Beobachtung: Du lauftest einen Test Montag–Freitag und es gewann. Die Wochenend-Version verlor.
Falsche Schlussfolgerung: Die Änderung ist schlecht.
Echter Grund: Montag–Freitag hat andere Traffic-Intent als Wochenenden (Wochentag = professionell/Forschung, Wochenende = browsing/casual).
Beweis: Laufe den gleichen Test auf Wochenenden. Könnte gewinnen oder verlieren anders. Teste nach Tag-der-Woche separat.
Falsche Korrelation 4: Externe Events
Beobachtung: Konvertierungsrate ging hoch am Tag dein CEO wurde in Forbes gezeigt.
Falsche Schlussfolgerung: Der Artikel verursachte Konvertierungen.
Echter Grund: Zufall. Oder der Artikel zog verschiedene Traffic-Mix an (mehr hohe-Intent).
Beweis: Verfolge Konvertierungen für die Woche. Wenn sie gleichmäßig hoch sind, der Artikel zählte. Wenn es nur ein Tag ist, es ist Noise.
Wie du falsche Korrelationen erkennst
Test 1: Zeit-Lücke
Bewegen sich die zwei Metriken zusammen sofort, oder ist es Lücke?
- Konvertierungs-Rate-Änderungen passieren sofort (Menschen starten anders zu konvertieren)
- Einnahmen-Änderungen passieren mit Lücke (Menschen kaufen, dann zeigt es sich in Konten)
Wenn Konvertierung hoch ist aber Einnahmen flach für eine Woche, vielleicht Konvertierungen zahlen nicht (oder niedrige Qualität).
Test 2: Segmentiere die Daten
Hält die Korrelation über alle Segmente, oder nur eins?
Beispiel: „Traffic hoch, Konvertierung runter"
Segmentiere durch Quelle:
- Organisch: Traffic hoch 10%, Konvertierung flach
- Bezahlte Social: Traffic hoch 30%, Konvertierung runter 20%
Die Korrelation ist echt, aber nur für bezahlte Social. Etwas ist anderes dort (Publikum-Mismatch oder Plattform-Algorithmus-Änderung).
Test 3: Schaue für einen Mechanismus
Kannst du erklären WIE eine verursachte die andere?
„Traffic hoch, Konvertierung runter" – wie funktioniert das? Mehr Besucher normalerweise reduziert nicht die Konvertierungsrate wenn nicht:
- Seite wurde langsamer (Traffic-Überladung)
- Niedrigere-Qualität Traffic (falsches Publikum)
- Technisches Problem (kaputtes Tracking)
Wenn du nicht den Mechanismus erklären kannst, es ist wahrscheinlich Korrelation, nicht Kausalität.
Korrelation kann ein Signal sein, nicht Beweis
Korrelation ist nicht nutzlos. Es ist ein Signal um zu untersuchen.
Beispiel: Du beachtest: „Tage mit hohem Scroll-Tiefe haben höhere Konvertierungsrate."
Korrelation = Scroll-Tiefe und Konvertierung bewegen sich zusammen.
Kausalität = NICHT noch bewiesen. Könnte sein:
- Scroll-Tiefe verursacht Konvertierungen (Engagement führt zu Kaufen)
- Konvertierungen verursachen Scroll-Tiefe (sie lesen mehr weil interessiert)
- Intent verursacht beide (hohe-Intent Menschen scrollen mehr UND konvertieren)
Wie zu testen Kausalität: Laufe einen A/B Test erzwungene Scroll-Tiefe:
- Control: normale Seite
- Variante: Seite mit erzwungene Scroll (Seite ist größer, braucht Scrolling)
Wenn Variante konvertiert besser, Scroll-Tiefe verursacht Konvertierung. Wenn nicht, die Korrelation war ein Zeichen von Intent, nicht die Ursache.
Wie A/B Testing Kausalität beweist
A/B Testing ist der EINZIGE Weg Kausalität in CRO zu beweisen.
Warum?
Ein A/B Test isoliert die Variable:
- Control: original Seite (Scroll-Tiefe: natürlich)
- Variante: neue Seite (nur eine Sache geändert: Scroll-Tiefe erzwungen)
Wenn Variante besser konvertiert, diese eine Änderung verursachte es.
GA4-Daten zeigen nur Korrelationen (zwei Dinge bewegen sich zusammen). A/B Tests beweisen Kausalität (diese Änderung verursachte dieses Ergebnis).
A/B Testing GA4: Messung des Gewinners behandelt wie echte Tests zu laufen.
Häufige Fehler
Fehler 1: Annahme Korrelation bedeutet deine Änderung funktioniert
Szenario: Du optimierte Seitengeschwindigkeit letzte Woche. Diese Woche sind Konvertierungen 5% hoch.
Falsche Schlussfolgerung: Seitengeschwindigkeit verursachte die Verbesserung.
Bessere Schlussfolgerung: Korrelationen existieren. Änderte etwas anderes? Änderte sich Traffic-Quelle? Lauftest du neue Ads? War es Saisonalität?
Nur einen korrekten A/B Test (alt Speed vs. neue Speed) beweist Seitengeschwindigkeit verursachte es.
Fehler 2: Schaue nur eine Metrik an
Szenario: Formular-Submissions sind hoch 20%.
Könnte bedeuten: Dein Formular wurde besser. Oder... mehr Besucher = mehr Submissions (keine Konvertierungsrate-Verbesserung). Oder... niedrigere-Qualität Leads (hohe Submissions, niedrige Konvertierung zu Kundin).
Verfolge immer mehrere Metriken:
- Submission Zähler
- Submission Rate (pro Besucher)
- Downstream-Konvertierung (kaufen sie?)
Fehler 3: Verwirre „korreliert" mit „prädiktiv"
Szenario: „Benutzer, die 3+ Seiten besuchen konvertieren bei 10%, Benutzer, die 1 Seite besuchen konvertieren bei 1%. So Multi-Seite Besuche vorhersagen Konvertierungen."
Wahr. Aber verursacht das Besuchen mehr Seiten URSACHE höhere Konvertierung? Oder machen hohe-Intent Benutzer mehr Seiten besuchen UND konvertieren?
Test: Erzwinge Benutzer 3+ Seiten zu besuchen (Reibung), dann gemessen Konvertierung. Wenn es sinkt, Multi-Seite Besuche sind ein Zeichen von Intent, nicht eine Ursache.
Statistische Signifikanz und Kausalität
Wichtig: Statistische Signifikanz ≠ Kausalität
Statistische Signifikanz bedeutet: „Dieses Ergebnis ist unwahrscheinlich zu sein random (95%+ Vertrauen)."
Beispiel:
- 50.000 Benutzer in Test
- Control: 2% Konvertierung
- Variante: 2,1% Konvertierung
- Statistische Signifikanz: 95%
Das ist statistisch signifikant (nicht Random). Aber verursachte die Änderung es? Nur wenn du eine VARIABLE änderst und alles anderes kontrollerst.
Wenn du Headline, Button-Farbe und Bild all zur gleichen Zeit änderst, statistische Signifikanz sagt dir ETWAS funktioniert, nicht was.
Häufig gestellte Fragen
F: Wie weiß ich wenn eine Korrelation echt oder Random ist? A: Schaue Stichprobengröße und Konsistenz. Ein Beispiel von Korrelation = Noise. Konsistente Korrelation über viele Datenpunkte = könnte echt sein. Aber immer mit einem A/B Test validieren.
F: Wenn ich eine Korrelation sehe, sollte ich es testen? A: Nur wenn es hohe-Auswirkung ist. „Traffic hoch, Absprungrate hoch" ist häufig (Traffic-Qualität Variation). Teste nur wenn du eine Hypothese hast (z.B., „langsame Seiten verursachen höhere Absprung").
F: Kann ich GA4-Daten alleine verwenden um Kausalität zu beweisen? A: Nein. GA4 zeigt Korrelationen. A/B Testing beweist Kausalität. Nutze beide.
F: Was wenn mein A/B Test Ergebnis widerspreicht meine GA4-Korrelation? A: Vertraue dem A/B Test. Es ist ein kontrolliertes Experiment. GA4-Korrelationen können irreführend sein wegen Confounding-Variablen.
Das Endergebnis
GA4-Daten zeigt dir was passiert. A/B Tests zeigen dir WARUM es passiert.
Verwirre nicht Korrelation mit Kausalität. Zwei Metriken, die sich zusammen bewegen ist interessant, aber es ist nicht Beweis.
Teste immer deine Hypothesen. Nur A/B Tests beweisen Kausalität.
Emily Redmond ist Datenanalystin bei Emilytics – AI Analytics Agent, der deine GA4, Search Console und Bing-Daten rund um die Uhr überwacht. 8 Jahre Erfahrung. Sag Hallo →