Wie du BigQuery mit GA4 für erweiterte Analysen verwendest
Von Emily Redmond, Datenanalystin bei Emilytics · April 2026
TL;DR: Exportiere GA4 zu BigQuery für Roh-Datenzugriff. Schreibe SQL-Abfragen, um Muster zu analysieren, die GA4-Interface nicht zeigen kann. Unbegrenzte Datenspeicherung und vollständiges Event-Level-Detail.
GA4 ist gut für Dashboards und Standard-Berichte. Aber für echte Analysen – Kohortanalyse, statistische Modellierung, Multi-Monats-Muster – brauchst du BigQuery.
Was ist BigQuery?
BigQuery ist Googles Data Warehouse. Du speicherst große Datenmengen und fragst sie mit SQL ab.
GA4 exportiert deine Roh-Event-Daten täglich zu BigQuery. Dann kannst du:
- Jede Dimension, jede Metrik, jede Kombination abfragen
- Komplexe SQL für Analysen schreiben, die GA4 nicht kann
- Zu BI-Tools exportieren (Looker, Tableau, Data Studio)
- Daten zu Data Warehouses oder Data Lakes speisen
- GA4 mit anderen Datenquellen kombinieren (CRM, Billing usw.)
Voraussetzungen
- Google Cloud-Projekt (Free Tier ist in Ordnung für kleine Datensätze)
- GA4-Property
- Ein bisschen SQL-Wissen (oder Willingness zu lernen)
Richte BigQuery-Export ein
Schritt 1: Erstelle ein Google Cloud-Projekt (falls nötig)
- Gehe zu console.cloud.google.com
- Erstelle ein neues Projekt
- Notiere die Projekt-ID
Schritt 2: Verbinde GA4 zu BigQuery
- Gehe zu GA4 → Admin
- Unter "Datenerfassung und -änderung" klicke auf BigQuery-Links
- Klicke auf Verbinde BigQuery-Projekt
- Wähle dein Projekt
- Wähle, welche Daten exportiert werden:
- "Google Analytics 4 Events" (Roh-Events, empfohlen)
- "Intraday" (Echtzeit, falls nötig)
- Verbinde
GA4 beginnt zu exportieren. Backfilling dauert 24-48 Stunden, dann exportiert täglich.
Schritt 3: Zugang zu BigQuery
- Gehe zu console.cloud.google.com
- Wähle dein Projekt
- Gehe zu BigQuery
- In der linken Seitenleiste, solltest du dein Projekt mit GA4-Datasets sehen
Verstehe GA4 BigQuery Data Structure
GA4 erstellt zwei Datasets:
analytics_[PROPERTY_ID]: Streaming Insert (Echtzeit)analytics_[PROPERTY_ID]_intraday: Intraday Data (täglich abgeschlossen)
Innerhalb jeder, werden Tabellen nach Datum benannt: events_20260101, events_20260102 usw.
Jede Zeile ist ein Event mit Spalten:
event_timestamp: Wenn das Event ausgelöst wurdeevent_name: Event Name (pageview, purchase usw.)user_id: Falls du User-ID trackstuser_pseudo_id: Anonyme Benutzer-IDuser_properties: Benutzerdefinierte Benutzereigenschaftenevent_params: Event-Parameter- Und mehr...
Deine erste BigQuery-Abfrage
Einfache Abfrage: Seitenaufrufe nach Datum
SELECT
DATE(TIMESTAMP_MICROS(event_timestamp)) as date,
COUNT(*) as pageviews
FROM `project.analytics_123456.events_*`
WHERE event_name = 'page_view'
GROUP BY date
ORDER BY date DESC
Ersetze project und 123456 mit deiner tatsächlichen Projekt-ID und GA4-Property-ID.
Das ruft ab:
- Datum
- Anzahl der Seitenaufrufe pro Tag
- Der letzten 30 Tage (das
events_*Wildcard passt alle Event-Tabellen an)
Abfrage: Umsatz nach Land
SELECT
(SELECT value FROM UNNEST(user_properties) WHERE key = 'country') as country,
ROUND(SUM(CAST((SELECT value FROM UNNEST(event_params) WHERE key = 'value').string_value AS FLOAT64)), 2) as revenue
FROM `project.analytics_123456.events_*`
WHERE event_name = 'purchase'
GROUP BY country
ORDER BY revenue DESC
Das ist komplexer, weil GA4s Daten verschachtelt sind. Eigenschaften sind Arrays, daher musst du sie entschachteln.
Häufige GA4 BigQuery-Analysen
Benutzer-Kohorten
"Benutzer, die sich im Januar angemeldet haben – wie viele sind noch 30 Tage aktiv?"
WITH signup_cohort AS (
SELECT
DATE(TIMESTAMP_MICROS(event_timestamp)) as signup_date,
user_id,
MIN(DATE(TIMESTAMP_MICROS(event_timestamp))) as first_day
FROM `project.analytics_123456.events_*`
WHERE event_name = 'sign_up'
GROUP BY signup_date, user_id
)
SELECT
signup_date,
COUNT(DISTINCT user_id) as signups_that_day,
COUNT(DISTINCT CASE WHEN TIMESTAMP_ADD(TIMESTAMP_MILLIS(first_day), INTERVAL 30 DAY) <= CURRENT_TIMESTAMP THEN user_id END) as still_active_30_days
FROM signup_cohort
WHERE signup_date = '2026-01-01'
GROUP BY signup_date
Funnel-Analyse
"Von Benutzern, die Produkt angesehen haben, wie viele fügen zum Warenkorb hinzu? Von diesen, wie viele kaufen?"
WITH product_viewers AS (
SELECT DISTINCT user_id
FROM `project.analytics_123456.events_*`
WHERE event_name = 'view_item'
),
cart_adders AS (
SELECT DISTINCT user_id
FROM `project.analytics_123456.events_*`
WHERE event_name = 'add_to_cart'
),
purchasers AS (
SELECT DISTINCT user_id
FROM `project.analytics_123456.events_*`
WHERE event_name = 'purchase'
)
SELECT
COUNT(DISTINCT pv.user_id) as viewed_product,
COUNT(DISTINCT ca.user_id) as added_to_cart,
COUNT(DISTINCT p.user_id) as purchased,
ROUND(100 * COUNT(DISTINCT ca.user_id) / COUNT(DISTINCT pv.user_id), 2) as product_to_cart_rate,
ROUND(100 * COUNT(DISTINCT p.user_id) / COUNT(DISTINCT ca.user_id), 2) as cart_to_purchase_rate
FROM product_viewers pv
LEFT JOIN cart_adders ca ON pv.user_id = ca.user_id
LEFT JOIN purchasers p ON ca.user_id = p.user_id
Customer Lifetime Value (CLV)
"Was ist der Gesamtumsatz pro Benutzer?"
SELECT
user_id,
COUNT(DISTINCT CASE WHEN event_name = 'purchase' THEN event_timestamp END) as purchase_count,
ROUND(SUM(CAST((SELECT value FROM UNNEST(event_params) WHERE key = 'value').string_value AS FLOAT64)), 2) as total_revenue,
ROUND(AVG(CAST((SELECT value FROM UNNEST(event_params) WHERE key = 'value').string_value AS FLOAT64)), 2) as avg_order_value
FROM `project.analytics_123456.events_*`
WHERE event_name = 'purchase'
GROUP BY user_id
ORDER BY total_revenue DESC
Tipps für die Schreibweise von GA4 BigQuery-Abfragen
-
Verwende
events_*Wildcard: Das passt alle Event-Tabellen an. Ohne es, fragst du nur einen Tag ab. -
TIMESTAMP_MICROS: GA4 speichert Zeitstempel in Mikrosekunden. Konvertiere mit
TIMESTAMP_MICROS(event_timestamp). -
Entschachtelung: Eigenschaften und Parameter sind verschachtelte Arrays. Verwende
UNNEST()undWHERE key = 'property_name'zum Extrahieren. -
Limite vor dem Abfragen: Starte mit
LIMIT 100zum Testen von Abfragen, bevor du auf Millionen Zeilen läufst. -
Überprüfe Kosten: Große Abfragen scannen viel Daten (bei ~6,25€/TB). Verwende
--Kommentare zum Schätzen der Kosten.
Verbinde BigQuery zu BI-Tools
Sobald du Abfragen in BigQuery hast, visualisiere sie:
Google Data Studio
- Erstelle einen Report in datastudio.google.com
- Wähle "BigQuery" als Datenquelle
- Wähle dein Projekt und deine Abfrage
- Entwerfe Visualisierungen
- Teile mit Team
Looker Studio (Premium)
Gleich wie Data Studio, aber erweitert.
Tableau
- Verbinde zu BigQuery (Tableau hat einen nativen Connector)
- Schreibe deine Abfragen oder wähle Tabellen
- Erstelle Dashboards
Kosten
- Free Tier: 1TB abgefragte Daten pro Monat ist kostenlos
- Pay-as-You-Go: 6,25€ pro TB gescannt danach
Die meisten kleinen Unternehmen bleiben unter 1TB/Monat und zahlen nichts.
Häufig gestellte Fragen
F: Wie lange, bis Daten in BigQuery nach dem Setup erscheinen? A: 24-48 Stunden für Backfill. Danach werden Daten täglich exportiert (normalerweise früher Morgen Pacific-Zeit).
F: Kann ich Echtzeit-Daten abfragen? A: Ja, verwende das Intraday-Dataset. Aber es ist auf die letzten paar Stunden begrenzt.
F: Muss ich SQL kennen, um BigQuery mit GA4 zu verwenden? A: Für Basis-Abfragen, nein – verwende vorgefertigte Templates oder Data Studio. Für benutzerdefinierte Analysen, ja.
F: Kann ich GA4-Daten mit anderen Datenquellen in BigQuery kombinieren? A: Ja. Du kannst GA4-Events und eine separate Tabelle von Customer CRM-Daten haben, dann sie verbinden.
F: Wie lange werden Daten in BigQuery gespeichert? A: Unbegrenzt (du setzt Speicherungsrichtlinien). Das ist der Grund, warum BigQuery besser als GA4 für langfristige Analysen ist.
Die Quintessenz
BigQuery ist dort, wo GA4-Daten zum Leben erwachen. Wenn du brauchst:
- Unbegrenzte Datenspeicherung
- Komplexe Multi-Monats-Analysen
- Kontrolle über was du misst
- Integration mit anderen Daten
Richte BigQuery-Export ein. Es ist kostenlos zu konfigurieren und kostet fast nichts zu betreiben.
Starte einfach (eine Abfrage), lerne SQL graduell und baue auf.
Emily Redmond ist Datenanalystin bei Emilytics — dem AI-Analytics-Agent, der dein GA4, deine Search Console und deine Bing-Daten rund um die Uhr überwacht, damit du nie verpasst, was wichtig ist. 8 Jahre Erfahrung darin, Gründern und Growth-Teams zu helfen, Datenchaos in klare Entscheidungen zu verwandeln. Sag Hallo →