Wie du BigQuery mit GA4 für erweiterte Analysen verwendest

Emily RedmondDatenanalystin18. April 2026

Wie du BigQuery mit GA4 für erweiterte Analysen verwendest

Von Emily Redmond, Datenanalystin bei Emilytics · April 2026

TL;DR: Exportiere GA4 zu BigQuery für Roh-Datenzugriff. Schreibe SQL-Abfragen, um Muster zu analysieren, die GA4-Interface nicht zeigen kann. Unbegrenzte Datenspeicherung und vollständiges Event-Level-Detail.


GA4 ist gut für Dashboards und Standard-Berichte. Aber für echte Analysen – Kohortanalyse, statistische Modellierung, Multi-Monats-Muster – brauchst du BigQuery.


Was ist BigQuery?

BigQuery ist Googles Data Warehouse. Du speicherst große Datenmengen und fragst sie mit SQL ab.

GA4 exportiert deine Roh-Event-Daten täglich zu BigQuery. Dann kannst du:

  • Jede Dimension, jede Metrik, jede Kombination abfragen
  • Komplexe SQL für Analysen schreiben, die GA4 nicht kann
  • Zu BI-Tools exportieren (Looker, Tableau, Data Studio)
  • Daten zu Data Warehouses oder Data Lakes speisen
  • GA4 mit anderen Datenquellen kombinieren (CRM, Billing usw.)

Voraussetzungen

  1. Google Cloud-Projekt (Free Tier ist in Ordnung für kleine Datensätze)
  2. GA4-Property
  3. Ein bisschen SQL-Wissen (oder Willingness zu lernen)

Richte BigQuery-Export ein

Schritt 1: Erstelle ein Google Cloud-Projekt (falls nötig)

  1. Gehe zu console.cloud.google.com
  2. Erstelle ein neues Projekt
  3. Notiere die Projekt-ID

Schritt 2: Verbinde GA4 zu BigQuery

  1. Gehe zu GA4 → Admin
  2. Unter "Datenerfassung und -änderung" klicke auf BigQuery-Links
  3. Klicke auf Verbinde BigQuery-Projekt
  4. Wähle dein Projekt
  5. Wähle, welche Daten exportiert werden:
    • "Google Analytics 4 Events" (Roh-Events, empfohlen)
    • "Intraday" (Echtzeit, falls nötig)
  6. Verbinde

GA4 beginnt zu exportieren. Backfilling dauert 24-48 Stunden, dann exportiert täglich.

Schritt 3: Zugang zu BigQuery

  1. Gehe zu console.cloud.google.com
  2. Wähle dein Projekt
  3. Gehe zu BigQuery
  4. In der linken Seitenleiste, solltest du dein Projekt mit GA4-Datasets sehen

Verstehe GA4 BigQuery Data Structure

GA4 erstellt zwei Datasets:

  1. analytics_[PROPERTY_ID]: Streaming Insert (Echtzeit)
  2. analytics_[PROPERTY_ID]_intraday: Intraday Data (täglich abgeschlossen)

Innerhalb jeder, werden Tabellen nach Datum benannt: events_20260101, events_20260102 usw.

Jede Zeile ist ein Event mit Spalten:

  • event_timestamp: Wenn das Event ausgelöst wurde
  • event_name: Event Name (pageview, purchase usw.)
  • user_id: Falls du User-ID trackst
  • user_pseudo_id: Anonyme Benutzer-ID
  • user_properties: Benutzerdefinierte Benutzereigenschaften
  • event_params: Event-Parameter
  • Und mehr...

Deine erste BigQuery-Abfrage

Einfache Abfrage: Seitenaufrufe nach Datum

SELECT
  DATE(TIMESTAMP_MICROS(event_timestamp)) as date,
  COUNT(*) as pageviews
FROM `project.analytics_123456.events_*`
WHERE event_name = 'page_view'
GROUP BY date
ORDER BY date DESC

Ersetze project und 123456 mit deiner tatsächlichen Projekt-ID und GA4-Property-ID.

Das ruft ab:

  • Datum
  • Anzahl der Seitenaufrufe pro Tag
  • Der letzten 30 Tage (das events_* Wildcard passt alle Event-Tabellen an)

Abfrage: Umsatz nach Land

SELECT
  (SELECT value FROM UNNEST(user_properties) WHERE key = 'country') as country,
  ROUND(SUM(CAST((SELECT value FROM UNNEST(event_params) WHERE key = 'value').string_value AS FLOAT64)), 2) as revenue
FROM `project.analytics_123456.events_*`
WHERE event_name = 'purchase'
GROUP BY country
ORDER BY revenue DESC

Das ist komplexer, weil GA4s Daten verschachtelt sind. Eigenschaften sind Arrays, daher musst du sie entschachteln.


Häufige GA4 BigQuery-Analysen

Benutzer-Kohorten

"Benutzer, die sich im Januar angemeldet haben – wie viele sind noch 30 Tage aktiv?"

WITH signup_cohort AS (
  SELECT
    DATE(TIMESTAMP_MICROS(event_timestamp)) as signup_date,
    user_id,
    MIN(DATE(TIMESTAMP_MICROS(event_timestamp))) as first_day
  FROM `project.analytics_123456.events_*`
  WHERE event_name = 'sign_up'
  GROUP BY signup_date, user_id
)
SELECT
  signup_date,
  COUNT(DISTINCT user_id) as signups_that_day,
  COUNT(DISTINCT CASE WHEN TIMESTAMP_ADD(TIMESTAMP_MILLIS(first_day), INTERVAL 30 DAY) <= CURRENT_TIMESTAMP THEN user_id END) as still_active_30_days
FROM signup_cohort
WHERE signup_date = '2026-01-01'
GROUP BY signup_date

Funnel-Analyse

"Von Benutzern, die Produkt angesehen haben, wie viele fügen zum Warenkorb hinzu? Von diesen, wie viele kaufen?"

WITH product_viewers AS (
  SELECT DISTINCT user_id
  FROM `project.analytics_123456.events_*`
  WHERE event_name = 'view_item'
),
cart_adders AS (
  SELECT DISTINCT user_id
  FROM `project.analytics_123456.events_*`
  WHERE event_name = 'add_to_cart'
),
purchasers AS (
  SELECT DISTINCT user_id
  FROM `project.analytics_123456.events_*`
  WHERE event_name = 'purchase'
)
SELECT
  COUNT(DISTINCT pv.user_id) as viewed_product,
  COUNT(DISTINCT ca.user_id) as added_to_cart,
  COUNT(DISTINCT p.user_id) as purchased,
  ROUND(100 * COUNT(DISTINCT ca.user_id) / COUNT(DISTINCT pv.user_id), 2) as product_to_cart_rate,
  ROUND(100 * COUNT(DISTINCT p.user_id) / COUNT(DISTINCT ca.user_id), 2) as cart_to_purchase_rate
FROM product_viewers pv
LEFT JOIN cart_adders ca ON pv.user_id = ca.user_id
LEFT JOIN purchasers p ON ca.user_id = p.user_id

Customer Lifetime Value (CLV)

"Was ist der Gesamtumsatz pro Benutzer?"

SELECT
  user_id,
  COUNT(DISTINCT CASE WHEN event_name = 'purchase' THEN event_timestamp END) as purchase_count,
  ROUND(SUM(CAST((SELECT value FROM UNNEST(event_params) WHERE key = 'value').string_value AS FLOAT64)), 2) as total_revenue,
  ROUND(AVG(CAST((SELECT value FROM UNNEST(event_params) WHERE key = 'value').string_value AS FLOAT64)), 2) as avg_order_value
FROM `project.analytics_123456.events_*`
WHERE event_name = 'purchase'
GROUP BY user_id
ORDER BY total_revenue DESC

Tipps für die Schreibweise von GA4 BigQuery-Abfragen

  1. Verwende events_* Wildcard: Das passt alle Event-Tabellen an. Ohne es, fragst du nur einen Tag ab.

  2. TIMESTAMP_MICROS: GA4 speichert Zeitstempel in Mikrosekunden. Konvertiere mit TIMESTAMP_MICROS(event_timestamp).

  3. Entschachtelung: Eigenschaften und Parameter sind verschachtelte Arrays. Verwende UNNEST() und WHERE key = 'property_name' zum Extrahieren.

  4. Limite vor dem Abfragen: Starte mit LIMIT 100 zum Testen von Abfragen, bevor du auf Millionen Zeilen läufst.

  5. Überprüfe Kosten: Große Abfragen scannen viel Daten (bei ~6,25€/TB). Verwende -- Kommentare zum Schätzen der Kosten.


Verbinde BigQuery zu BI-Tools

Sobald du Abfragen in BigQuery hast, visualisiere sie:

Google Data Studio

  1. Erstelle einen Report in datastudio.google.com
  2. Wähle "BigQuery" als Datenquelle
  3. Wähle dein Projekt und deine Abfrage
  4. Entwerfe Visualisierungen
  5. Teile mit Team

Looker Studio (Premium)

Gleich wie Data Studio, aber erweitert.

Tableau

  1. Verbinde zu BigQuery (Tableau hat einen nativen Connector)
  2. Schreibe deine Abfragen oder wähle Tabellen
  3. Erstelle Dashboards

Kosten

  • Free Tier: 1TB abgefragte Daten pro Monat ist kostenlos
  • Pay-as-You-Go: 6,25€ pro TB gescannt danach

Die meisten kleinen Unternehmen bleiben unter 1TB/Monat und zahlen nichts.


Häufig gestellte Fragen

F: Wie lange, bis Daten in BigQuery nach dem Setup erscheinen? A: 24-48 Stunden für Backfill. Danach werden Daten täglich exportiert (normalerweise früher Morgen Pacific-Zeit).

F: Kann ich Echtzeit-Daten abfragen? A: Ja, verwende das Intraday-Dataset. Aber es ist auf die letzten paar Stunden begrenzt.

F: Muss ich SQL kennen, um BigQuery mit GA4 zu verwenden? A: Für Basis-Abfragen, nein – verwende vorgefertigte Templates oder Data Studio. Für benutzerdefinierte Analysen, ja.

F: Kann ich GA4-Daten mit anderen Datenquellen in BigQuery kombinieren? A: Ja. Du kannst GA4-Events und eine separate Tabelle von Customer CRM-Daten haben, dann sie verbinden.

F: Wie lange werden Daten in BigQuery gespeichert? A: Unbegrenzt (du setzt Speicherungsrichtlinien). Das ist der Grund, warum BigQuery besser als GA4 für langfristige Analysen ist.


Die Quintessenz

BigQuery ist dort, wo GA4-Daten zum Leben erwachen. Wenn du brauchst:

  • Unbegrenzte Datenspeicherung
  • Komplexe Multi-Monats-Analysen
  • Kontrolle über was du misst
  • Integration mit anderen Daten

Richte BigQuery-Export ein. Es ist kostenlos zu konfigurieren und kostet fast nichts zu betreiben.

Starte einfach (eine Abfrage), lerne SQL graduell und baue auf.


Emily Redmond ist Datenanalystin bei Emilytics — dem AI-Analytics-Agent, der dein GA4, deine Search Console und deine Bing-Daten rund um die Uhr überwacht, damit du nie verpasst, was wichtig ist. 8 Jahre Erfahrung darin, Gründern und Growth-Teams zu helfen, Datenchaos in klare Entscheidungen zu verwandeln. Sag Hallo →