URL Inspection Tool: Wie man jede Seite schnell diagnostiziert

Emily RedmondDatenanalystin, Emilytics18. April 2026

URL Inspection Tool: Wie man jede Seite schnell diagnostiziert

Von Emily Redmond, Datenanalystin bei Emilytics · April 2026

TL;DR: Das URL Inspection Tool zeigt dir, was Google sieht, wenn es deine Seite besucht—Indexierungsstatus, Crawl-Fehler, Rendering-Probleme, Core Web Vitals. Füge jede URL ein, erhalte sofortige Diagnostik, fordere Reindexierung an. Dein schnellster Weg, eine Seite zu debuggen.


Das URL Inspection Tool ist das Schweizer Taschenmesser von GSC. Ein Tool, sofortige Diagnostik. Ist deine Seite indexiert? Kann Google darauf zugreifen? Gibt es Mobile-Probleme? Rendering-Fehler? Inspiziere einfach die URL und du wirst es in Sekunden wissen.

Das ist dein Go-To, wenn etwas sich falsch anfühlt.

Wie man URL Inspection nutzt

Schritt 1: Öffne das Tool

Oben auf jeder GSC-Seite siehst du eine Suchleiste. Klicke darauf und füge deine vollständige URL ein:

https://yoursite.com/your-page-slug

Füge die vollständige URL ein, einschließlich http/https. Teilweise URLs funktionieren nicht.

Schritt 2: Warte auf den Report

GSC wird diese Seite crawlen und dir einen Report zeigen. Normalerweise dauert es 5–30 Sekunden, je nach Googles Queue.

Schritt 3: Lese das Ergebnis

Du siehst:

  • URL is on Google (grünes Häkchen) = Seite ist indexiert, kann ranken
  • URL is not on Google (rotes X) = Seite ist nicht indexiert
  • Page crawled successfully oder Crawl blocked = Google konnte/konnte nicht darauf zugreifen

Darunter siehst du Details:

  • Crawl-Status
  • Letztes Crawl-Datum
  • Screenshots, wie Google die Seite sieht
  • Core Web Vitals
  • Mobile Usability-Probleme (falls vorhanden)
  • AMP-Status (falls anwendbar)

Verstehe die Statuse

StatusBedeutungMaßnahme
IndexedSeite ist in Googles Index und kann rankenKeine. Du bist gut.
Discovered but not indexedGoogle hat es gefunden, aber entschied, nicht zu indexierenÜberprüfe, ob es ein Noindex-Tag oder Qualitätsproblem gibt
Crawled, not indexedGoogle hat es gecrawlt, wird es aber nicht indexierenNormalerweise ein Qualitätsproblem. Verbessere Inhalt.
Crawl deniedGoogles Crawler kann auf die Seite nicht zugreifenÜberprüfe robots.txt, Redirects, Server-Fehler
URL marked as duplicateGoogle denkt, das ist ein Duplikat einer anderen URLÜberprüfe Canonical Tags, ähnliche Inhalte

Wenn du etwas anderes als „Indexed" siehst, untersuche. Es ist normalerweise reparierbar.

💡 Emilys Gedanke: Ich nutze URL Inspection auf jeder neuen Seite, die ich veröffentliche, bevor ich Sieg erklär. Dauert 30 Sekunden und spart dir davor, eine Seite zu veröffentlichen, die nicht ranken wird, weil sie ein Noindex-Tag oder ein Rendering-Problem hat. Kleine Gewohnheit, großer Rückkauf.

Häufige Erkenntnisse und Fixes

Problem: „Crawl denied"

Ursache: Googles Crawler kann auf die Seite nicht zugreifen.

Warum:

  • robots.txt blockiert es
  • Server gibt 5xx-Fehler zurück
  • Seite erfordert Login
  • Redirect-Schleife

Fix:

  1. Überprüfe deine robots.txt-Datei (unter yoursite.com/robots.txt)
  2. Stelle sicher, dass es die Seite nicht blockiert
  3. Überprüfe deine Redirects—keine Schleifen
  4. Teste die URL in deinem Browser. Lädt sie?
  5. Überprüfe Server-Logs auf 5xx-Fehler

Führe die Inspection nach der Behebung erneut aus.

Problem: „Discovered, not indexed"

Ursache: Google hat deine Seite gefunden, aber entschied, sie nicht zu indexieren.

Warum:

  • Inhalt mit niedriger Qualität
  • Doppelte Inhalte
  • Noindex-Tag
  • Zu ähnlich zu anderen Seiten
  • Inhalt wird nicht richtig geladen

Fix:

  1. Überprüfe, wenn die Seite ein Noindex-Tag hat (schaue auf Seiten-Quelle, suche nach "noindex")
  2. Entferne Noindex, wenn es da ist
  3. Überprüfe Content-Qualität. Ist es substanziell? >300 Wörter?
  4. Überprüfe, wenn es ein Duplikat einer anderen Seite ist. Entferne, wenn ja.
  5. Reiche erneut zur Indexierung ein

Problem: „URL marked as duplicate"

Ursache: Google denkt, dass diese Seite ein Duplikat einer anderen ist.

Warum:

  • Du hast denselben Inhalt auf mehreren URLs
  • Du hast kein Canonical Tag gesetzt
  • www vs. nicht-www Versionen existieren

Fix:

  1. Identifiziere, welche Version ranken sollte (normalerweise die bevorzugte Domain)
  2. Füge ein Canonical Tag zur nicht-bevorzugten Version hinzu, das auf die bevorzugte zeigt: <link rel="canonical" href="https://yoursite.com/preferred-url">
  3. Oder leite nicht-bevorzugt → bevorzugt mit einem 301 Redirect um
  4. Inspiziere erneut

Problem: Core Web Vitals Failing

Ursache: Seite ist langsam oder hat Stabilitätsprobleme.

Warum:

  • Große Bilder
  • Langsamer Server
  • Render-blockierendes CSS/JavaScript
  • Anzeigen laden nach Inhalt

Fix:

  1. Gehe zu PageSpeed Insights für diese URL
  2. Sehe die spezifischen Empfehlungen
  3. Frage einen Developer, um es umzusetzen
  4. Teste erneut in ein paar Tagen

Lerne mehr im Core Web Vitals-Artikel.

Problem: Mobile Usability Errors

Ursache: Seite ist auf Mobile kaputt.

Warum:

  • Text zu klein
  • Buttons zu nah beieinander
  • Viewport nicht richtig eingestellt
  • Inhalt breiter als Bildschirm

Fix:

  1. Öffne die Seite auf einem Telefon (oder nutze Chrome Dev Tools, F12, toggle Device Toolbar)
  2. Sehe, was kaputt ist
  3. Behebe es
  4. Inspiziere erneut

Fordere Reindexierung an

Wenn die Seite nicht indexiert ist, aber sollte, klicke auf „Request indexing"-Button im Inspection Report.

Das sagt Google, die Seite erneut zu crawlen und zur Indexierung in Betracht zu ziehen. Normalerweise dauert es 24–48 Stunden.

Nutze das nur für wichtige Seiten. Google crawlt regelmäßig trotzdem; du priorisierst nur.

Überprüfe Rendering-Probleme

GSC zeigt dir zwei Versionen deiner Seite:

  • Desktop-Version: Wie es auf Desktop erscheint
  • Mobile-Version: Wie es auf Mobile erscheint

Wenn sie unterschiedlich aussehen (Mobile ist kaputt), hast du ein Rendering-Problem.

Häufiges Problem: Client-Side Rendering. Inhalte laden via JavaScript, nachdem die Seite zunächst lädt. Manchmal führt Google JavaScript nicht richtig aus, also sieht es eine leere Seite.

Wenn das passiert:

  1. Überprüfe, wenn dein CMS oder Framework Client-Side Rendering nutzt
  2. Erwäge Server-Side Rendering (technische Änderung)
  3. Oder stelle sicher, dass kritische Inhalte ohne JavaScript laden

Nutze Inspection für Content Updates

Hast du einen alten Artikel mit neuer Information aktualisiert?

  1. Inspiziere die URL
  2. Wenn es indexiert ist, klicke auf „Request indexing"
  3. Google wird neu crawlen und basierend auf dem neuen Inhalt neu ranken

Dauert 24–48 Stunden. Dein aktualisierter Inhalt sollte nach dem eine neue Ranking-Position zeigen.

Bulk Inspection (für viele Seiten)

Du kannst nur eine URL auf einmal in GSC inspizieren. Wenn du viele Seiten überprüfen brauchst:

  1. Reiche sie in deine Sitemap ein (falls noch nicht eingereicht)
  2. Überprüfe den Coverage Report, um zu sehen, welche Indexierungsprobleme haben
  3. Inspiziere einzelne Problem-Seiten

Sitemap + Coverage Report ist schneller als das Inspizieren von 50 Seiten einzeln.


Häufig gestellte Fragen

F: Wie oft kann ich eine URL inspizieren? A: So oft du möchtest. Keine Grenzwert.

F: Was ist, wenn Inspection zeigt „Indexed", aber ich sehe es nicht ranking? A: Indexiert zu sein garantiert kein Ranking. Du brauchst immer noch Content-Qualität, Backlinks und Relevanz. Inspect sagt dir nur, dass Google es gefunden hat.

F: Kann ich URLs von Konkurrenten-Websites inspizieren? A: Nur wenn du eine GSC Property für diese Domain hast. Du kannst die Websites von Konkurrenten nicht inspizieren.

F: Wie schnell ist die Inspection? A: Normalerweise 5–30 Sekunden. Manchmal langsamer, wenn Googles Queue voll ist.

F: Sollte ich jede Seite inspizieren, die ich veröffentliche? A: Ja, besonders neue oder wichtige Seiten. Dauert 30 Sekunden und verhindert Indexierungs-Überraschungen.


Nächste Schritte

Nächstes Mal, wenn du eine Seite veröffentlichst, inspiziere sie sofort. Wenn sie „Indexed" mit Null Fehlern zeigt, bist du fertig. Wenn du Probleme siehst, behebe sie und inspiziere erneut.

Nutze URL Inspection als dein Diagnostic-Tool, wenn etwas sich mit Rankings oder Sichtbarkeit einer Seite falsch anfühlt.


Emily Redmond ist eine Datenanalystin bei Emilytics — der KI-Analytics-Agent, der dein GA4, Search Console und Bing-Daten rund um die Uhr überwacht. 8 Jahre Erfahrung. Sag Hallo →