Google Search Console Coverage Report: Indexierungsfehler beheben
Von Emily Redmond, Datenanalystin bei Emilytics · April 2026
TL;DR: Dein Coverage Report zeigt, welche Seiten Google indexieren kann (valid) und welche nicht (errors, excluded, warnings). Konzentriere dich auf die „Error"-Kategorie—das sind Seiten, die ranken sollten, aber können nicht. Behebe diese zuerst.
Der Coverage Report ist dein Frühwarnsystem für Indexierungsprobleme. Eine Seite, die Google nicht indexieren kann, ist eine Seite, die nicht ranken kann. Das ist einer der schnellsten Siege in GSC—kein Rätselraten, nur Reparatur von kaputten Dingen.
Die vier Coverage-Kategorien
| Status | Bedeutung | Maßnahme erforderlich |
|---|---|---|
| Valid | Google hat diese Seite indexiert. Sie kann ranken. | Keine. Das ist gut. |
| Valid with warnings | Seite ist indexiert, aber hat ein Problem (normalerweise Core Web Vitals, Mobile Usability, strukturierte Daten). | Behebe das Problem, aber die Seite ist noch immer am Ranking. |
| Excluded | Google hat diese URL absichtlich übersprungen. | Normalerweise in Ordnung (Pagination, Parameter, Duplicates). |
| Error | Google hat versucht, das zu indexieren und ist gescheitert. | Behebe sofort. Seiten hier bekommen null Impressionen. |
Konzentriere dich auf Errors. Das ist verlorener Traffic.
Lese den Coverage Report
Gehe zu Coverage (linkes Menü), um eine Zusammenfassung zu sehen. Du siehst ein Chart mit Balken für:
- Valid (gut)
- Valid with warnings (braucht Aufmerksamkeit, rankt aber noch)
- Excluded (erwartet)
- Error (REPARIERE JETZT)
Klicke auf „Error", um zu sehen, welche URLs Probleme haben und warum.
Häufige Indexierungsfehler (Und wie man sie behebt)
Fehler: „404 Not Found"
Was es bedeutet: Die Seite existiert nicht (oder sie gibt einen 404-Status-Code zurück).
Warum es wichtig ist: Google kann eine Seite nicht indexieren, die nicht existiert.
Wie man es behebt:
- Überprüfe, ob die Seite noch existieren sollte. Wenn ja, stelle sie wieder her.
- Wenn die Seite weg ist und nicht zurückkommt, leite sie an eine ähnliche Live-Seite um. Nutze eine 301 Redirect in deiner
.htaccess-Datei oder auf deiner Hosting-Plattform. - Wenn es Junk-Content ist, lösche es einfach aus deiner Sitemap.
Fehler: „Redirect Error"
Was es bedeutet: Es gibt eine Redirect-Schleife oder Kette (Seite A leitet auf B um, B leitet auf A um).
Warum es wichtig ist: Google wird verwirrt und kann die endgültige Seite nicht finden.
Wie man es behebt:
- Überprüfe deine Redirects. Jede Redirect sollte auf ein endgültiges Ziel zeigen, nicht auf eine andere Redirect.
- Beispiel für schlecht:
/old-page→/new-page→/newer-page→/final-page. Stattdessen mache/old-page→/final-page. - Nutze ein Redirect-Checker-Tool, um das endgültige Ziel zu finden und direkt dort umzuleiten.
Fehler: „Blocked by robots.txt"
Was es bedeutet: Deine robots.txt-Datei blockiert Googlebot vom Crawlen dieser URL.
Warum es wichtig ist: Google respektiert robots.txt, also wenn du es blockierst, kann die Seite nicht indexiert werden.
Wie man es behebt:
- Überprüfe deine
robots.txt-Datei (normalerweise unteryoursite.com/robots.txt). - Suche nach Linien wie
Disallow: /oderDisallow: /example-page. - Entferne oder passe diese Regeln an. Die meisten Websites sollten Googlebot erlauben, alles außer dem zu crawlen:
- Admin-Seiten
- Suchergebnis-Seiten
- Private Benutzerkonten
- Nach der Bearbeitung wird GSC automatisch innerhalb weniger Stunden erneut überprüfen.
Fehler: „Noindex Tag"
Was es bedeutet: Deine Seite hat einen <meta name="robots" content="noindex">-Tag, der Google sagt, nicht zu indexieren.
Warum es wichtig ist: Wenn du eine Seite als „noindex" markiert hast, gehorcht Google dieser Anweisung.
Wie man es behebt:
- Finde die Seite in deinem CMS oder HTML.
- Entferne den Noindex-Tag.
- Wenn du ein SEO-Plugin (Yoast, All in One SEO) nutzt, überprüfe die Plugin-Einstellungen—du hast es vielleicht versehentlich als „no index" markiert.
- Reiche die Seite zur Indexierung über GSCs URL Inspection Tool erneut ein.
Fehler: „Submitted URL Returns Soft 404"
Was es bedeutet: Die Seite gibt einen 200-Status zurück (Seite existiert), aber sie ist im Grunde leer oder fehlerähnlich (fehlender Inhalt).
Warum es wichtig ist: Google kann nicht herausfinden, worum es auf der Seite geht.
Wie man es behebt:
- Besuche die Seite. Lädt der Inhalt?
- Überprüfe, ob JavaScript erforderlich ist, um Inhalte zu laden. Wenn ja, könnte es ein Client-Side-Rendering-Problem geben.
- Füge echten Inhalt zur Seite hinzu oder lösche sie.
- Wenn es eine legitime Seite mit Inhalt ist, warte 24 Stunden und überprüfe erneut. Manchmal ist es ein vorübergehendes Problem.
Verstehe „Excluded" URLs
Excluded URLs sind keine Probleme—sie sind beabsichtigt. Häufige Gründe:
- Duplicate: Ähnliche Seite bereits indexiert
- Pagination:
/page/2,/page/3von Listungsseiten - Parameters: Dieselbe Seite mit verschiedenen Filtern/Sort-Optionen
- Blocked by page directive: Robots Meta-Tag sagt „no follow"
Excluded ist in Ordnung. Du brauchst dir nur Sorgen zu machen, wenn die Hauptseite excluded ist.
💡 Emilys Gedanke: Ich habe Websites gesehen, die 30–40% ihres Search-Traffics wegen einer kaputten Redirect oder einer
robots.txt-Linie verloren haben, die versehentlich zu breit war. Der Coverage Report findet diese sofort. Überprüfe es monatlich und behebe Fehler sofort—sie sind die einfachsten Siege in SEO.
Die Warnings-Kategorie
Einige Seiten sind indexiert, aber haben Warnungen:
- Core Web Vitals-Probleme: Seite ist langsam
- Mobile Usability-Probleme: Layout ist auf Mobile kaputt
- Structured Data-Fehler: Dein Schema-Markup ist fehlgebildet
Diese verhindern nicht die Indexierung, aber sie können Rankings schaden. Behebe sie, wenn du viele siehst, besonders Core Web Vitals-Warnungen.
Wie man Coverage-Probleme behebt
Schritt 1: Identifiziere den Fehler
Klicke auf „Error" im Coverage Report. Sehe die Liste von URLs und was mit jeder falsch ist.
Schritt 2: Gruppiere nach Fehlertyp
Klicke auf den Fehlertyp (z.B. „404 Not Found"), um alle URLs mit diesem spezifischen Problem zu sehen.
Schritt 3: Behebe es
- 404s: Leite um oder stelle die Seite wieder her
- Redirect-Fehler: Behebe die Redirect-Kette
- Robots.txt-Blöcke: Entferne die blockierende Regel
- Noindex-Tags: Entferne das Tag
- Soft 404s: Füge Inhalte hinzu oder lösche die Seite
Schritt 4: Reiche erneut ein
Nach der Behebung nutze das URL Inspection-Tool (oben in GSC), um einzelne Seiten zu überprüfen. Klicke „Request Indexing" und Google wird erneut crawlen.
Fordere nicht die Indexierung für hunderte von URLs auf einmal an—Googles Queue kann das handhaben, aber mache es in Batches.
Wie oft solltest du Coverage überprüfen?
Überprüfe monatlich für fortlaufende Überwachung. Wenn du einen Spike in Fehlern siehst, untersuche sofort—etwas könnte kaputt sein (schlechtes Plugin-Update, Server-Fehlkonfiguration, etc.).
Häufig gestellte Fragen
F: Muss ich jeden Fehler beheben? A: Ja, schließlich. Beginne mit den höchstauswirkung-Fehlern (High-Traffic-Seiten, die 404s sind). Low-Traffic-Seiten können warten.
F: Wie lange dauert es, bis Google erneut crawlt, nachdem ich einen Fehler behoben habe? A: Normalerweise innerhalb von Stunden bis ein paar Tage. Fordere die Indexierung über das URL Inspection Tool an, um es zu beschleunigen.
F: Was ist, wenn ich tausende Fehler habe? A: Es gibt ein systemisches Problem. Häufige Ursachen: Plugin-Malfunction, Server-Fehlkonfiguration oder Sicherheitsproblem. Hol einen Developer zur Diagnose.
F: Sollte ich excluded URLs löschen? A: Nein, es sei denn, sie sind problematisch (wie Param-Seiten, die du nicht indexiert haben möchtest). Excluded ist normal und erwartet.
Nächste Schritte
Überprüfe deinen Coverage Report diese Woche. Wenn du Fehler hast, behebe sie. Nach dem Beheben von 10 Fehlern, komme zurück und überprüfe erneut—du könntest schnelle Ranking-Verbesserungen sehen.
Lerne mehr über das Beheben von Mobile Usability-Problemen und das Beschleunigen von Indexierung.
Emily Redmond ist eine Datenanalystin bei Emilytics — der KI-Analytics-Agent, der dein GA4, Search Console und Bing-Daten rund um die Uhr überwacht. 8 Jahre Erfahrung. Sag Hallo →