Indexierungsprobleme beheben: Die 7 häufigsten Ursachen und ihre Lösung
Joel Heuchert
SEO Experte

Eine Seite, die Google nicht indexiert, existiert für Suchende schlicht nicht. Kein Ranking, kein Traffic, kein Umsatz. Indexierungsprobleme gehören zu den häufigsten technischen Fehlern, die wir im Rahmen eines SEO-Audits antreffen. Und fast immer haben sie eine klare, behebbare Ursache.
In diesem Artikel erklären wir die sieben häufigsten Ursachen dafür, dass Seiten nicht in Google auftauchen, wie Sie jeden Fehler diagnostizieren und was Sie konkret dagegen tun können.
Was sind Indexierungsprobleme und warum entstehen sie?
Bevor Google eine Seite in den Suchergebnissen anzeigen kann, muss sie zwei Schritte durchlaufen: Crawling und Indexierung. Der Google Crawler besucht Ihre Website, liest den Inhalt aus und übermittelt ihn an den Google-Index. Erst dann kann eine Seite ranken.
Indexierungsprobleme entstehen genau dann, wenn dieser Prozess irgendwo unterbrochen wird. Das kann technische Ursachen haben, inhaltliche Gründe haben oder durch falsch konfigurierte Einstellungen ausgelöst werden. Die Google Search Console zeigt unter "Seiten" genau, welche URLs nicht indexiert sind und warum. Dort finden Sie auch den Ausgangspunkt für jede Diagnose.
Schnellübersicht: Die 7 häufigsten Indexierungsfehler
| Problem | Ursache | Lösung |
|---|---|---|
| Seite hat noindex-Tag | Meta-Tag oder HTTP-Header blockiert Indexierung | Tag entfernen, Indexierung per GSC beantragen |
| robots.txt blockiert Crawler | Disallow-Regel schließt wichtige URLs aus | robots.txt prüfen, Regel anpassen oder entfernen |
| Duplicate Content | Gleiche Inhalte auf mehreren URLs vorhanden | Canonical Tags setzen, Weiterleitungen einrichten |
| Thin Content | Seite bietet zu wenig inhaltlichen Mehrwert | Inhalt ausbauen oder Seite entfernen/konsolidieren |
| Crawl-Budget erschöpft | Zu viele unwichtige Seiten verbrauchen Budget | Bloat bereinigen, Crawl-Effizienz erhöhen |
| Canonical-Fehler | Canonical zeigt auf falsche oder nicht indexierbare URL | Canonical-Kette prüfen und korrigieren |
| Mobile-First-Probleme | Mobilversion hat andere Inhalte als Desktop | Inhaltliche Parität zwischen Desktop und Mobile herstellen |
1. Der noindex-Tag: Die häufigste selbst gebaute Falle
Der noindex-Tag ist dafür gedacht, Seiten bewusst aus dem Index auszuschließen, zum Beispiel Danke-Seiten nach Formularabgaben, interne Suchergebnisseiten oder Staging-Umgebungen. Das Problem: Dieser Tag landet regelmäßig auch auf Seiten, die ranken sollen.
Das passiert meistens in diesen Situationen: Ein Entwickler aktiviert noindex während der Entwicklungsphase und vergisst, es nach dem Launch zu entfernen. Ein CMS setzt den Tag automatisch für bestimmte Seitentypen, ohne dass jemand das bemerkt. Oder ein Plugin hat eigene Einstellungen, die den Tag unbemerkt hinzufügen.
So diagnostizieren Sie es: Rufen Sie die betroffene URL in der Google Search Console auf und schauen Sie unter "URL prüfen". Alternativ prüfen Sie den Quellcode der Seite auf den Eintrag meta name="robots" content="noindex". Auch HTTP-Header können noindex enthalten.
Die Lösung ist direkt: Tag entfernen, Seite erneut crawlen lassen und in der Search Console eine Indexierung beantragen. Bei großen Websites lohnt sich ein regelmäßiger Crawl mit Screaming Frog, der explizit nach noindex-Tags filtert.
2. robots.txt-Blockaden: Wenn Sie den Crawler aus Versehen aussperren
Die robots.txt-Datei teilt dem Googlebot mit, welche Bereiche Ihrer Website er nicht crawlen soll. Eine falsch konfigurierte Disallow-Regel kann ganze Verzeichnisse, Kategorien oder sogar die gesamte Website für den Crawler unsichtbar machen.
Typische Fehler: Disallow: / sperrt die komplette Domain. Disallow: /produkte/ schließt alle Produktseiten aus. Falsch geschriebene Pfade blockieren unbeabsichtigt breite Bereiche.
Rufen Sie Ihre robots.txt unter ihredomain.de/robots.txt auf. Google bietet in der Search Console einen robots.txt-Tester, mit dem Sie einzelne URLs gegen Ihre aktuellen Regeln prüfen können. Wenn eine Regel versehentlich wichtige Seiten blockiert, entfernen Sie sie und beantragen Sie anschließend eine erneute Überprüfung der betroffenen URLs.
3. Duplicate Content: Wenn Google nicht weiß, welche Version indexiert werden soll
Duplicate Content bedeutet, dass derselbe oder sehr ähnlicher Inhalt auf mehreren URLs erreichbar ist. Google muss dann entscheiden, welche Version in den Index aufgenommen wird, und trifft dabei nicht immer die Wahl, die Sie sich wünschen.
Häufige Quellen: HTTP und HTTPS als separate URLs, www und non-www als separate Versionen, Trailing Slash und ohne Trailing Slash, URL-Parameter aus Filtern oder Sortierungen, facettierte Navigation in Online-Shops oder kopierte Produktbeschreibungen von Herstellern.
Die bevorzugte Lösung ist der Canonical Tag. Mit dem link rel="canonical" teilen Sie Google mit, welche Version der Seite die maßgebliche ist. Bei technisch dupliziertem Content sind 301-Weiterleitungen auf die bevorzugte Version der sauberere Weg.
4. Thin Content: Seiten, die Google nicht für indexierungswürdig hält
Google indexiert Seiten nicht automatisch nur deswegen, weil sie existieren. Eine Seite muss einen ausreichenden inhaltlichen Mehrwert bieten. Seiten mit sehr wenig Text, ohne erkennbare Suchintention oder mit generischen Inhalten werden häufig nicht indexiert oder aus dem Index entfernt.
Was als Thin Content gilt: Seiten mit weniger als 200-300 Wörtern ohne ergänzende Medien, Kategorieseiten ohne eigene Beschreibungstexte, automatisch generierte Seiten, Tagseiten in Blogs mit nur einer kurzen Liste, oder Seiten, die inhaltlich so ähnlich sind, dass sie keine eigenständige Relevanz haben.
Die Lösung hängt vom einzelnen Fall ab. Seiten, die einen echten Mehrwert bieten könnten, baut man inhaltlich aus. Seiten ohne eigenständigen SEO-Wert konsolidiert man mit anderen Seiten oder setzt sie auf noindex.
5. Crawl-Budget-Probleme: Wenn Google nicht alle wichtigen Seiten erreicht
Google teilt jeder Website ein bestimmtes Crawl-Budget zu. Bei großen Shops, Portalen oder Websites mit vielen automatisch generierten URLs kann es dazu führen, dass wichtige Seiten seltener oder gar nicht gecrawlt werden.
Crawl-Budget wird verbraucht durch: Seiten mit URL-Parametern, Paginierung ohne saubere Struktur, Weiterleitungsketten, Soft-404-Seiten und interne Links auf nicht existierende Seiten.
Die technische SEO liefert hier die zentralen Hebel: URL-Parameter in der Search Console konfigurieren, Weiterleitungsketten auf direkte 301s kürzen, Soft-404-Seiten bereinigen und intern nur auf Seiten verlinken, die tatsächlich existieren und einen Wert haben.
6. Canonical-Fehler: Wenn der Tag in die falsche Richtung zeigt
Canonical Tags sind mächtig, aber fehleranfällig. Ein falsch gesetzter Canonical kann dazu führen, dass Google die falsche Seite als maßgebliche Version betrachtet oder Seiten aus dem Index entfernt.
Typische Canonical-Fehler: Canonical zeigt auf eine Seite mit noindex, Canonical zeigt auf eine Weiterleitung statt auf die finale URL, mehrere Seiten zeigen mit Canonical auf dieselbe übergeordnete URL obwohl sie eigenständige Inhalte haben, oder Canonical-Ketten entstehen.
Um den Indexierungsstatus zu prüfen und Canonical-Konflikte aufzudecken, nutzen Sie die URL-Prüfung in der Search Console kombiniert mit einem Crawl-Audit. Canonical muss immer auf die endgültige, indexierbare, bevorzugte URL zeigen.
7. Mobile-First-Probleme: Wenn die Mobilversion den Inhalt versteckt
Seit 2019 nutzt Google Mobile-First Indexing. Google bewertet primär die Mobilversion Ihrer Website. Wenn Ihre Mobilseite weniger Inhalt zeigt als die Desktop-Version, kann das zu Indexierungsproblemen oder schlechteren Rankings führen.
So prüfen Sie es: Rufen Sie die URL in der Search Console unter "URL prüfen" auf und schauen Sie sich die gerenderte Ansicht an. Dort sehen Sie genau, was Google beim Crawl sieht.
Stellen Sie inhaltliche Parität zwischen Desktop und Mobile sicher. Alle inhaltlich relevanten Textblöcke, Überschriften, strukturierten Daten und Bilder müssen auch in der Mobilversion für Google sichtbar sein.
Diagnose-Workflow: So gehen Sie systematisch vor
- Google Search Console öffnen und unter "Seiten" alle nicht indexierten URLs mit dem jeweiligen Grund auflisten
- URL-Prüfung nutzen für einzelne problematische Seiten, um den genauen Status und das gerenderte HTML zu sehen
- Crawl-Tool starten (Screaming Frog oder ähnlich) und auf noindex, Canonical-Fehler, Weiterleitungsketten und fehlende Meta-Tags prüfen
- robots.txt und Sitemaps prüfen, ob relevante Seiten ausgeschlossen oder vergessen wurden
- Inhalt bewerten: Hat die Seite einen echten Mehrwert? Ist sie einzigartig oder dupliziert?
- Korrekturen umsetzen und in der Search Console eine Neuindexierung beantragen
Bei komplexeren Problemen oder wenn der Fehler unklar bleibt, ist ein strukturierter SEO-Audit der effizienteste Weg, um alle Baustellen auf einmal zu identifizieren und zu priorisieren.