Indexing & Sichtbarkeit: Warum Google Seiten ignoriert – und was du dagegen tun kannst

Indexing & Sichtbarkeit: Warum Google Seiten ignoriert

Wenn Google deine URL kennt, sie aber nicht indexiert, ist das kein „Pech“. Meist ist es ein klares Signal: Technik, Duplikate oder zu wenig Eigenwert. Lass uns das reparieren.

Du veröffentlichst eine Seite. Du reichst eine Sitemap ein. Und trotzdem: nichts. Keine Sichtbarkeit, keine Impressionen, Search Console sagt „nicht indexiert“.

Die gute Nachricht: In den meisten Fällen ist das kein Mysterium – Google nennt dir in der Search Console ziemlich konkrete Gründe. Die schlechte Nachricht: Viele fixen dann am falschen Hebel (z.B. robots.txt blocken und hoffen, dass es „aus dem Index“ verschwindet).

Hier bekommst du eine praxisnahe Debug-Route, plus die häufigsten Ursachen inklusive schneller Fixes.

Erst Diagnose, dann Aktion: Was du in der Search Console wirklich brauchst

Du arbeitest immer mit zwei Reports/Tools:

  • Page indexing report (Seitenindexierung): zeigt Status & Gründe (z.B. noindex, Duplikat, gecrawlt aber nicht indexiert). :contentReference[oaicite:0]{index=0}
  • URL Inspection: zeigt pro URL, ob Google sie crawlen durfte, was Google als canonical sieht und welche Version indexiert wird. Für Canonical-Dramen ist das dein bester Freund. :contentReference[oaicite:1]{index=1}

Wichtiges Mindset

„Nicht indexiert“ ist nicht immer ein Fehler. Google kann URLs kennen und trotzdem (noch) nicht crawlen oder bewusst nicht indexieren. Bei „Crawled – currently not indexed“ ist genau das der Punkt: gecrawlt, aber nicht (oder nicht mehr) im Index. :contentReference[oaicite:2]{index=2}

Die häufigsten Gründe, warum Google Seiten ignoriert

1) noindex (absichtlich oder aus Versehen)

Der Klassiker: Irgendwo steckt ein noindex (Meta-Tag oder Header). Google sagt dann ziemlich trocken: „Gefunden, nicht indexiert.“ :contentReference[oaicite:3]{index=3}

  • Schneller Fix: noindex entfernen, dann via URL Inspection „Indexierung beantragen“ (gezielt, nicht für 50.000 URLs).
  • Pro-Tipp: Prüfe Templates/Plugins: noindex wird gerne global auf „Tags/Archive/Filter“ gelegt – manchmal auch versehentlich auf Geld-Seiten.

2) robots.txt blockt – aber das löst dein Problem nicht so, wie du denkst

robots.txt steuert primär, ob Google crawlen darf. Es ist nicht dafür gedacht, Seiten „aus Google rauszuhalten“. Wenn du eine URL wirklich nicht in der Suche willst: noindex oder Zugriff schützen. :contentReference[oaicite:4]{index=4}

  • Schneller Fix: Wenn du indexieren willst: robots.txt-Block entfernen, dann URL Inspection.
  • Wenn du nicht indexieren willst: lieber noindex setzen (und die URL crawlbar lassen, damit Google das noindex auch sehen kann).

3) Duplikate & Canonical-Chaos (Google wählt eine andere URL)

Status wie „Duplicate, Google chose different canonical than user“ heißt: Google glaubt, eine andere URL ist die Hauptversion. Das kann an Parametern, Sortierungen, http/https, www/non-www, Trailing-Slash, Pagination oder schlicht „zu ähnlich“ liegen. :contentReference[oaicite:5]{index=5}

  • Schneller Fix: Canonicals konsistent setzen (eine Version), interne Links auf die Canonical-Version drehen.
  • Schneller Fix: Duplikate technisch entschärfen (Redirects, Parameter-Handling, saubere URL-Policy).
  • Reality-Check: Google kann trotz deiner Canonical-Angabe anders entscheiden. In der Canonical-Doku steht das ausdrücklich so drin. :contentReference[oaicite:6]{index=6}

4) „Discovered – currently not indexed“: Google kennt die URL, aber kommt (noch) nicht vorbei

Das bedeutet: Google hat die URL entdeckt, aber bisher nicht gecrawlt. Das kann sich von selbst lösen – oder ein Hinweis sein, dass Google Priorität anders setzt (z.B. zu viele URLs, zu wenig Signale, viel Crawl-Waste). :contentReference[oaicite:7]{index=7}

  • Schneller Fix: interne Verlinkung verbessern (von starken Seiten drauf verlinken, nicht nur „irgendwo im Footer“).
  • Schneller Fix: Crawl-Waste reduzieren: Parameter-URLs/Filter/Tag-Seiten, die Millionen Variationen bauen, sind Crawl-Budget-Fresser.
  • Schneller Fix: Sitemap sauber halten (nur relevante, indexierbare URLs).

5) „Crawled – currently not indexed“: Google war da, aber sagt „meh“

Google hat gecrawlt, aber die Seite ist (noch) nicht indexiert. Das kann später passieren – oder nie, wenn Google keinen ausreichenden Eigenwert sieht. :contentReference[oaicite:8]{index=8}

  • Schneller Fix: Seite auf „Standalone Value“ trimmen: klare Suchintention, eindeutiger Mehrwert, nicht nur Template + 3 Sätze.
  • Schneller Fix: Duplikate/Thin-Pages zusammenlegen oder konsequent noindexen (statt Google mit Müll zu füttern).
  • Schneller Fix: interne Links + Kontext stärken (damit Google die Seite als Teil eines sinnvollen Clusters erkennt).

6) Sitemap ist da – aber sie hilft dir nicht, wenn sie „unsauber“ ist

Google unterstützt verschiedene Sitemap-Formate. Aber: Eine Sitemap ist keine Index-Garantie. Sie ist ein Hinweis-System. :contentReference[oaicite:9]{index=9}

  • Schneller Fix: Nur URLs in die Sitemap, die du indexiert haben willst (200 OK, canonical, nicht blockiert).
  • Schneller Fix: lastmod nur setzen, wenn es stimmt. Google sagt ziemlich klar: Wenn du ständig „gestern“ behauptest, glaubt man dir irgendwann nicht mehr. :contentReference[oaicite:10]{index=10}
  • Hinweis: Bei Sitemap-Index-Dateien muss lastmod korrekt formatiert sein (W3C Datetime). :contentReference[oaicite:11]{index=11}

7) Crawl Budget: wichtig – aber nur, wenn du wirklich groß bist

Crawl Budget wird oft als Ausrede missbraucht. Google sagt selbst: Wenn du nicht sehr groß und sehr häufig aktualisiert bist, brauchst du dich meistens nicht in Crawl-Budget-Optimierung verlieren. Ein aktuelles Sitemap-Setup und Monitoring reicht oft. :contentReference[oaicite:12]{index=12}

  • Schneller Fix (für große Sites): Crawl-Waste killen (Duplikate, Parameter, Soft-404s, endlose Facetten).
  • Schneller Fix: Server stabil & schnell (damit Google nicht aus Rücksicht langsamer crawlt).

Status → Ursache → Fix: die Kurzform zum Durchklicken

Search-Console-Status Typische Ursache Schneller Fix
URL marked ‘noindex’ noindex im Meta/HTTP-Header noindex entfernen, dann URL Inspection
Discovered – currently not indexed priorisiert niedrig: wenig Signale, Crawl-Waste, interne Links schwach Interne Links stärken, Sitemap säubern, Müll-URLs reduzieren
Crawled – currently not indexed zu wenig Eigenwert/zu ähnlich/Qualitätssignal schwach Inhalt verbessern oder konsolidieren, Duplikate reduzieren
Duplicate, Google chose different canonical Kanonisierung/URL-Varianten/Parametrisierung Canonicals konsistent, interne Links & Redirect-Policy
Blocked by robots.txt Crawl-Sperre Wenn indexiert werden soll: Sperre entfernen; sonst noindex/Access-Control nutzen

So setzt du’s um: Debug-Route in 45–90 Minuten

Schritt 1: Status sauber ziehen

  1. Search Console → Seitenindexierung: Filtere nach „Nicht indexiert“ und sortiere nach Häufigkeit.
  2. Picke 5 Beispiel-URLs pro Cluster (nicht 2000 URLs einzeln anfassen).
  3. URL Inspection pro Beispiel: Indexing allowed? Canonical? Letzter Crawl?

Schritt 2: Technische Blocker zuerst (die sind binär)

  • noindex entfernen, falls Seite in den Index soll. :contentReference[oaicite:15]{index=15}
  • robots.txt Sperren prüfen und nur bewusst nutzen. :contentReference[oaicite:16]{index=16}
  • HTTP-Status checken: 200 für Zielseiten, keine Redirect-Ketten als Dauerzustand.

Schritt 3: Kanonisierung/URL-Policy aufräumen

  • Eine Version definieren (https, www oder non-www, Slash-Regel) und konsequent intern verlinken.
  • Parameter-/Filter-Varianten: entscheiden, was indexierbar sein soll – Rest konsolidieren oder noindex.
  • URL Inspection nutzen, um Google-selected canonical zu prüfen. :contentReference[oaicite:17]{index=17}

Schritt 4: Qualität & interne Verlinkung (der Teil, den keiner hören will)

  • Wenn „Crawled – currently not indexed“ dominiert: Mehr Eigenwert, weniger Template-Duplikat. :contentReference[oaicite:18]{index=18}
  • Wenn „Discovered – currently not indexed“ dominiert: bessere interne Links und weniger Crawl-Waste. :contentReference[oaicite:19]{index=19}

Schritt 5: Sitemap richtig nutzen (und nicht als Müllabfuhr)

  • Nur indexierbare Canonical-URLs in die Sitemap. :contentReference[oaicite:20]{index=20}
  • lastmod nur bei echten, signifikanten Updates pflegen und nicht faken. :contentReference[oaicite:21]{index=21}

Typische Fehler & wie du sie vermeidest

  • Fehler: robots.txt nutzen, um „aus dem Index“ zu kommen. Fix: noindex oder Zugriff schützen. :contentReference[oaicite:22]{index=22}
  • Fehler: Sitemap enthält alles (Parameter, Filter, 404, Redirects). Fix: Sitemap ist eine Whitelist: nur Canonicals, 200 OK. :contentReference[oaicite:23]{index=23}
  • Fehler: Canonical ist „irgendwie gesetzt“, aber interne Links zeigen woanders hin. Fix: Interne Links immer auf die Canonical-Version, sonst sendest du gemischte Signale. :contentReference[oaicite:24]{index=24}
  • Fehler: „Request Indexing“ als Dauerlösung. Fix: Erst Ursachen lösen, dann gezielt anstoßen (für wichtige Seiten).
  • Fehler: Crawl Budget als Erklärung bei 500 Seiten. Fix: Bei kleinen/mittleren Sites sind meist Qualität, Duplikate und interne Links der Hebel. :contentReference[oaicite:25]{index=25}

Fazit: Google ignoriert dich nicht – du gibst ihm zu viele Gründe

Indexing ist am Ende ein Priorisierungsproblem. Google crawlt und indexiert bevorzugt, was klar, einzigartig und sauber erreichbar ist. Wenn du Duplikate erzeugst, Signale vermischst (Canonicals/Links) oder Müll in die Sitemap kippst, ist „nicht indexiert“ die logische Konsequenz.

Nächster Schritt: Nimm dir einen Cluster aus der Search Console (z.B. „Crawled – currently not indexed“) und behebe eine Ursache komplett (z.B. Duplikate + Canonical-Policy) statt überall ein bisschen zu schrauben. Danach erst der nächste Cluster.

FAQ

Eine Sitemap ist nur ein Hinweis, keine Index-Garantie. Wenn die Seite noindex hat, dupliziert ist oder wenig Eigenwert hat, kann Google sie trotzdem nicht indexieren. :contentReference[oaicite:26]{index=26}

Google kennt die URL, hat sie aber noch nicht gecrawlt. Oft ist das ein Prioritäts-/Effizienz-Thema: interne Links schwach, zu viele ähnliche URLs, zu wenig Signale. :contentReference[oaicite:27]{index=27}

Google hat die Seite gecrawlt, aber (noch) nicht indexiert. Das kann später passieren, aber oft ist es ein Signal: zu wenig eigenständiger Wert, zu ähnlich zu anderen Seiten oder schlechte Signalkombination. :contentReference[oaicite:28]{index=28}

Weil Canonical ein Hinweis ist, kein Befehl. Wenn Google glaubt, eine andere URL sei die bessere Hauptversion (z.B. wegen Signalen, Duplikaten, internen Links), kann es abweichen. URL Inspection zeigt dir die Google-canonical. :contentReference[oaicite:29]{index=29}

robots.txt ist primär fürs Crawling, nicht fürs Entfernen aus dem Index. Für „nicht im Index“ nutzt du noindex oder schützt den Zugriff. :contentReference[oaicite:30]{index=30}

Vor allem bei sehr großen, häufig aktualisierten Sites. Google sagt ausdrücklich: Wenn du nicht groß bist und deine Seiten zeitnah gecrawlt werden, brauchst du dich meist nicht darauf zu fokussieren. :contentReference[oaicite:31]{index=31}

Nein, aber wenn du es setzt, muss es stimmen. Google sagt: Wenn lastmod nicht zur Realität passt, verliert es Vertrauen als Signal. :contentReference[oaicite:32]{index=32}