SEO

Indexierung

Was ist Indexierung? Prozess, bei dem Google Webseiten crawlt und in seinen Index aufnimmt. Grundlage für Rankings.

Was ist Indexierung?

Indexierung ist der Prozess, bei dem Google Webseiten crawlt (besucht), analysiert und in seinen Index aufnimmt. Eine Seite, die nicht indexiert ist, existiert aus Google's Perspektive nicht und wird nicht in Suchergebnissen gezeigt. Indexierung ist Schritt 1 von SEO: Bevor ein Ranking möglich ist, muss die Seite zuerst indexiert sein.

Google verwendet automatisierte Crawler (Bots), die kontinuierlich durchs Web gehen, Links folgen, Seiten lesen und sie dem Index hinzufügen. Wenn Google Ihre Website entdeckt (durch Links oder Sitemap), wird Sie crawlt. Falls die Seite "crawl-able" ist (keine Blocks, schnell genug, gültiges HTML), wird sie indexiert.

Indexierung im B2B SEO Kontext

Indexierungsprobleme sind in B2B Websites überraschend häufig:

  • Large Site mit tausenden Seiten: B2B SaaS Firmen haben oft hunderte oder tausende Produktseiten, Case Studies, Blog Posts. Wenn Crawl-Budget limitiert ist, möglicherweise crawlt Google nicht alles.
  • Crawl-Budget Management: Google allokiert Budget wie viel Ihrer Website zu crawlen. Falls viele Seiten unimportant sind, "wastes" Google das Budget darauf. Sie müssen strategisch sein welche Seiten wichtig sind.
  • Duplicate Content und Parameter: E-Commerce und SaaS Websites haben oft Duplicate Pages durch URL Parameter (Filter, Sortierung). Google muss wissen welche die "Primary" Version ist.
  • Gated Content: Falls Whitepaper oder Case Studies nur nach Login verfügbar sind, kann Google sie nicht indexieren. Das ist often ein bewusste Trade-off aber mit Konsequenzen.
  • Sitemap Architektur: Große B2B Websites brauchen structured Sitemaps damit Google wichtige Seiten nicht missed.

Indexierungs-Status in Google Search Console

Google Search Console zeigt den Indexierungs-Status Ihrer Website:

Status Meaning Action
Indexed Seite ist indexiert und kann in Search Results erscheinen Gut! Keine Action notwendig, aber monitore Rankings
Crawled but not indexed Google crawlt Seite, aber chosen nicht indexieren (Duplikat, low quality, etc.) Investigiere warum. Möglicherweise Meta-Robots Noindex? Duplicate Content? Langsame Seite?
Excluded Google hat Seite aus Index excluded (wegen robots.txt, Noindex, Canonical, Paramenter Handling) Falls Sie diese Seite indexiert haben wollen, entfernen Sie den Block. Falls nicht, leave as is.
Not found (404) Google versuchte Seite zu crawlen, bekam 404 Error Entweder fix die Seite (restore URL) oder remove die URL aus Sitemap
Submitted and currently not indexed Seite wurde in Sitemap submitted, aber Google noch nicht indexiert Warte oder request indexing über URL inspection. Falls lange Zeit, investigiere warum Google nicht indexiert.

Indexierungs-Probleme diagnostizieren und beheben

Wenn eine Seite nicht indexiert ist, hier ist wie man die Ursache findet:

  • URL Inspection in Google Search Console: Geben Sie die URL ein. GSC wird zeigen: "Indexed"? "Crawled but not indexed"? Wenn Crawled but not indexed, wird Google den Grund zeigen.
  • Häufige Gründe warum nicht indexiert:
  • Meta-Robots Noindex Tag (überprüfen Sie HTML)
  • robots.txt Block (überprüfen Sie robots.txt)
  • Canonical zu andere Seite (überprüfen Sie Canonical Tags)
  • Duplicate Content (Google preferred andere Version)
  • Poor Mobile Usability (Page Speed, Rendering Issues)
  • Server Errors (500, 503)
  • Low Quality Content (aber Google gibt das nicht zu)
  • Request Indexing: Wenn Seite "Crawled but not indexed", können Sie in URL Inspection Button "Request Indexing" clicken. Google wird Seite re-crawlen und re-evaluate.
  • Remove Blocks: Falls Seite blockiert ist durch robots.txt oder Noindex, remove diese Blocks und resubmit in Sitemap.
  • Improve Page Speed: Falls Page Speed ist Problem, optimieren Sie (Bilder, Caching, CSS/JS minify).
  • Check Crawl Errors: Google Search Console Coverage Report zeigt Crawl Errors. Beheben Sie diese (404s, Redirects, Server Errors).

Crawl-Budget Management für große Websites

Google allokiert Budget wie oft eine Website zu crawlen. Große Websites mit hunderten oder tausenden Seiten müssen Crawl-Budget verwalten:

  • Entfernen Sie Bloat: Nicht-wichtige Seiten (alte Filterseiten, Archive, Duplicates) sollten removed oder disallowed sein in robots.txt. Das gibt Google mehr Budget für wichtige Seiten.
  • Sitemap Priorität: In XML Sitemap, können Sie <priority> Tags setzen. Wichtige Seiten sollten priority 1.0 sein, weniger wichtig 0.5 oder 0.3.
  • Lastmod Datum: In Sitemap, aktualisieren Sie <lastmod> Datum wenn Seite updated. Das tells Google nur neue/aktualisierte Seiten zu crawl, nicht alles jedes Mal.
  • Noindex für Thin Content: Archive Seiten, alte Variationen, sehr kurzer Content können Noindex bekommen damit Google Crawl-Budget spart für valuable content.
  • Internal Linking Strategy: Wichtige Seiten sollten viel internal links bekommen. Google crawlt Seiten die viel linked sind zuerst.

robots.txt und Indexierung

robots.txt File controllt welche Seiten Google crawlen darf:

  • Disallow bestimmte Directories: Wenn Sie nicht wollen dass Google /admin/ oder /temp/ crawlt, add: Disallow: /admin/
  • Aber Disallow != Noindex: Wichtiger Punkt: robots.txt Disallow bedeutet "don't crawl", aber die Seite könnte trotzdem indexiert sein wenn externe Links zu ihr pointed. Für richtige Noindex, nutze Noindex Meta Tag oder Header.
  • User-Agent Specificity: Sie können verschiedene Rules für verschiedene Bots. Z.B. Disallow: / für Bots die nicht Google sein, aber erlauben für Googlebot.

XML Sitemap und Indexierung

XML Sitemap ist der beste Weg um Google über neue oder aktualisierte Seiten zu informieren:

  • Erstelle Sitemap: Für große Websites, erstelle XML Sitemap mit allen wichtigen URLs.
  • Submit in Google Search Console: GSC wird zeigen ob Sitemap valid ist. Überprüfen Sie dass Sitemap indexierte vs. nicht-indexierte URLs zeigt.
  • Aktualisiere regelmäßig: Wenn neue Content published wird, aktualisiere die Sitemap sofort. Google checkt regelmäßig.
  • Sitemap Index für große Sites: Wenn Sitemap über 50.000 URLs hat (Limit), erstelle Sitemap Index die multiple Sitemaps referenziert.

Indexierungsgeschwindigkeit verbessern

Wenn neue Seiten ewig brauchen zum Indexieren (2-4 Wochen), hier sind Tipps zum beschleunigen:

  • URL Inspection nutzen: Nach Publishing, inspektieren Sie die URL in GSC. Das "hints" zu Google dass Seite neu ist.
  • Request Indexing: Klick "Request Indexing" in URL Inspection. Das triggert sofortiges Crawl.
  • Internal Linking: Link zu neue Seite von wichtigen existierenden Seiten (Homepage, Popular Posts). Google follows internal Links und crawlt verlinkte Seiten schneller.
  • Social Sharing: Teilen auf Social Media hilft nicht direkt mit Indexierung, aber mehr Traffic kann helfen.
  • Sitewide News Feed: Eine News oder Updates Feed auf Homepage von neue Posts hilft Google diese zu entdecken schneller.
  • Page Speed: Schnelle Seiten werden schneller gecrawlt. Wenn neue Seite sehr langsam ist, wird crawling delayed.

Monitoring Indexierung über Zeit

Indexierungsprobleme können entstehen plötzlich. Monitore regelmäßig:

  • Google Search Console Coverage Report: Überprüfen wöchentlich. Falls "Indexed" count fallen, investigiere sofort.
  • Total Indexed Pages Tracking: Tracke in einem Spreadsheet: Wieviele Seiten indexed sein sollen, wie viele sind wirklich indexed.
  • Excluded Reasons Report: GSC zeigt warum Seiten excluded sind. Monitore für unerwartete Exclusions.
  • Neue Crawl-Fehler: Falls plötzlich viele 404s oder Server Errors erscheinen, fix sofort. Das kann Crawling für andere Seiten blockieren.

Indexierung ist das Fundament von SEO. Wenn Seiten nicht indexiert sind, ranken sie nie, egal wie gut Content ist. Verbringe Zeit mit SEO Fundament bevor du Advanced Ranking Taktiken versuchst.

Klingt nach einem Thema für Sie?

Wir analysieren Ihre Situation und zeigen konkrete Verbesserungspotenziale. Das Erstgespräch ist kostenlos und unverbindlich.

Kostenloses Erstgespräch buchen