SEO

Crawl Budget

Was ist Crawl Budget? Erfahre, wie du dein SEO Crawl Budget optimierst und Rankings verbesserst.

Was ist Crawl Budget?

Crawl Budget ist die Menge an Zeit und Ressourcen, die Google deine Website zum Crawlen bereitstellt. Google hat nicht unendliche Crawl-Kapazität. Täglich crawlt Googlebot Milliarden von Seiten. Die Frage für jede Website: "Wie viel von meiner Website crawlt Google täglich?"

Das ist wie ein Traveling Budget: Du hast $1000 zum Ausgeben. Mit Flugticket ($400) hast du nur $600 für Hotels/Food. Wenn dein Flugticket zu teuer ist, hast du weniger für wichtiges übrig. Mit Crawl Budget ist es gleich - wenn Google Zeit auf unwichtige Seiten verschwenet, crawlt sie weniger von deinen wichtigen Seiten.

Wie Google Crawl Budget berechnet

Google kombiniert zwei Faktoren:

Faktor Definition Bedeutung
Crawl Rate Wie viele Seiten crawlt Google pro Tag? Bei 100 requests/sec bei 1000 requests/day = 86 Millionen Seiten möglich
Crawl Demand Wie viel von deiner Website sollte gecrawlt werden? Google priorisiert häufig aktualisierte, wichtige Seiten

Das mathematische Modell:

Crawl Budget = Crawl Rate x Crawl Demand

Wenn deine Website 50.000 Seiten hat und Google nur 1.000 davon täglich crawlt (2%), vermisst Google 98% deinen Content. Das ist ein Crawl Budget Problem.

Crawl Budget im B2B SaaS Kontext

Im B2B SaaS sind besonders diese Websites betroffen:

  • Multi-Level E-Commerce Sites: Z.B. "Category > SubCategory > Product" Struktur mit Millionen von Produktseiten
  • SaaS mit dynamischen Content: Wenn jeder User eine Profil-Seite hat, können tausend Seiten entstehen
  • Forum-basierte Communities: Wenn deine Website ein Community Forum mit 100k+ Threads hat
  • Large Content Sites: B2B Content Marketing Sites mit 1000+ Blog Posts (Inbound Marketing, HubSpot, Moz Guides)

Ein Fallbeispiel: Eine SaaS Onboarding Platform hatte 50k Template Pages (jeder User Template = 1 URL). Google crawlt vielleicht 5k davon. 45k Pages sind unsichtbar für Google. Crawl Budget Optimization könnte diese Problem lösen.

Häufige Crawl Budget Killer

Problem Auswirkung auf Crawl Budget Beispiel
Session-IDs in URLs Extreme Verschwendung - jede URL gibt Session ID, Google sieht Millionen unique URLs example.com/product?ID=123&sessionID=xyz123 vs example.com/product/123/
Parameter Proliferation Hoch - Filter Parameter erzeugen tausend URL Variationen example.com/products?color=red&size=large&brand=nike
Broken Links Mittel - Google crawlt 404s, aber findet keinen neuen Content Interne Links zu gelöschten Seiten
Duplicate Content Mittel - Google crawlt die gleiche Seite mehrfach unter verschiedenen URLs example.com/product und example.com/?id=product zeigen gleichen Content
Slow Site Speed Hoch - Google crawlt weniger pro Zeit wenn Seite langsam lädt 3-second load time vs 0.5-second load time
Redirect Chains Mittel - Redirect A > B > C kostet 3x Crawl Budget statt 1x old.com/page > example.com/page > final.com/page
Noindex Tags Niedrig Priorität - Google crawlt aber indexiert nicht Seite mit noindex sollte aus robots.txt sein um Budget zu sparen
Infinite Scroll Mittel - Pagination beliebig kann unendliche Seiten erzeugen example.com/products?page=1, ?page=2, ?page=999999

Crawl Budget Optimization Strategien

1. Crawl Demand Insights in Google Search Console nutzen

  • GSC > Settings > "Crawl Stats" zeigt Crawl-Rate pro Tag
  • Wenn der Wert fallen ist, bedeutet das deine Website ist weniger "interessant" oder hat mehr Crawl Ineffiziencies
  • Nutze dies als KPI: "Unser Crawl Rate sollte 1000+ sein"

2. robots.txt richtig nutzen

Sag Google explizit, welche Seiten zu crawlen sind:

  • Disallow PDF Files: Wenn du 10k PDFs hast, disallow sie. Google verschwenet Zeit auf PDFs, nicht auf wichtige Pages
  • Disallow Admin Seiten: /admin/, /dashboard/, /user-profile/
  • Disallow Duplicate Content: /products?sort=price/ und /products?sort=date/ sind wahrscheinlich gleiche Seiten
  • Disallow Low-Value Seiten: /thank-you/, /confirmation/, /404/

3. XML Sitemap strategisch nutzen

  • Erstelle eine Sitemap, die nur WICHTIGE Seiten enthält
  • Nicht alle 100k Seiten einbinden, nur 500-2000 wichtigste
  • Nutze robots.txt um auf diese Sitemap zu zeigen
  • Google wertet Sitemap als "diese Seiten sind wichtig"

4. Canonicalize duplicates

  • Wenn du mehrere URLs mit gleich Content hast, nutze Canonical Tags
  • example.com/product?id=123 UND example.com/product/123/ = Canonical auf eine
  • Google crawlt beide, aber "weiß" welche zu zählen ist
  • Das spart Crawl Budget

5. Redirect Chains eliminieren

  • A > B > C Redirects sind ineffizient (3 Crawls statt 1)
  • Mache direkte Redirects: A > Final Destination
  • Nutze 301 Redirects, nicht Meta Refresh

6. Pagination Parameter begrenzen

  • Wenn dein Produkt Page hat Pagination (?page=1, ?page=2), limitiere auf z.B. 50 Pages
  • Nutze rel="next" und rel="prev" für Pagination so Google versteht die Struktur
  • Oder nutze "Infinite Scroll" Server-Seite (nicht JavaScript), aber mit Pagination Fallback

7. Site Speed verbessern

  • Langsame Seite = niedriger Crawl Rate
  • Google hat ein Timeout - wenn Seite zu lange laden dauert, googelt nicht zu Ende
  • Server Response Time unter 200ms ist ideal
  • Nutze CDN, Caching, Image Compression

Crawl Budget Audit durchführen

Schritt 1: Google Search Console daten

  • GSC > Coverage > sehe wie viele Pages indexed sind
  • GSC > Crawl Stats > sehe daily Crawl Rate
  • GSC > Excluded > sehe welche Pages Google nicht indexed

Schritt 2: Sitemap Analyse

  • Wie viele URLs sind in deiner Sitemap?
  • Sollten alle da sein oder gibst es Low-Value Seiten?
  • Größe Test: Sitemap.xml sollte < 50 MB sein (Google kann größere nicht lesen)

Schritt 3: robots.txt Audit

  • Nutze robots.txt Tester in GSC
  • Teste ob wichtige Seiten erlaubt sind (sollten sein)
  • Teste ob unwichtige Seiten disallowed sind (sollten sein)

Schritt 4: Crawl Inefficiencies finden

  • Nutze Screaming Frog SEO Spider
  • Crawle deine Website (kostenlos bis 500 URLs)
  • Sehe Duplicate Content, Redirect Chains, Slow Pages

Schritt 5: Tracking setzen

  • Monatlich: Check GSC Crawl Stats um Trend zu sehen
  • Wenn fällt: Untersuche warum (neue Low-Value Seiten? Mehr Pagination?)
  • Setze Ziel: "Maintain 1500+ Crawl Rate"

Crawl Budget Best Practices

  • Priorisieren vor Skalieren: Mit 10k Pages ist Crawl Budget Problem. Wenn du es nicht optimierst, wird 100k Pages Disaster
  • Seiten bewusst erstellen: Nicht jede Query sollte eigene URL sein. Überlege: "Wird Google das crawlen wollen?"
  • Interne Linking optimieren: Wichtige Seiten sollten mehr interne Links haben (Google folgt Links prioritär)
  • Archivieren, nicht Löschen: Wenn alte Content nicht mehr relevant, nutze noindex statt 404. Spart Crawl Budget
  • Monitoring ist Key: Crawl Budget ist nicht One-Time, es ist kontinuierliches Monitoring

Crawl Budget vs. Technical SEO

Crawl Budget ist ein Teil von Technical SEO, aber nicht alles. Ein vollständiges Technical SEO Audit checkt auch:

  • Mobile Friendliness
  • Site Speed
  • SSL/HTTPS
  • Structured Data
  • XML Sitemaps
  • Canonicalization

Aber Crawl Budget ist fundamental - wenn Google deine wichtige Seiten nicht crawlt, können die anderen Optimierungen nicht helfen.

Mit strategischem Crawl Budget Management kannst du sicherstellen, dass Google mehr Zeit auf deine Geld-Making Pages verbringt (wichtige Blog Posts, Product Pages) und weniger Zeit auf Low-Value Seiten (Confirmation Pages, Admin Areas). Das ergebnis: Bessere Indexing, Bessere Rankings.

Klingt nach einem Thema für Sie?

Wir analysieren Ihre Situation und zeigen konkrete Verbesserungspotenziale. Das Erstgespräch ist kostenlos und unverbindlich.

Kostenloses Erstgespräch buchen