Sehen Sie genau, wie Suchmaschinen und KI-Bots Ihre Seite sehen. Untersuchen Sie Quellcode, gerendertes HTML, Screenshots, Antwort-Header und SEO-Tags.
| Type | URL | Status |
|---|
OneStepToRank überwacht Ihre Seiten kontinuierlich auf Renderprobleme, defekte Ressourcen und Änderungen von SEO-Tags, die Ihre Sichtbarkeit in der Suche beeinträchtigen könnten.
LoslegenFetch & Render ist eine Technik, mit der Sie eine Webseite genau so sehen können, wie ein Suchmaschinen‑Crawler oder KI‑Bot sie sieht. Anstatt eine Seite in einem normalen Browser mit Ihren Cookies, angemeldeter Sitzung und zwischengespeicherten Ressourcen zu öffnen, sendet ein Fetch & Render‑Tool eine Anfrage mit einem bestimmten user-agent string (wie Googlebot oder GPTBot), lädt den rohen HTML‑Quellcode herunter, führt sämtliches JavaScript in einer headless‑Browser‑Umgebung aus und erfasst das Endergebnis.
Dies offenbart kritische Unterschiede zwischen dem, was Ihre Besucher sehen, und dem, was Suchmaschinen indexieren. Häufige Probleme sind JavaScript-Renderfehler, die Inhalte vor Crawlern verbergen, user-agent-basiertes Cloaking, das Bots unterschiedliche Inhalte liefert, blockierte Ressourcen, die ein korrektes Rendern der Seite verhindern, und Weiterleitungsketten, die Link‑Equity verwässern oder Bots an die falsche Zieladresse senden.
Der Google‑Crawler verarbeitet Seiten in zwei Phasen. Zuerst lädt und indexiert er den rohen HTML‑Quellcode. Später rendert er das JavaScript der Seite, um dynamisch geladene Inhalte zu entdecken. Wenn Ihr Inhalt nur nach der JavaScript‑Ausführung erscheint – wie es bei React-, Angular‑ und Vue‑Anwendungen üblich ist – bedeutet jeder Renderfehler, dass Google diesen Inhalt nicht sieht, bis die Render‑Phase erfolgreich ist.
Durch das Testen Ihrer Seiten mit diesem Tool können Sie bestätigen, dass:
Mit dem Aufkommen von KI‑gestützter Suche wird es immer wichtiger, zu überprüfen, wie KI‑Bots mit Ihrer Seite interagieren. GPTBot (OpenAI), ClaudeBot (Anthropic) und andere KI‑Crawler können vom Server unterschiedliche Inhalte erhalten als Googlebot. Einige CDNs und Sicherheitsdienste blockieren KI‑Bots standardmäßig, was bedeutet, dass Ihre Inhalte nicht in KI‑generierten Antworten erscheinen.
Verwenden Sie dieses Tool zusammen mit unserem AI Bot Access Tester, um die robots.txt‑Regeln zu prüfen, und unserem SERP Previewer, um zu sehen, wie Ihre optimierten Meta‑Tags in den Suchergebnissen erscheinen. Für kontinuierliche Überwachung verfolgt unser Local Rank Checker, wie sich Ihre Sichtbarkeit im Laufe der Zeit ändert.
Fetch & Render lädt eine Webseite mit einem bestimmten Bot‑User‑Agent‑String (wie Googlebot oder GPTBot) herunter und führt dessen JavaScript in einem headless‑Browser aus. Es liefert den rohen Quellcode, das vollständig gerenderte HTML, einen visuellen Screenshot, alle geladenen Ressourcen, HTTP‑Antwort‑Header und extrahierte SEO‑Tags – und zeigt Ihnen genau, was ein Crawler sieht, wenn er Ihre Seite besucht.
Verschiedene Faktoren können Unterschiede verursachen. Ihr Server kann den Googlebot‑User‑Agent erkennen und unterschiedliche Inhalte ausliefern (Cloaking), Ihr JavaScript kann in der Crawl‑Umgebung fehlschlagen, Ressourcen können durch robots.txt blockiert werden, oder Ihre Seite kann von Cookies bzw. einer Authentifizierung abhängen, die Bots nicht besitzen. Mit diesem Tool können Sie genau identifizieren, was Googlebot erhält im Vergleich zu dem, was ein Besucher sieht.
Der Quellcode ist das rohe HTML, das vom Server zurückgegeben wird, bevor irgendein JavaScript ausgeführt wird. Gerendertes HTML ist das endgültige DOM, nachdem sämtliches JavaScript ausgeführt, AJAX‑Aufrufe abgeschlossen und dynamische Inhalte geladen wurden. Bei JavaScript‑intensiven Seiten (React, Angular, Vue) kann der Quellcode nur ein leeres
Ja. Dieses Tool unterstützt mehrere User‑Agent‑Voreinstellungen, darunter GPTBot (OpenAI), ClaudeBot (Anthropic), Googlebot Desktop, Googlebot Mobile, Bingbot und eine benutzerdefinierte Option, bei der Sie beliebige User‑Agent‑Strings eingeben können. So können Sie prüfen, ob Ihr Server unterschiedliche Inhalte an KI‑Crawler liefert oder sie vollständig blockiert.