Einleitung: Die unsichtbare Mauer
Kurz gefasst: Strukturierte Inhalte unterstützen Lesbarkeit und Auffindbarkeit.
Weitere Übersicht und Vertiefung zum Thema.
Stell dir vor: Du hast ein Geschäft. Es liegt in der Innenstadt. Die Lage ist gut. Die Einrichtung ist modern. Das Angebot überzeugt. Die Preise sind fair. Doch die Scheibe vom Schaufenster ist blickdicht. Passanten laufen vorbei. Sie sehen: nichts. Das passiert mit deiner Website. Das gilt, wenn sie als Single Page Application (SPA) ohne Server-Side Rendering läuft. Zumindest aus Sicht der Systeme für KI ist das so. Diese entscheiden mehr und mehr. Sie legen fest, welche Firmen empfohlen werden. Und welche nicht.
Dieser Artikel erklärt, warum das so ist. Er zeigt, welche Folgen es hat. Und er erklärt, was du dagegen tun kannst. Die Darstellung basiert auf aktuellen Ergebnissen aus der Forschung. Sie stützt sich auf offizielle Dokumente. Und sie nutzt empirische Analysen. Diese umfassen Milliarden von Anfragen für Crawler.
Das ist wichtig.
Was ist eine Single Page Application?
Eine Single Page Application ist eine Anwendung im Web. Nach dem ersten Laden der Seite fordert sie keine vollen Dokumente in HTML mehr vom Server an. Stattdessen baut JavaScript die gesamte Oberfläche für Benutzer auf. Das passiert im Browser des Besuchers. Frameworks wie React, Vue.js und Angular haben diesen Ansatz populär gemacht. Sie erlauben schnelle, flüssige Erlebnisse für Benutzer. Das ist ähnlich einer Anwendung für den Desktop.
Das technische Prinzip ist einfach: Der Server liefert eine minimale Datei in HTML aus. Diese besteht im Kern aus einem leeren Container. Typisch ist das <div id="root"></div>. Dazu kommen ein oder mehrere Dateien in JavaScript. Erst wenn der Browser diese Scripts ausführt, erscheint der echte Inhalt. Für menschliche Besucher mit modernen Browsern klappt das einwandfrei. Für Crawler, die kein JavaScript ausführen können, bleibt die Seite leer.
So sieht man es auf einen Blick.
Wie Suchmaschinen und KI-Crawler Websites verarbeiten
Um das Problem zu verstehen, musst du wissen: Verschiedene Systeme lesen Websites unterschiedlich. Dabei gibt es fundamentale Unterschiede.
Googles dreistufiger Prozess
Google verarbeitet Websites, die auf JavaScript basieren, in drei Phasen: Crawling, Rendering und Indexing. Beim Crawling holt Google die Antwort in HTML des Servers ab. Dann reiht Google die Seite in einer Warteschlange für das Rendering ein. Dort führt ein headless Browser von Chromium das JavaScript aus. Das ist die gleiche Technologie wie Google Chrome. Nur ohne sichtbares Fenster. Er erzeugt den fertigen Inhalt. Erst dann indexiert Google die Seite.[1]
Dieser Prozess klappt. Er hat aber Nachteile: Die Warteschlange für das Rendering kann Verzögerungen verursachen. Diese reichen von Sekunden bis hin zu längeren Zeiträumen. Google selbst empfiehlt daher explizit: „Server-side or pre-rendering is still a great idea because it makes your website faster for users and crawlers, and not all bots can run JavaScript.“[1]
Das macht den Unterschied.
KI-Crawler: Kein JavaScript, kein Inhalt
Die Crawler der großen Systeme für KI arbeiten anders als Googlebot. Darunter sind OpenAIs GPTBot, Anthropics ClaudeBot und PerplexityBot. Sie senden eine Anfrage per HTTP. Sie lesen die zurückgegebene Antwort in HTML. Dann gehen sie weiter. Keiner dieser Crawler führt JavaScript aus.
Eine umfassende Analyse von Vercel bestätigt dies eindeutig. Sie basiert auf realen Daten der Plattformen MERJ, Resume Library und CV Library. Keiner der großen Crawler für KI rendert JavaScript. Crawler von ChatGPT ruft zwar Dateien in JavaScript ab. Das sind 11,50 % der Anfragen. Crawler von Claude tut das ebenfalls. Das sind 23,84 %. Doch diese Dateien werden nicht ausgeführt.[2]
Eine separate Analyse von über 500 Millionen Anfragen von GPTBot ergab keinerlei Hinweise auf Ausführung von JavaScript.[3]
Hier liegt der Kern.
Übersicht: Wer sieht was?
Quellen: Vercel Research (Dez. 2024)[2], Passionfruit Analysis (März 2026)[3]
Das Ausmaß des Problems: Zahlen und Fakten
Die Tragweite dieses Problems zeigen aktuelle Zahlen deutlich. OpenAIs GPTBot generierte allein im Netzwerk von Vercel 569 Millionen Anfragen pro Monat. Anthropics ClaudeBot folgte mit 370 Millionen. Zusammen entspricht das etwa 20 % des Volumens von Googles 4,5 Milliarden Anfragen im gleichen Zeitraum.[2] Das Aufkommen von GPTBot wächst dabei um 305 % pro Jahr. Bots für KI machen mittlerweile 4,2 % aller Aufrufe von Seiten in HTML aus.[3]
Diese Zahlen zeigen: Crawler für KI sind keine Erscheinung am Rand mehr. Sie stehen für einen schnell wachsenden Anteil des gesamten Traffics im Web. Damit sind sie ein mehr und mehr wichtiger Kanal. Ein Kanal für die Sichtbarkeit von Firmen.
Das bringt Vorteile.
Die gespaltene Sichtbarkeit: Google vs. KI
Das Tückische an diesem Problem ist: Es bleibt oft unbemerkt. Eine SPA kann bei Google hervorragend ranken. Das liegt daran, dass Googlebot JavaScript ausführen kann. Gleichzeitig kann sie für alle Systeme für KI vollständig unsichtbar sein. Betreiber von Websites, die nur ihre Rankings bei Google überwachen, erkennen das Problem nicht.
Stell dir vor: Jemand fragt ChatGPT „Welcher Anbieter ist der beste für [dein Produkt]?“ Deine Website wird nie empfohlen. Das liegt nicht daran, dass dein Angebot schlecht ist. Es liegt daran: Die KI hat deinen Inhalt buchstäblich nie gesehen. Das Gleiche gilt für Perplexity, Claude und jedes andere System für KI. Diese sind auf eigene Crawler angewiesen.
Die Forschung bestätigt den Zusammenhang. Den Zusammenhang zwischen Geschwindigkeit beim Rendering und Sichtbarkeit für KI: Seiten mit einem First Contentful Paint unter 0,4 Sekunden erhalten im Durchschnitt 6,7 Zitierungen von ChatGPT. Langsamere Seiten erhalten nur 2,1. Bei einer SPA, die auf der Seite vom Client gerendert wird, erscheint der Inhalt nie in der initialen Antwort in HTML. Aus Sicht des Crawlers für KI gibt es überhaupt keinen First Contentful Paint.[3]
Das zeigt sich klar.
Generative Engine Optimization: Die wissenschaftliche Grundlage
Die akademische Forschung hat die Bedeutung der Sichtbarkeit für KI bereits formalisiert. Aggarwal et al. führten 2024 auf der renommierten Konferenz ACM SIGKDD das Konzept der Generative Engine Optimization (GEO) ein. Das ist ein Rahmenwerk. Es dient zur Verbesserung der Sichtbarkeit von Inhalten. Diese Inhalte erscheinen in den Antworten von generativen Systemen für KI. Ihre Experimente zeigten etwas Wichtiges: Gezielte Strategien für GEO können die Sichtbarkeit um bis zu 40 % steigern.[4]
Doch selbst die besten Strategien für GEO laufen ins Leere. Das passiert, wenn der Crawler für KI den Inhalt gar nicht erst lesen kann. Eine SPA ohne Server-Side Rendering macht jede Form von Generative Engine Optimization wirkungslos. Der Grund: Die Voraussetzung als Grundlage fehlt. Das ist lesbarer Inhalt in der Antwort in HTML.
Das hilft in der Praxis.
Die Lösung: Server-Side Rendering
Die gute Nachricht: Das Problem ist lösbar. Du musst nicht auf die Vorteile moderner Frameworks für JavaScript verzichten. Die Lösung heißt Server-Side Rendering (SSR).
Beim Server-Side Rendering erzeugt der Server den Inhalt in HTML bereits. Das passiert, bevor er an den Browser oder Crawler gesendet wird. Der Besucher erhält eine volle Seite in HTML. Mit allen Texten, Überschriften und Metadaten. Dann übernimmt JavaScript im Browser die Interaktivität. Dieser Prozess wird als Hydration bezeichnet. So profitieren menschliche Besucher weiterhin von der flüssigen Erfahrung mit der SPA. Gleichzeitig können Crawler den vollen Inhalt sofort lesen.
So geht es.
Moderne Frameworks mit SSR-Unterstützung
Pre-Rendering als Alternative
Für Teams, die eine volle Migration zu SSR nicht sofort umsetzen können, bietet Pre-Rendering eine leichtere Alternative. Dabei werden statische Snapshots in HTML der Seiten von der SPA erzeugt. Diese werden gezielt an Crawler ausgeliefert. Menschliche Besucher erhalten die dynamische Version in JavaScript. Dienste wie Prerender.io automatisieren diesen Prozess. Der Nachteil: Die Snapshots müssen regelmäßig aktualisiert werden. Nur so spiegeln sie aktuelle Inhalte wider.
Eine Fallstudie zeigt die Wirksamkeit: Nach der Umsetzung von Pre-Rendering für eine SPA machten Bots für KI 47,95 % aller Anfragen aus. Das ist ein Beleg dafür: Crawler für KI reagieren schnell auf neu zugängliche Inhalte.[3]
So wird es einfach.
Praktische Handlungsempfehlungen
Unabhängig davon, ob du dich für SSR oder Pre-Rendering entscheidest, solltest du folgende Schritte umsetzen:
JavaScript deaktivieren und prüfen: Öffne deine Website im Browser. Deaktiviere JavaScript. Wenn Beschreibungen von Produkten, Preise, Antworten in FAQ oder Tabellen zum Vergleich verschwinden, sind diese Seiten für Crawler für KI unsichtbar.
Quelltext prüfen: Klicke mit der rechten Maustaste auf eine Seite. Wähle „Quelltext der Seite anzeigen“. Wenn du deinen echten Inhalt als Text siehst, wird er auf der Seite vom Server gerendert. Siehst du nur ein leeres <div> und Tags für Script, hast du ein Problem.
Schema-Markup verifizieren: Stelle sicher: Strukturierte Daten, kanonische URLs und Beschreibungen in Meta sind im rohen Quelltext in HTML vorhanden. Sie dürfen nicht erst nach der Ausführung von JavaScript erscheinen.
Server-Logs überwachen: Prüfe: Erhalten GPTBot, ClaudeBot und OAI-SearchBot deine Seiten mit Status 200 und HTML mit reichem Inhalt? Oder erhalten sie nur leere Hüllen?
Ranketic nutzen: Unser Tool zur Analyse erkennt automatisch: Ist deine Website eine SPA ohne SSR? Es zeigt dir genau, welche Merkmale darauf hindeuten.
Fazit: Handeln Sie jetzt
Die Frage ist nicht, ob Suche, die auf KI gestützt ist, relevant wird. Sie ist es bereits. Mit einem jährlichen Wachstum von über 300 % bei Anfragen von Crawlern für KI wird die Sichtbarkeit für Systeme für KI zu einem entscheidenden Faktor im Wettbewerb. Hinzu kommt die mehr und mehr Integration von Antworten durch KI in den Alltag der Nutzer.
Wenn deine Website eine Single Page Application ohne Server-Side Rendering ist, existiert sie für diese Systeme schlicht nicht. Jeder Tag ohne Lösung ist ein Tag, an dem deine Wettbewerber empfohlen werden und du nicht. Deren Inhalte sind für Crawler für KI lesbar.
Die Umstellung auf SSR oder Pre-Rendering ist eine einmalige Entscheidung zur Architektur mit dauerhaftem Ertrag. Je früher du handelst, desto früher profitierst du. Du gewinnst Reichweite durch die Suche, die auf KI gestützt ist.
Quellenverzeichnis
[1] Google Search Central: „Understand the JavaScript SEO basics“, developers.google.com/search/docs/crawling-indexing/javascript/javascript-seo-basics
[2] Vercel Research: „The rise of the AI crawler“, Dezember 2024. vercel.com/blog/the-rise-of-the-ai-crawler
[3] Passionfruit: „JavaScript Rendering and AI Crawlers: Can LLMs Read Your SPA?“, März 2026. getpassionfruit.com/blog/javascript-rendering-and-ai-crawlers-can-llms-read-your-spa
[4] Aggarwal, P. et al.: „GEO: Generative Engine Optimization“, ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD ’24), August 2024. doi.org/10.1145/3637528.3671900