Als SEO werde ich in letzter Zeit immer häufiger gefragt, wie man in LLMs, also in Systemen wie ChatGPT, Gemini oder Perplexity, „ranken“ kann. Spoiler: Gar nicht! Denn Sprachmodelle sind keine Suchmaschinen und funktionieren anders.
So manche KI-Agentur wirbt gerade damit, dass man die Kunden auf Platz 1 von KI bringen könne. Das ist natürlich völliger Unsinn.
Die Frage nach KI-Rankings basiert meist auf der Annahme, dass Inhalte in diesen Systemen ähnlich funktionieren wie Webseiten in Suchmaschinen. Wenn man Texte nur richtig formuliert oder für KI optimiert, so die Vorstellung, könnten sie auch dort sichtbar werden – ähnlich wie Rankings in Google.
So einfach ist es allerdings nicht. Viele der aktuellen Diskussionen über Generative Engine Optimization (GEO) vermischen zwei unterschiedliche Systeme: Suchmaschinen und generative Sprachmodelle. Wer verstehen will, welche Rolle Inhalte tatsächlich spielen, muss zunächst diese Unterschiede betrachten.
Suchmaschinen und LLMs funktionieren unterschiedlich
Suchmaschinen wie Google oder Bing arbeiten mit Rankingalgorithmen, die Dokumente nach Relevanz sortieren. Das Ergebnis ist eine Liste von Webseiten mit klar identifizierbaren URLs. Die Sichtbarkeit entsteht durch die Position eines Dokuments in dieser Liste. Wer auf den ersten Plätzen steht, erhält einen großen Teil der Klicks. Wer erst auf Seite 2 auftaucht, bleibt in der Regel unsichtbar.
INSERT_STEADY_NEWSLETTER_SIGNUP_HERE
Large Language Models funktionieren anders. Sie erzeugen Antworten, indem sie Informationen aus verschiedenen Quellen zusammenführen. Statt einer Liste von Dokumenten entsteht ein Text, der eine Frage direkt beantwortet. In manchen Fällen werden Quellen genannt, häufig jedoch nicht.
Eine Webseite kann deshalb in einer generierten Antwort vorkommen oder indirekt als Quelle dienen, ohne dass daraus eine stabile „Position“ entsteht. Es gibt auch keine Garantie, dass dieselbe Quelle bei der nächsten Anfrage wieder auftaucht.
Woher die Informationen in generativen Antworten stammen
Die Inhalte, aus denen solche Antworten entstehen, kommen in der Regel aus mehreren Quellen.
Ein Teil stammt aus Trainingsdaten. Sprachmodelle wurden mit großen Mengen öffentlich verfügbarer Texte trainiert. Dazu gehören beispielsweise Wikipedia, Medienpublikationen oder wissenschaftliche Inhalte. Diese Informationen bilden einen Teil des Modellwissens, ohne dass im Detail nachvollziehbar ist, welche Quellen genau enthalten sind.
Viele Systeme greifen zusätzlich auf externe Suchindexe zurück. Dieser Ansatz wird häufig als Retrieval-Augmented Generation (RAG) bezeichnet. Dabei werden zunächst Dokumente in einem Suchsystem gefunden und anschließend von der KI zu einer Antwort zusammengeführt. Beispiele dafür sind der Copilot bei Bing oder die AI Overviews von Google.
Damit spielen klassische Suchmaschinenmechanismen weiterhin eine wichtige Rolle.
Die SEO-Expertin Britney Muller brachte kürzlich diesen Unterschied in einem vielbeachteten Post auf Linkedin sehr prägnant auf den Punkt:
„LLMs bevorzugen keine Inhalte. Sie sind keine Informationssuchsysteme, sondern Modelle, die das statistisch wahrscheinlichste nächste Wort auf Basis von Mustern in den Trainingsdaten vorhersagen. Die Retrieval-Schicht darüber übernimmt die Informationssuche. Das zugrunde liegende LLM? Ganz sicher nicht.“
Mit anderen Worten: Das Sprachmodell selbst sucht keine Informationen. Es erzeugt nur Text. Wenn aktuelle Inhalte oder Quellen auftauchen, liegt das meist daran, dass ein Suchsystem im Hintergrund passende Dokumente liefert.
Daraus folgt auch eine einfache Konsequenz: Ohne Auffindbarkeit in Suchsystemen gibt es häufig auch keine Chance, in generativen Antworten aufzutauchen.
Entitäten und bekannte Quellen
Ein weiterer zentraler Faktor sind Entitäten. Generative Systeme orientieren sich stark an bekannten Organisationen, Marken, Personen oder Produkten.
Informationen über solche Entitäten stammen häufig aus etablierten Quellen. Dazu gehören zum Beispiel Medien, wissenschaftliche Institutionen, Behörden oder offizielle Dokumente.
Gerade bei Faktenfragen werden oft die ursprünglichen Quellen bevorzugt. Wenn etwa ein Gesetz, eine Studie oder eine offizielle Statistik zitiert wird, erscheint häufig die Originalquelle, nicht eine Seite, die diese Information lediglich zusammenfasst.
Warum Content allein nicht ausreicht
In vielen Diskussionen über GEO entsteht der Eindruck, dass Sichtbarkeit in KI-Systemen vor allem eine Frage der Content-Optimierung sei. Hochwertige Inhalte bleiben zwar eine die Grundlage, aber sie erklären nur einen Teil der Sichtbarkeit.
Eine wichtige Rolle spielen dabei auch Autorität und Erwähnungen im Web. Inhalte aus bekannten oder häufig zitierten Quellen werden deutlich häufiger berücksichtigt.
Auch die Präsenz in Suchindexen bleibt relevant. Wenn ein System auf externe Indexe zugreift, müssen Inhalte zunächst gefunden und indexiert werden, bevor sie überhaupt als mögliche Quelle infrage kommen.
Inhalte lassen sich für KI-Systeme leichter verarbeiten, wenn sie klar einer Entität zugeordnet sind und konsistent im Web erscheinen, etwa über strukturierte Daten oder Knowledge-Graph-Einträge.
Was es überhaupt bringt, in LLMs zitiert zu werden
Eine Frage wird in der Diskussion um SEO vs. GEO häufig übersehen: Welchen Nutzen hat es überhaupt, in generativen Antworten zitiert und dadurch “sichtbar” zu werden?
Der direkte Nutzen ist bislang nämlich extrem begrenzt. Anders als bei Suchmaschinen führen generative Antworten nur selten zu Klicks auf Websites. Selbst wenn Quellen genannt werden, stehen sie meist am Rand der Antwort und werden vergleichsweise selten gesehen oder angeklickt. In vielen Fällen erscheinen sogar keine Quellenangaben.
Eine bloße Zitierung einer Seite erzeugt daher oft keinen nennenswerten Traffic.
Ein echter Effekt entsteht erst dann, wenn eine Marke direkt in der Antwort genannt und verlinkt wird. Das passiert vor allem bei Fragen, in denen nach Produkten, Tools oder Anbietern gesucht wird. In solchen Fällen kann eine Marke als Beispiel oder Empfehlung Teil der Antwort werden.
Damit das geschieht, müssen jedoch mehrere Bedingungen erfüllt sein:
Die Marke muss in vielen relevanten Quellen vorkommen, sie muss in einem bestimmten Kontext als relevant gelten und sie muss klar mit einer Entität verbunden sein. Daher haben Marktführer und bekannte Brands hier klar einen Vorteil.
Wie bei SEO gilt: Es ist viel einfacher, für eine große Marke Sichtbarkeit zu generieren als für einen Newcomer oder Underdog.
Sichtbarkeit in LLMs ist schwer planbar
Ein wesentlicher Unterschied zu SEO liegt darin, dass Sichtbarkeit in generativen Systemen deutlich weniger planbar ist.
Bei Suchmaschinen lassen sich Rankings durchaus stark beeinflussen, etwa über Inhalte, technische Optimierung oder interne und externe Verlinkungen. SEO basiert auf Trial & Error und viel Geduld. Je mehr Erfahrungswerte gesammelt werden, desto besser sind am Ende die Ergebnisse.
Sie möchten eine kurze Einschätzung zur SEO-Performance Ihrer Website?
Schreiben Sie mich einfach an und nennen Sie mir die aktuellen Herausforderungen.
Bei LLMs kommen weitere komplexe Faktoren hinzu, auf die man kaum Einfluss hat: Trainingsdaten, Retrieval-Systeme, Erwähnungen in verschiedenen Quellen, Bewertungen, Entitäten in Wissensgraphen oder statistische Muster aus Trainingsdaten.
Viele dieser Faktoren liegen außerhalb der direkten Kontrolle einzelner Unternehmen. Ein großer Teil der Funktionsweise von Sprachmodellen ist und bleibt eine Blackbox.
Man kann aber trotzdem an den Dingen arbeiten, die man selbst beeinflussen kann: die eigenen Inhalte, die technische Auslieferung und an der Reputation. Aber man kann trotzdem nicht strategisch steuern, welche Antwort ein Sprachmodell erzeugt.
Die Grundlage bleibt SEO
Vor diesem Hintergrund lohnt es sich für Unternehmen, die Diskussion um GEO ganz nüchtern einzuordnen. Generative Systeme erweitern zwar die Möglichkeiten, die grundlegenden Voraussetzungen für Sichtbarkeit im Web bleiben jedoch weitgehend gleich.
Drei Faktoren sind dabei entscheidend:
- Die Qualität des Produkts oder der Dienstleistung: Echte Empfehlungen entstehen in vielen Fällen erst dann, wo ein Anbieter tatsächlich häufig genannt oder empfohlen wird.
- Solide Suchmaschinenoptimierung: Inhalte müssen auffindbar, strukturiert und fachlich fundiert sein, damit sie überhaupt in Suchindexen und damit auch in vielen generativen Systemen auftauchen können.
- Präsenz und Reputation: Erwähnungen in Fachbeiträgen, Medien, Bewertungen oder anderen Quellen tragen dazu bei, dass eine Marke als relevante Entität wahrgenommen wird.
Wer in allen Bereichen gut aufgestellt ist, erhöht auch die Wahrscheinlichkeit, in Sprachmodellen zur “passenden” Antwort zu werden.
Udo Raaf (Geschäftsführer)
Udo Raaf ist Publisher und SEO-Berater mit über 15 Jahren Erfahrung in der strategischen Suchmaschinenoptimierung für Unternehmen, Agenturen und gemeinnützige Organisationen.
Sie möchten wissen, welches Potenzial in Ihrer Website steckt?
Füllen Sie den nachfolgenden Fragebogen aus für eine unverbindliche Ersteinschätzung Ihres Projekts. Ich arbeite mit einem erstklassigen Netzwerk aus Web-Entwicklern, KI-Experten und Autoren zusammen, um maßgeschneiderte Lösungen anzubieten.

