Wer für den Google AI Mode optimieren möchte, muss die Funktionsweise der neuen Google Suche kennen. Ein Patent liefert wertvolle Einblicke.
Der Google AI Mode bedeutet eine Zäsur für die Suche - und für SEO. Anders als bei der klassischen Suche, die primär auf dem Ranking von Dokumenten aufbaut, ist der AI Mode ein mehrstufiges, auf Reasoning basierendes System, das natürliche Sprachantworten generiert. Dieser Prozess hat erhebliche Auswirkungen darauf, wie künftig Online-Inhalte gefunden werden und führt dazu, dass traditionelle SEO-Ansätze nicht mehr ausreichen.
Sie benötigen SEO-Beratung für Ihre Website?
In einem Google Patent wird der Prozess von der Suchanfrage bis zu den fertigen Ergebnissen im AI Mode detailliert beschrieben. Das Verständnis der einzelnen Schritte ist wichtig, denn daraus lassen sich Implikationen für die Optimierung von Webseiten ableiten.
Wichtig dabei: Die generierten Ergebnisse werden nicht allein vom Wortlaut der Suchanfrage bestimmt, sondern auch von vielen Kontextfaktoren wie zum Beispiel:
- Vergangene Interaktionen
- Gerätesignale
- Persönliche Präferenzen
- Standort
- Informationen aus anderen Apps
Der Prozess wird im Google Patent wie folgt dargestellt:
Die einzelnen Schritte und die sich daraus ergebenden SEO-Implikationen werden im Folgenden beschrieben.
Danke an dieser Stelle an Hanns Kronenberg und Michael King für Ihre Beiträge und Erklärungen.
Schritt 1: Die Anfrage wird empfangen
Zum Start gibt ein Nutzer seine Suchanfrage ein. Das kann über Text-, Sprach- oder sogar Bildeingabe erfolgen, ist also multimodal. Die Anfrage löst einen umfassenderen Prozess zur Informationssammlung aus, der in den folgenden Schritten dargestellt wird.
Inhalte werden nicht nur anhand der exakten Wörter in der Suchanfrage bewertet. Geprüft wird zum Beispiel auch, wie die ursprüngliche Anfrage mit anderen möglichen Suchanfrage-Dokumentenpaaren zusammenhängt, die das System später beim Query Fan-Out generiert.
Schritt 2: Kontextuelle Informationen werden abgerufen
Das System zieht Informationen zum Nutzer und Gerät heran. Dazu gehören frühere Anfragen in derselben Sitzung, der Standort, mit dem Konto verknüpfte Verhaltensweisen wie zum Beispiel aus Gmail oder Maps sowie Gerätesignale und ein persistenter Speicher, der den Nutzerzustand repräsentiert. Diese Informationen helfen dem System, die aktuelle Anfrage im richtigen zeitlichen und verhaltensbezogenen Kontext zu verstehen.
Was bedeutet das für SEO? Die gleiche Anfrage kann für zwei verschiedene Nutzer zu völlig unterschiedlichen Suchergebnispfaden führen. Das erschwert das Tracking von Rankings und betont die Bedeutung einer konsistenten Präsenz über verschiedene Online-Bereiche hinweg.
Schritt 3: Die erste LLM-Ausgabe wird generiert
Ein LLM (im Fall des AI Modes ist es Gemini 2.5) verarbeitet die Suchanfrage zusammen mit dem gesammelten Kontext. Das Modell erstellt erste Schlussfolgerungen, darunter die abgeleitete Nutzerintention, die Klärung von Mehrdeutigkeiten und Hinweise zur Klassifizierung der Anfrage. Dieser Schritt ist entscheidend, weil er das interne Verständnis des Systems dafür begründet, was der Nutzer erreichen möchte.
Was bedeutet das für SEO? Das Sichtbarkeitspotential von Inhalten wird stark davon beeinflusst, wie gut sie zum vom System ermittelten Nutzerabsicht zusammenpassen
Schritt 4: Automatische Suchanfragen werden generiert
Die Ausgabe des LLMs bildet die Grundlage für das Erzeugen mehrerer Suchanfragen, die das System anschließend durchführt. Dieser Vorgang des parallelen Durchführens mehrerer Suchanfragen wird auch als Query Fan-Out bezeichnet. Diese Anfragen können verwandte, implizite, vergleichende Begriffe oder Wörter aus früheren Suchanfragen des Nutzers umfassen. Das System kann auch Begriffe aus dem Nutzerkontext hinzufügen.
Was bedeutet das für SEO? Die Sichtbarkeit ist abhängig von verschiedenen Schichten des Prozesses. Wenn Inhalte zwar für die ursprüngliche Anfrage optimiert sind, aber für die vom System erstellten Anfragen irrelevant sind, werden sie möglicherweise gar nicht erst abgerufen. Optimierung bedeutet, potenzielle Anfragen zu antizipieren und abzudecken.
Schritt 5: Dokumente werden abgerufen
Dokumente, die zu den Suchanfragen passen, werden aus dem Index abgerufen. Das geschieht jedoch nicht nur als Reaktion auf die ursprüngliche Anfrage, sondern für die gesamte Bandbreite der automatisch erzeugten Suchanfragen. Das System sammelt Dokumente, die für die verschiedenen Teilaspekte relevant sind. Die Auswahl der Dokumente kann durch verschiedene Kriterien beeinflusst werden, darunter auch solche, die vom Nutzer abhängen.
Inhalte konkurrieren jetzt in einer Umgebung des "Dense Retrieval", die auf semantischer Ähnlichkeit basiert, nicht nur auf dem Ranking.
Schritt 6: Die Anfrage wird basierend auf Zustandsdaten klassifiziert
Unter Verwendung der ursprünglichen Suchanfrage, der Kontextinformationen, der generierten Suchanfragen und der abgerufenen Dokumente weist das System der Anfrage eine Klassifizierung zu. Diese Klassifizierung bestimmt, welche Art von Antwort benötigt wird, zum Beispiel eine informationale, vergleichende oder transaktionale Antwort. Auch wird geprüft, ob eine weitere Klärung notwendig ist.
Was bedeutet das für SEO? Die Art der benötigten Antwort bestimmt, welche Art von Inhalten ausgewählt und wie sie zusammengefasst werden. Inhalte sollten so strukturiert sein, dass sie zum jeweiligen User Intent passen. Inhalte, bei denen das nicht der Fall ist, können trotz inhaltlicher Relevanz ausgeschlossen werden.
Schritt 7: Spezialisierte Downstream LLMs werden ausgewählt
Ausgehend von der im vorangehenden Schritt ermittelten Klassifizierung wählt das System aus einer Reihe von spezialisierten LLMs aus. Das können Modelle sein, die speziell für Aufgaben wie Zusammenfassung, Extraktion strukturierter Daten, Übersetzung oder Entscheidungsunterstützung trainiert wurden. Jedes dieser Modelle spielt eine Rolle bei der Umwandlung der abgerufenen Dokumente in eine nützliche synthetisierte Antwort. Es können auch mehrere Modelle ausgewählt werden.
Was bedeutet das für SEO? Das LLM, das letztendlich mit den Inhalten der Webseiten interagiert, wird möglicherweise nie das gesamte Dokument zu Gesicht bekommen und vielleicht nur einen bestimmten Absatz oder ein Element wie eine Liste oder eine Tabelle verarbeiten. Deshalb werden das Format und die Fähigkeit von Inhalten, in separate Einheiten zerlegt zu werden, zunehmend wichtig. Hier ist auch von “Chunkability” die Rede.
Schritt 8: Die endgültige Ausgabe wird generiert
Die ausgewählten Downstream LLMs produzieren die finale Antwort. Sie wird in natürlicher Sprache formuliert und kann Informationen aus mehreren Quellen und verschiedenen Modalitäten (Text, Video, Audio) enthalten.
Schritt 9: Die Antwort wird auf dem Gerät des Nutzers gerendert
Die synthetisierte Antwort in natürlicher Sprache wird an den Nutzer gesendet. Oft werden Quellenangaben oder interaktive Elemente aus dem abgerufenen Korpus hinzugefügt. Wenn eine Website zitiert wird, kann das Traffic auf die betreffende Seite lenken.
Was bedeutet das für SEO? Sichtbarkeit in den Quellen der KI-Antwort garantiert keinen Traffic. SEOs sind darauf angewiesen, den sogenannten "Share of Attributed Influence Value (AIV)" zu messen. Ein Zitat wird dabei sowohl zu einem Werkzeug für Bekanntheit als auch zur Vertrauensbildung.
Bewertung
Webseiten müssen zusätzliche Eigenschaften erfüllen, wenn sie auch im Google AI Mode erfolgreich sein wollen. Es geht darum, verschiedene Fragen zu beantworten, die sich aus den Suchanfragen der Nutzer ergeben können. Insofern ist das auch kein völlig neuer Ansatz, denn schon bisher galt die Empfehlung, sich beim Erstellen von Inhalten an den Bedürfnissen und den Fragen der Nutzer zu orientieren.
Welche Fragen Google beim Query Fan-Out erstellt, wird dabei leider unklar bleiben - zumindest gibt es von Google bisher keine Pläne, auch diese Suchanfragen zur Verfügung zu stellen.