SEO-News

Google US Startseite mit AI Mode

Wer für den Google AI Mode optimieren möchte, muss die Funktionsweise der neuen Google Suche kennen. Ein Patent liefert wertvolle Einblicke.


 Anzeige

Der Google AI Mode bedeutet eine Zäsur für die Suche - und für SEO. Anders als bei der klassischen Suche, die primär auf dem Ranking von Dokumenten aufbaut, ist der AI Mode ein mehrstufiges, auf Reasoning basierendes System, das natürliche Sprachantworten generiert. Dieser Prozess hat erhebliche Auswirkungen darauf, wie künftig Online-Inhalte gefunden werden und führt dazu, dass traditionelle SEO-Ansätze nicht mehr ausreichen.

Sie benötigen SEO-Beratung für Ihre Website?

Jetzt unverbindlich anfragen

In einem Google Patent wird der Prozess von der Suchanfrage bis zu den fertigen Ergebnissen im AI Mode detailliert beschrieben. Das Verständnis der einzelnen Schritte ist wichtig, denn daraus lassen sich Implikationen für die Optimierung von Webseiten ableiten.

Wichtig dabei: Die generierten Ergebnisse werden nicht allein vom Wortlaut der Suchanfrage bestimmt, sondern auch von vielen Kontextfaktoren wie zum Beispiel:

  • Vergangene Interaktionen
  • Gerätesignale
  • Persönliche Präferenzen
  • Standort
  • Informationen aus anderen Apps

Der Prozess wird im Google Patent wie folgt dargestellt:

Google AI Mode: Prozess der Suche laut Patent

Die einzelnen Schritte und die sich daraus ergebenden SEO-Implikationen werden im Folgenden beschrieben.

Danke an dieser Stelle an Hanns Kronenberg und Michael King für Ihre Beiträge und Erklärungen.

Schritt 1: Die Anfrage wird empfangen 

Zum Start gibt ein Nutzer seine Suchanfrage ein. Das kann über Text-, Sprach- oder sogar Bildeingabe erfolgen, ist also multimodal. Die Anfrage löst einen umfassenderen Prozess zur Informationssammlung aus, der in den folgenden Schritten dargestellt wird.

Inhalte werden nicht nur anhand der exakten Wörter in der Suchanfrage bewertet. Geprüft wird zum Beispiel auch, wie die ursprüngliche Anfrage mit anderen möglichen Suchanfrage-Dokumentenpaaren zusammenhängt, die das System später beim Query Fan-Out generiert.

Schritt 2: Kontextuelle Informationen werden abgerufen

Das System zieht Informationen zum Nutzer und Gerät heran. Dazu gehören frühere Anfragen in derselben Sitzung, der Standort, mit dem Konto verknüpfte Verhaltensweisen wie zum Beispiel aus Gmail oder Maps sowie Gerätesignale und ein persistenter Speicher, der den Nutzerzustand repräsentiert. Diese Informationen helfen dem System, die aktuelle Anfrage im richtigen zeitlichen und verhaltensbezogenen Kontext zu verstehen.

Was bedeutet das für SEO? Die gleiche Anfrage kann für zwei verschiedene Nutzer zu völlig unterschiedlichen Suchergebnispfaden führen. Das erschwert das Tracking von Rankings und betont die Bedeutung einer konsistenten Präsenz über verschiedene Online-Bereiche hinweg.

Schritt 3: Die erste LLM-Ausgabe wird generiert 

Ein LLM (im Fall des AI Modes ist es Gemini 2.5) verarbeitet die Suchanfrage zusammen mit dem gesammelten Kontext. Das Modell erstellt erste Schlussfolgerungen, darunter die abgeleitete Nutzerintention, die Klärung von Mehrdeutigkeiten und Hinweise zur Klassifizierung der Anfrage. Dieser Schritt ist entscheidend, weil er das interne Verständnis des Systems dafür begründet, was der Nutzer erreichen möchte.

Was bedeutet das für SEO? Das Sichtbarkeitspotential von Inhalten wird stark davon beeinflusst, wie gut sie zum vom System ermittelten Nutzerabsicht zusammenpassen

Schritt 4: Automatische Suchanfragen werden generiert 

Die Ausgabe des LLMs bildet die Grundlage für das Erzeugen mehrerer Suchanfragen, die das System anschließend durchführt. Dieser Vorgang des parallelen Durchführens mehrerer Suchanfragen wird auch als Query Fan-Out bezeichnet. Diese Anfragen können verwandte, implizite, vergleichende Begriffe oder Wörter aus früheren Suchanfragen des Nutzers umfassen. Das System kann auch Begriffe aus dem Nutzerkontext hinzufügen.

Was bedeutet das für SEO? Die Sichtbarkeit ist abhängig von verschiedenen Schichten des Prozesses. Wenn Inhalte zwar für die ursprüngliche Anfrage optimiert sind, aber für die vom System erstellten Anfragen irrelevant sind, werden sie möglicherweise gar nicht erst abgerufen. Optimierung bedeutet, potenzielle Anfragen zu antizipieren und abzudecken.

Schritt 5: Dokumente werden abgerufen

Dokumente, die zu den Suchanfragen passen, werden aus dem Index abgerufen. Das geschieht jedoch nicht nur als Reaktion auf die ursprüngliche Anfrage, sondern für die gesamte Bandbreite der automatisch erzeugten Suchanfragen. Das System sammelt Dokumente, die für die verschiedenen Teilaspekte relevant sind. Die Auswahl der Dokumente kann durch verschiedene Kriterien beeinflusst werden, darunter auch solche, die vom Nutzer abhängen.

Inhalte konkurrieren jetzt in einer Umgebung des "Dense Retrieval", die auf semantischer Ähnlichkeit basiert, nicht nur auf dem Ranking.

Schritt 6: Die Anfrage wird basierend auf Zustandsdaten klassifiziert

Unter Verwendung der ursprünglichen Suchanfrage, der Kontextinformationen, der generierten Suchanfragen und der abgerufenen Dokumente weist das System der Anfrage eine Klassifizierung zu. Diese Klassifizierung bestimmt, welche Art von Antwort benötigt wird, zum Beispiel eine informationale, vergleichende oder transaktionale Antwort. Auch wird geprüft, ob eine weitere Klärung notwendig ist.

Was bedeutet das für SEO? Die Art der benötigten Antwort bestimmt, welche Art von Inhalten ausgewählt und wie sie zusammengefasst werden. Inhalte sollten so strukturiert sein, dass sie zum jeweiligen User Intent passen. Inhalte, bei denen das nicht der Fall ist, können trotz inhaltlicher Relevanz ausgeschlossen werden.

Schritt 7: Spezialisierte Downstream LLMs werden ausgewählt

Ausgehend von der im vorangehenden Schritt ermittelten Klassifizierung wählt das System aus einer Reihe von spezialisierten LLMs aus. Das können Modelle sein, die speziell für Aufgaben wie Zusammenfassung, Extraktion strukturierter Daten, Übersetzung oder Entscheidungsunterstützung trainiert wurden. Jedes dieser Modelle spielt eine Rolle bei der Umwandlung der abgerufenen Dokumente in eine nützliche synthetisierte Antwort. Es können auch mehrere Modelle ausgewählt werden.

Was bedeutet das für SEO? Das LLM, das letztendlich mit den Inhalten der Webseiten interagiert, wird möglicherweise nie das gesamte Dokument zu Gesicht bekommen und vielleicht nur einen bestimmten Absatz oder ein Element wie eine Liste oder eine Tabelle verarbeiten. Deshalb werden das Format und die Fähigkeit von Inhalten, in separate Einheiten zerlegt zu werden, zunehmend wichtig. Hier ist auch von “Chunkability” die Rede.

Schritt 8: Die endgültige Ausgabe wird generiert

Die ausgewählten Downstream LLMs produzieren die finale Antwort. Sie wird in natürlicher Sprache formuliert und kann Informationen aus mehreren Quellen und verschiedenen Modalitäten (Text, Video, Audio) enthalten.

Schritt 9: Die Antwort wird auf dem Gerät des Nutzers gerendert 

Die synthetisierte Antwort in natürlicher Sprache wird an den Nutzer gesendet. Oft werden Quellenangaben oder interaktive Elemente aus dem abgerufenen Korpus hinzugefügt. Wenn eine Website zitiert wird, kann das Traffic auf die betreffende Seite lenken. 

Was bedeutet das für SEO? Sichtbarkeit in den Quellen der KI-Antwort garantiert keinen Traffic. SEOs sind darauf angewiesen, den sogenannten "Share of Attributed Influence Value (AIV)" zu messen. Ein Zitat wird dabei sowohl zu einem Werkzeug für Bekanntheit als auch zur Vertrauensbildung.

Bewertung

Webseiten müssen zusätzliche Eigenschaften erfüllen, wenn sie auch im Google AI Mode erfolgreich sein wollen. Es geht darum, verschiedene Fragen zu beantworten, die sich aus den Suchanfragen der Nutzer ergeben können. Insofern ist das auch kein völlig neuer Ansatz, denn schon bisher galt die Empfehlung, sich beim Erstellen von Inhalten an den Bedürfnissen und den Fragen der Nutzer zu orientieren.

Welche Fragen Google beim Query Fan-Out erstellt, wird dabei leider unklar bleiben - zumindest gibt es von Google bisher keine Pläne, auch diese Suchanfragen zur Verfügung zu stellen.

Verwandte Beiträge

Jetzt ist es soweit: Daten aus dem Google AI Mode landen auch in der Google Search Console. Interessant dabei: Eine Impression wird auch hier nur für einen angezeigten Link gewertet.

Der Google AI Mode ist jetzt erstmals auch aus der normalen Google Suche heraus erreichbar. Man benötigt weder  Google Labs, noch muss man eingeloggt sein.

Mehr Impressionen bei gleichzeitig weniger Klicks - das prägt derzeit das Bild vieler Websites in der Google Suche. Der Grund dafür sind vor allem die AI Overviews.

SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden




Anzeige

rnkeffect

Premium-Partner (Anzeige)


Anzeigen Digitaleffects

Online Solutions Group

Farbentour

Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar

 

SEO-Beratung

Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Social Networks und RSS-Feed

Auszeichnungen

seo19 sieger sichtbarkeit 2020 200x200px