Skip to main content
SEO-News

Agentic Engine Optimization (AEO)

Christian Kunz
21. April 2026
Zuletzt aktualisiert: 21. April 2026
AEO

Kaum hat sich der Begriff der GEO etabliert, könnte schon wieder eine neue Abkürzung für Aufsehen sorgen: AEO. Die Abkürzung steht für Agentic Engine Optimization.

 Anzeige

Die Zukunft des Webs ist agentisch. Statt Menschen werden KI-Agenten die Nutzung des Internets dominieren. Dass es sich dabei um ein realistisches Szenario handelt, wurde zuletzt durch Sundar Pichai von Google bestätigt. Er sagte in einem Interview unter anderem, dass sich die Suche vom reinen Sammeln von Informationen zum Abschluss von Aufgaben entwickeln werde.

KI-Agenten sammeln und verwenden Informationen allerdings auf eine grundlegend andere Weise als menschliche Leser. Wenn Websites weiterhin vor allem für menschliche Nutzer optimiert werden, bleibt ein wachsender Teil des Publikums für die eingesetzten Tools unsichtbar. So beschreibt es Addy Osmani, Software-Ingenieur bei Google, der an Google Cloud und Gemini arbeitet. Er fokussiert sich dabei auf Coding und Inhalte, die sich auf Entwicklung beziehen. Allerdings lassen sich die Beschreibungen auch auf andere Inhalte im Internet übertragen.

Um Inhalte im Web bestmöglich durch KI-Agenten nutzbar zu machen (sofern man das möchte), kann man die Techniken der AEO nutzen. Sie sorgen dafür, dass die Agenten die relevanten Informationen effizient und zielgenau abrufen können.

SEO-Beratung: Wir sind Ihre Experten

Wir bringen gemeinsam Ihre Website nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.

Christian Kunz
Christian Kunz
SEO Experte
David Wulf
David Wulf
SEO Experte
Sven Häwel
Sven Häwel
Offpage-Experte

Was ist Agentic Engine Optimization (AEO)? 

AEO bedeutet, Inhalte so zu strukturieren, zu formatieren und bereitzustellen, dass sie von KI-Agenten effektiv genutzt werden können, und nicht nur von menschlichen Lesern. Osmani vergleicht das mit der klassischen SEO: Während SEO jahrelang darauf abzielte, Inhalte für Webcrawler und menschliches Klickverhalten zu optimieren, ist AEO die gleiche Idee für einen anderen Konsumenten: nämlich KI-Agenten, die autonom Inhalte abrufen, parsen und verarbeiten.

Die wichtigsten Faktoren von AEO 

Damit KI-Agenten Inhalte erfolgreich nutzen können, spielen spezifische Faktoren eine entscheidende Rolle:

  • Auffindbarkeit (Discoverability): Können Agenten die Dokumentation finden, ohne JavaScript rendern zu müssen?
  • Analysierbarkeit (Parsability): Sind die Inhalte maschinenlesbar, ohne dass eine visuelle Layout-Interpretation erforderlich ist?
  • Token-Effizienz: Passt der Inhalt in die typischen Kontextfenster von Agenten, ohne abgeschnitten zu werden?
  • Fähigkeitssignalisierung (Capability signaling): Erklärt die Dokumentation den Agenten, was eine API tut, und nicht nur, wie man sie aufruft?
  • Zugriffskontrolle (Access control): Lässt die robots.txt den Traffic von KI-Agenten überhaupt zu?

Wenn auch nur einer dieser Faktoren fehlschlägt, überspringen Agenten den Inhalt oft komplett oder produzieren fehlerhafte Ergebnisse, ohne dass dies in herkömmlichen Analytics-Tools sichtbar wird.

Die 5 Ebenen der AEO

Ebene 1: Zugriffskontrolle (robots.txt) Die Konfiguration der robots.txt stellt sicher, dass KI-Agenten nicht blockiert werden und überhaupt die Erlaubnis haben, auf die Inhalte zuzugreifen.

Ebene 2: Auffindbarkeit (llms.txt) Eine llms.txt-Datei fungiert als strukturierte Sitemap, damit Agenten die relevanten Dokumentationen ohne langes Suchen finden können. Allerdings ist der Nutzen der llms.txt derzeit noch umstritten.

Ebene 3: Fähigkeitssignalisierung (skill.md) Die skill.md erklärt dem Agenten deklarativ, welche konkreten Aufgaben und Funktionen eine API oder ein Service ausführen kann.

Ebene 4: Inhaltsformatierung für Agenten (Agent parsing) Dokumentationen werden als sauberes, strukturiertes Markdown bereitgestellt, um das maschinelle Auslesen zu optimieren.

Ebene 5: Token-Ausweisung (Token surfacing) Die Ausweisung der Token-Anzahl pro Seite hilft Agenten bei der Entscheidung, ob der gesamte Inhalt in ihr begrenztes Kontextfenster passt.

Das Token-Problem und die Lösung über llms.txt 

Ein häufig unterschätztes Problem ist die Token-Ökonomie. KI-Agenten verfügen nicht über einen unbegrenzten Kontext, sondern haben meist praktische Limits zwischen 100.000 und 200.000 Tokens. Trifft ein Agent auf ein zu langes Dokument, kann er wichtige Informationen einfach abschneiden, das Dokument komplett überspringen oder anfangen zu halluzinieren. Deshalb ist die Token-Anzahl mittlerweile eine wichtig Metrik für Dokumentationen.

Um die Auffindbarkeit zu verbessern und das Token-Budget der Agenten zu schonen, empfiehlt sich laut Osmani der Einsatz einer llms.txt-Datei. Diese kann als Sitemap für KI-Agenten dienen und ist eine einfache Markdown-Datei im Hauptverzeichnis, die ein strukturiertes Verzeichnis der Dokumentation bietet. Eine gute llms.txt sollte auch die Token-Anzahlen pro Seite enthalten, damit Agenten Entscheidungen treffen können, bevor sie eine Seite überhaupt laden.

Allerdings gibt es derzeit noch viele Diskussionen um die Sinnhaftigkeit einer llms.txt. Vor dem Hintergrund der agentischen Nutzung und der Optimierung knapper Ressourcen erscheint der Einsatz eines solchen Werkzeugs allerdings durchaus als sinnvoll.

Copy for AI

Osmani schlägt einen “Copy for AI”-Button vor. Das ist eine spezielle Funktion auf der Benutzeroberfläche, die als Brücke zwischen menschlichen Entwicklern und KI-Assistenten dient.

Wenn ein Entwickler in einer IDE mit einer KI arbeitet und Dokumentationsinhalte als Kontext nutzen möchte, markiert und kopiert er den Text in der Regel direkt aus dem gerenderten HTML der Webseite. Das Problem dabei ist, dass auf diesem Weg viel störendes Rauschen mitkopiert wird wie beispielsweise Navigationsmenüs, Fußzeilen und andere überflüssige Layout-Elemente.

Der Copy for AI-Button dagegen kopiert beim Anklicken ausschließlich Markdown in die Zwischenablage. Das hat den Vorteil, dass sich die Qualität des Kontexts, den der KI-Agent zur Verarbeitung erhält, deutlich verbessert.

KI-Traffic überwachen und erkennen

Klassische Analysemethoden wie Scrolltiefe, Verweildauer oder Klickpfade greifen bei KI-Agenten nicht, weil dies eine Navigation oft in nur einem oder zwei HTTP-Requests komprimieren. Um den Erfolg von AEO-Maßnahmen zu messen, muss man anfangen, KI-Traffic-Quellen im Web-Analytics zu segmentieren und in Server-Logs nach bekannten HTTP-Fingerabdrücken zu suchen.

Die folgende Tabelle zeigt beispielhaft die spezifischen Verhaltensmuster und Fingerabdrücke bekannter KI-Agenten in Server-Logs auf:

Agent

HTTP Runtime

Pre-fetch Behavior

Signature

Aider

Headless Chromium (Playwright)

On-demand GET

Full Mozilla/Safari user-agent

Claude Code

Node.js / Axios

On-demand GET

axios/1.8.4

Cline

curl

GET + OpenAPI/Swagger sweep

curl/8.4.0

Cursor

Node.js / got

HEAD probe → GET

got (sindresorhus/got)

Junie

curl

Sequential multi-page GET

curl/8.4.0

OpenCode

Headless Chromium (Playwright)

On-demand GET

Full Mozilla/Safari user-agent

VS Code

Electron / Chromium

On-demand GET

Chromium-style with Electron markers

Windsurf

Go / Colly

On-demand GET

colly

AEO-Audit-Checkliste

Um zu überprüfen, ob eine Dokumentationsseite bereit für KI-Agenten ist, hat Addy Osmani folgende Checkliste zusammengestellt:

Auffindbarkeit (Discovery)

  •  llms.txt existiert im Stammverzeichnis mit einem strukturierten Index aller Dokumentationen.
  •  robots.txt blockiert nicht unbeabsichtigt bekannte KI-Agenten-Nutzeragenten.
  •  agent-permissions.json definiert Zugriffsregeln für automatisierte Clients.
  •  AGENTS.md existiert in Code-Repositories und verlinkt auf relevante Dokumentationen.

Inhaltsstruktur (Content structure)

  •  Dokumentationsseiten sind als sauberes Markdown verfügbar (nicht nur gerendertes HTML).
  •  Jede Seite beginnt mit einer klaren Ergebnisaussage in den ersten 200 Wörtern.
  •  Überschriften sind konsistent und hierarchisch korrekt (H1 → H2 → H3).
  •  Code-Beispiele folgen direkt auf die prosaische Beschreibung.
  •  Für Parameterreferenzen werden Tabellen statt verschachtelter Texte verwendet.

Token-Ökonomie (Token economics)

  •  Token-Anzahlen pro Dokumentationsseite werden getrackt.
  •  Keine einzelne Seite überschreitet 30.000 Tokens ohne eine Chunking-Strategie.
  •  Token-Anzahlen für Schlüsselseiten werden in der llms.txt ausgewiesen.
  •  Token-Anzahlen sind als Seiten-Metadaten verfügbar (Meta-Tag oder HTTP-Header).

Capability signaling

  •  skill.md-Dateien beschreiben, was jeder Service/API tut, nicht nur wie man ihn aufruft.
  •  Jeder "Skill" enthält: Fähigkeiten, benötigte Eingaben, Einschränkungen, wichtige Doku-Links.
  •  Ein MCP-Server steht für direkte Agenten-Integration zur Verfügung (falls zutreffend).

Analytik & UX (Analytics & UX)

  •  KI-Referral-Quellen sind in der Web-Analytik segmentiert.
  •  Server-Logs werden auf bekannte KI-Agenten-HTTP-Fingerabdrücke überwacht.
  •  Ein Ausgangswert (Baseline) für das Verhältnis von KI- zu menschlichem Traffic ist etabliert.
  •  Ein "Copy for AI"-Button ist auf den Dokumentationsseiten verfügbar.
  •  Die Markdown-Quelle ist über eine URL-Konvention zugänglich (z. B. durch Anhängen von .md).

Christian Kunz

Von Christian Kunz

SEO-Experte.
Sie benötigen Beratung für Ihre Webseite? Klicken Sie hier


SEO-Newsletter bestellen

Im monatlichen SEO-Newsletter erhaltet Ihr eine Übersicht der jeweils zehn wichtigsten SEO-Meldungen des Monats. Mit dem SEO-Newsletter bleibt Ihr auf dem Laufenden.
Ich bin mit den Nutzungsbedingungen einverstanden

Verwandte Beiträge

Anzeige

rnkeffect

Premium-Partner (Anzeige)

 


 

Anzeigen

Generative Engine Optimization 2026 Buch

 


Farbentour

 

Onsite-Optimierung

Onsite-Optimierung

 

Sprecher auf

SEO- und Suchmaschinenblogs

SEO-FAQ

Bild © FM2 - Fotolia.com

SEO selber machen

SEO selber machen

Bekannt aus

Website Boosting


Internet World Business

SEO United


The SEM Post


Webselling

Jetzt vernetzen

SEO-Glossar

SEO-Glossar