John Müller hat sich zum Thema Embeddings positioniert. Seiner Meinung nach ist das Optimieren dafür gleichzusetzen mit Keyword Stuffing. Dabei sollte zunächst einmal erklärt werden, was Embedding eigentlich bedeutet.
Der Begriff "Embedding" bedeutet im Kontext von maschinellem Lernen und Information Retrieval, dass ein Dokument wie zum Beispiel ein Text, ein Bild oder ein Musikstück auf einen mehrdimensionalen Vektor abgebildet wird. Auch Suchanfragen von Nutzern lassen sich als Vektoren abbilden Durch den Abgleich verschiedener Vektoren lässt sich deren semantische Ähnlichkeit bestimmen. Dazu wird der Kosinus des Winkels zwischen Vektoren im Raum bestimmt. Umso geringer der Winkel zwischen den Vektoren bzw. umso größer der Kosinus, desto ähnlicher die Vektoren und damit desto ähnlicher die Objekte, die sie repräsentieren. Auf diese Weise lassen sich zum Beispiel ähnliche Bilder finden.
Das Optimieren für Embeddings im SEO- bzw. im KI-Kontext würde bedeuten, Dokumente so zu gestalten, dass sie möglichst ähnlich zu bestimmten Anfragen sind. Das kann auf Ebene von Worten ebenso passieren wie auf Ebene anderer Inhalte wie Bilder, Videos etc.
Sie benötigen SEO-Beratung für Ihre Website?
Letztendlich kann das auch zu Keyword Stuffing führen, also dem Überladen eines Textes mit Begriffen, für die er gefunden werden soll. Das zumindest scheint die Auffassung von John Müller zu sein. Er schrieb dazu - vielleicht etwas pointiert - auf Bluesky:
"Optimizing sites for embeddings is *literally* keywords stuffing. #seo #aio #aeo #geo #eieio"
Das ist sicherlich nur die Extremform. Wenn man Embedding bzw. das Optimieren dafür so versteht, dass Inhalte mit einer semantischen Ähnlichkeit zu bestimmten Suchanfragen erstellt werden sollen, muss das nicht zwangsläufig mit Keyword Stuffing einhergehen, denn auch die Beziehung zwischen Worten und deren Bedeutungen spielen dabei eine Rolle. Es geht also auch darum, Inhalte mit einer bestimmten Bedeutung zu schaffen.