Google hat ein neues Video veröffentlicht, in dem erklärt wird, wie Google mithilfe von BERT in der Lage ist, unterschiedliche Bedeutungen von Worten und sogar komplette Sätze zu verstehen.
Als Google die "Bidirectional Encoder Representations from Transformers", kurz BERT, im Oktober des Jahres 2019 ausrollte, war dies ein Meilenstein in der Geschichte der Suchmaschine. Mit BERT ist Google in der Lage, natürliche Sprache besser zu verstehen. Dabei werden unterschiedliche Bedeutungen einzelner Wörter und deren Position im Satz berücksichtigt. Dabei kommt BERT inzwischen für fast jede englischsprachige Suchanfrage zum Einsatz und wirkt sich auf die Rankings aus.
In einem neuen Video zeigt Google jetzt, wie BERT funkioniert. Gerade kleine Wörter wie Konjunktionen oder Präpositionen spielen dabei eine wichtige Rolle. Das Einbeziehen dieser Wörter mit ihren unterschiedlichen Bedeutungen und ihres Einflusses auf die Bedeutung von Sätzen helfen Google dabei, natürliche Sprache zu verstehen.
BERT lernt stetig hinzu. Das Erkennen der Bedeutung von Sätzen und Wörtern wird dabei durch Lückentexte verfeinert. In einem Satz werden etwa 20 Prozent der Wörter ausgelassen, so dass BERT raten muss, welche Wörter in die Lücken passen. So erkennt das Modell mit der Zeit, dass unterschiedliche Wörter verschiedene Bedeutungen besitzen können und dass auch die Reihenfolge der Worte in einem Satz eine Rolle spielt.
Auch wenn BERT nicht fehlerfrei funktioniert, hat das Modell doch das Verständnis natürlicher Sprache sowohl in Suchanfragen als auch in den indexierten Dokumenten deutlich verbessert.
SEO-Newsletter bestellen