Auch Bing nutzt 'BERT', um die Bedeutung komplexer Sprache und die Absichten der Nutzer besser zu verstehen.
Die Einführung von 'BERT' bei Google hatte zu einigem Aufsehen geführt. BERT ist die Abkürzung für "Bidrectional Encoder Representations from Transformers" und beschreibt ein System, das auf neuronalen Netzen und Deep Learning basiert. Das Ziel: Die Bedeutung auch komplexerer Wort- und Satzstrukturen und verstehen, um auch die Intentionen der Nutzer besser erkennen zu können. Dabei werden vereinfacht gesagt die Worte innerhalb eines Textes zueinander in Relation gesetzt, wobei dies sowohl vorwärts als auch rückwärts geschehen kann. BERT kann sowohl zur Interpretation von Suchanfragen als auch von Dokumenten im Suche-Index verwendet werden.
Auch Bing verwendet seit längerer Zeit BERT, wie das Unternehmen in einem Blogbeitrag schreibt. Dabei geht es vor allem um die sogenannten Intelligent Answers, erweiterte Suchergebnisse, die Bing für bestimmte Suchanfragen anzeigt. Intelligent Answers sind in etwa vergleichbar mit den Featured Snippets von Google.
Seit April 2019 verwendet auch Bing große Transformer-Modelle, um deutliche Qualitätsverbesserungen für die Bing-Suchergebnisse zu erzielen:
"Starting from April of this year, we used large transformer models to deliver the largest quality improvements to our Bing customers in the past year."
So zeigt zum Beispiel für die Suchanfrage "Was kann eine Gehirnerschütterung verschlimmern" der Begriff "verschlimmern" an, dass der Nutzer eher etwas über Handlungen nach einer Gehirnerschütterung erfahren möchte als zum Beispiel über Symtome. Bing ist jetzt in der Lage, dies besser zu verstehen und die passenden Ergebnisse zurückzuliefern.
Bing verwendet BERT jetzt nach eigener Aussage für alle weltweit gestellten Suchanfragen, um die Suchergebnisse relevanter und intelligenter zu machen.
SEO-Newsletter bestellen