Sie gehört zu den Mythen, die sich um Google und seine Algorithmen ranken: die Latent Semantische Indexierung (LSI). Kommt diese Technik tatsächlich zum Einsatz, oder wird sie zumindest in Teilen genutzt?
Einige SEO Tracking-Tools zeigen für Mitte Januar deutliche Veränderungen auf den Suchergebnisseiten an. Auch vereinzelte Berichte von Webmastern zeigen, dass es ein größes Google-Update gegeben haben könnte.
Google hat das "Reviewed Claims"-Feature im Knowledge-Panel für News-Publisher vorübergehend außer Betrieb genommen. Grund seien laut einem Bericht Qualitätsprobleme. Zuvor soll es zu Beschwerden aus dem konservativen Lager in den USA wegen falscher Zuordnungen von Faktenchecks gekommen sein.
Bei der Bewertung der Ladezeit einer Webseite (Page Speed) sollte man zwischen den Besuchern einerseits sowie dem Crawlen und Indexieren andereseits trennen. Darauf hat Google in einem Webmaster-Hangout hingewiesen.
Wenn Google Webseiten crawlt und rendert, kommt die Technik des Chrome-Browsers in der Version 41 zum Einsatz. Diese Information kann sehr hilfreich sein, wenn es um das Testen und die Fehlersuche bei der Darstellung durch Google geht. So lässt sich zum Beispiel besser nachvollziehen, warum bestimmte Inhalte nicht oder nicht richtig indexiert werden.
Google hat die Suchergebnisse mit einer weiteren Funktion ausgestattet: Bei entsprechenden Suchanfragen kann man sich jetzt den aktuell genutzten User Agent anzeigen lassen.
Eine neue Studie zeigt in deutlicher Weise den Zusammenhang zwischen der Ladezeit von Webseiten und der Bounce Rate. Obwohl die durchschnittliche Dateigröße der Seiten in den letzten Jahren stark gewachsen ist, laden die Seiten im Durchschnitt recht schnell.
Der Googlebot ist in der Lage, auch sehr große Seiten vollständig zu crawlen. Das zeigt ein aktueller Test. Bezogen auf die Höhe dürfen mobile Seiten noch größer sein als Desktop-Seiten.
Google führt zur Sicherstellung der Qualität von Videos, in deren Umfeld Werbung angezeigt wird, noch strengere Regeln ein. Dazu gehört auch die Ausweitung manueller Überprüfungen.
Google hat heute das "Speed-Update" angekündigt: Ab Juli wird die Ladezeit Rankingfaktor in der mobilen Suche. Betroffen sind laut Google nur besonders langsame Seiten.
Das Verwenden bestimmter Textstellen oder Textblöcke auf mehreren Seiten einer Webseite ist für Google in Ordnung. Je nach Suchanfrage erscheint dann die Seite in den Ergebnissen, die am ehesten zum Bedürfnis des Nutzers passt.
Google rät dazu, in einem hoch kompetitiven Umfeld keine Keyword-Domains zu verwenden. Besser sei die Nutzung eines Markennamens. Ansonsten sei es schwierig, für die Suche nach der eigenen Domain gute Rankings zu erzielen.
Google ignoriert Links aus Pressemitteilungen in manchen Fällen. Es besteht jedoch in der Regel kein Grund, Links aus Pressemitteilungen per Disavow-Tool abzuwerten.
Die Verlangsamung durch Patches gegen die mit den Namen Meltdown und Spectre bezeichneten Angriffsszenarien auf Sicherheitslücken in CPUs sollte keine negativen Auswirkungen auf die Rankings der meisten Webseiten haben.
Die Migration einer Webseite auf eine neue Domain ist ein anspruchsvolles Vorhaben. Nach dem Umzug kann es eine Weile dauern, bis Google die neuen URLs indexiert und die alten durch die neuen URLs ersetzt hat. Noch länger als bei einem normalen Umzug dauert es beim Aufteilen oder Zusammenführen von Webseiten.
Canonical-Links können unter Umständen von Google ignoriert werden. Möglich ist das, wenn sich die Inhalte auf der Zielseite von denen der Seite unterscheiden, auf der sich der Canonical-Link befindet. Das wiederum kann zu unerwünschten Effekten führen.