Google schreibt Betreiber von Webseiten an, deren Favicon nicht die Auflösung von 192 mal 192 Pixeln besitzt. Hochaufgelöste Favicons können laut Google die Klickrate auf der New Tab-Seite von Chromne oder auf dem Android Home Screen deutlich erhöhen.
Auf einer Webseite sollte laut Google deutlich gemacht werden, worum es dort überhaupt geht. Dazu gehört auch das Nennen von Keywords, nach denen potentielle Kunden suchen. Gleichzeitig bestätigte Google, dass die Keyworddichte keine geeignete Kennzahl ist.
Damit Google eine Webseite vollständig crawlen kann, ist die Suchmaschine auf Links hingewiesen. Webseiten ohne vollständiges Menü, bei denen die Navigation nur über eine interne Suche funktioniert, können dabei Nachteile erleiden.
Google rät dazu, die Dateinamen von XML-Sitemaps möglichst unverändert zu lassen. Die Ausnahme bilden Seiten, auf denen es regelmäßig viele neue Inhalte gibt.
Bei der inhaltlichen Ausrichtung von Webseiten geht es schon lange nicht mehr ausschließlich um Keywords. Auch Themen alleine genügen nicht mehr, um langfristig gute Rankings zu bewahren, denn all dies muss in Einklang mit den Bedürfnissen der Nutzer, kurz Search Intent oder User Intent, gebracht werden.
Google will sich offiziell nicht zur Verwendung von Algorithmen äußern, die das Leseniveau von Texten auf Webseiten bewerten. Allerdings gibt es den Hinweis, dass sich die Sprache nach den Anforderungen der Leser richten sollte.
Es ist laut Google durchaus möglich, eine Seite auf zwei verschiedene Keywords auszurichten. Dabei sollte aber das inhaltliche Verhältnis zwischen diesen Keywords beachtet werden.
Der Einsatz des Vary-HTTP-Headers zum Hinweis auf unterschiedliche Seiten für Mobilgeräte und den Desktop sollte nur dort erfolgen, wo es auch technisch begründet und sinnvoll ist. Darauf hat Google kürzlich hingewiesen.
Zwischen Google und einigen SEOs gab es eine teils heftige Diskussion um die Frage, ob das Verwenden von Subdomains oder Verzeichnissen besser für die Rankings sei. Während Google sich nicht festlegen möchte, werfen manche SEOs dem Unternehmen vor, Informationen zu verbergen.
Bei der Bewertung der Ladezeit einer Webseite (Page Speed) sollte man zwischen den Besuchern einerseits sowie dem Crawlen und Indexieren andereseits trennen. Darauf hat Google in einem Webmaster-Hangout hingewiesen.
Eine neue Studie zeigt in deutlicher Weise den Zusammenhang zwischen der Ladezeit von Webseiten und der Bounce Rate. Obwohl die durchschnittliche Dateigröße der Seiten in den letzten Jahren stark gewachsen ist, laden die Seiten im Durchschnitt recht schnell.
Google hat heute das "Speed-Update" angekündigt: Ab Juli wird die Ladezeit Rankingfaktor in der mobilen Suche. Betroffen sind laut Google nur besonders langsame Seiten.
Das Verwenden bestimmter Textstellen oder Textblöcke auf mehreren Seiten einer Webseite ist für Google in Ordnung. Je nach Suchanfrage erscheint dann die Seite in den Ergebnissen, die am ehesten zum Bedürfnis des Nutzers passt.
Google rät dazu, in einem hoch kompetitiven Umfeld keine Keyword-Domains zu verwenden. Besser sei die Nutzung eines Markennamens. Ansonsten sei es schwierig, für die Suche nach der eigenen Domain gute Rankings zu erzielen.
Die Verlangsamung durch Patches gegen die mit den Namen Meltdown und Spectre bezeichneten Angriffsszenarien auf Sicherheitslücken in CPUs sollte keine negativen Auswirkungen auf die Rankings der meisten Webseiten haben.
Die Migration einer Webseite auf eine neue Domain ist ein anspruchsvolles Vorhaben. Nach dem Umzug kann es eine Weile dauern, bis Google die neuen URLs indexiert und die alten durch die neuen URLs ersetzt hat. Noch länger als bei einem normalen Umzug dauert es beim Aufteilen oder Zusammenführen von Webseiten.
Canonical-Links können unter Umständen von Google ignoriert werden. Möglich ist das, wenn sich die Inhalte auf der Zielseite von denen der Seite unterscheiden, auf der sich der Canonical-Link befindet. Das wiederum kann zu unerwünschten Effekten führen.
Google wird Webseiten keine Sonderbehandlung zukommen lassen, die wegen der Patches gegen die aktuellen CPU-Sicherheitslücken und gegen die mit Meltdown und Spectre gekennzeichneten Angriffe langsamer geworden sind. Die Nutzer interessiere es schließlich nicht, warum eine Webseite langsam sei.