Die Zahl der von Google in den Ergebnissen angezeigten Mini-Sitelinks ist seit Anfang November deutlich zurückgegangen. Nicht betroffen scheinen die normalen Sitelinks zu sein, die bei markenbezogenen oder navigatorischen Suchen erscheinen.
Es spielt für das Ranking in Google keine Rolle, für welchen Zeitraum eine Domain registriert und vorausbezahlt ist. Der wichtigste Grund dafür ist, dass nicht alle Domain-Registrare diese Informationen zur Verfügung stellen.
Versteckte Inhalte hinter Tabs oder Akkordeons werden zukünftig mit der Umstellung auf den mobilen Google-Index voll gewertet werden. Derzeit erhalten diese Inhalte noch keine vollwertige Gewichtung.
Wenn es um Strukturierte Daten geht, bevorzugt Google bereits heute das Format JSON-LD. Zukünftig könnte es sogar sein, dass bestimmte Datentypen nur noch in diesem Format unterstützt werden.
301-Redirects sollten aus Sicht von Google möglichst lange bestehen bleiben - für mindestens ein Jahr. Falls nichts dagegen spricht, sollte man die permanenten Weiterleitungen sogar niemals entfernen.
Ein valides Zertifikat? Eine ausreichende Verschlüsselungsrate? All das scheint zumindest für das Ranking in Google nicht von Bedeutung sein, denn der Rankingbonbus für HTTPS wird trotzdem gewährt. Wie jetzt bekannt wurde, achtet Google bei der Prüfung von HTTPS-Seiten nur auf die ersten fünf Zeichen der URL.
Google schafft die Funktion zum Abwerten von Sitelinks ab, die es bisher in der Search Console gab. Zukünftig muss man die Darstellung der Sitelinks durch Onsite-Faktoren steuern.
Was passiert, wenn auf einer Webseite sowohl eine "noindex"- als auch ein "index"-Direktive vorhanden ist? In diesem Fall sticht die "noindex"-Direktive, wie ein Google-Mitarbeiter gerade bestätigt hat.
Es ist zu empfehlen, die Crawl-Frequenz des Googlebots im Auge zu behalten, denn seltene Besuche und eine geringe Zahl abgerufener Seiten sind ein Signal dafür, dass Google die Qualität der Webseite als gering einstuft.
JavaScript im Head-Bereich des HTML-Codes kann dazu führen, dass Google die dort gesetzten Hreflang-Tags nicht erkennt. In einem Fallbeispiel wird gezeigt, was man dagegen tun kann.
Google arbeitet an neuen Richtlinien für die Crawlbarkeit von JavaScript. Damit könnte die aktuell herrschende Unsicherheit für AJAX-Webseiten beendet werden.
Google hat angekündigt, ab 2017 unverschlüsselte Webseiten, die per HTTP ausgeliefert werden, im Chrome-Browser als unsicher zu markieren. Dies wird zunächst solche Seiten betreffen, die Passwörter oder Kreditkarteninformationen übertragen.
Ein Bug im robots.txt Testing-Tool von Google kann gefährliche Auswirkungen haben, nämlich dann, wenn man auf Basis des Testergebnisses falsche Regeln definiert. Betroffen sind URLs, die prozentkodierte Zeichen enthalten.
Google verwendet drei Faktoren zur Entscheidung, ob für eine Webseite Rich Snippets ausgespielt werden. Um zu prüfen, ob eine Webseite die technischen Voraussetzungen für Rich Snippets erfüllt, kann man sich eines Tricks bedienen.