Google will das Robots Exclusion Protocol (REP) zum Internet-Standard machen. Dazu gehört auch, dass bestimmte Regeln bald nicht mehr unterstützt werden.
Wenn die Anfrage einer robots.txt mit einem 500er-Status beantwortet wird, kann Google das Crawlen der betreffenden Website einstellen.
Eine aktuelle Studie zeigt: Kunden, die mehr für SEO-Dienstleistungen ausgeben, sind zufriedener.
Valides HTML und CSS sind kein Rankingfaktor.
Stock Photos schaden den Rankings einer Website in der Websuche nicht.
Google: Das Robots Exclusion Protocol soll zum Internet-Standard werden
Google hat angekündigt, das Robots Exclusion Protocol (REP), auf dem robots.txt-Dateien basieren, zum Internet-Standard erheben zu wollen.
Google: "noindex" in der robots.txt wird ab dem 1. September nicht mehr unterstützt
Weil nur ein kleiner Teil der Websites Regeln wie "noindex" in der robots.txt verwendet, werden diese und andere inoffizielle Regeln von Google ab dem 1. September nicht mehr unterstützt.
Stock Photos schaden den Rankings in der Google Websuche nicht
Stock Photos sind laut Google durchaus zur Illustration von Webseiten geeignet und schaden auch den Web-Rankings nicht. Wer allerdings in der Bildersuche vorne liegen möchte, sollte Originalbilder verwenden.
Studie: SEO-Kunden, die mehr bezahlen, sind zufriedener
Eine aktuelle Studie zeigt, dass Kunden, die mehr für SEO-Dienstleistungen ausgeben, zufriedener sind als Kunden, die weniger bezahlen. Dennoch war insgesamt die Mehrheit mit ihren aktuellen SEO-Anbietern unzufrieden.
500er-Fehler bei Abruf der robots.txt führt zum Abbruch des Crawlens durch Google
Wenn es beim Abruf der robots.txt durch den Googlebot zu einem 500er-Fehler kommt, kann das zum Abbruch des Crawlens führen.
Google: valides HTML und CSS kein Rankingfaktor
Google wertet Webseiten nicht wegen Fehlern im HTML oder CSS ab. Viel wichtiger sind die Inhalte.
SEO im Ohr gibt es auch auf iTunes.
Titelbild: Copyright Fotomek - Fotolia.com