SEO-Recap vom 1.4.: Google indexiert auch Seiten, die per robots.txt gesperrt sind
Das Sperren einer Seite per robots.txt ist keine Garantie dafür, dass Google die Seite nicht indexiert.
Seiten, auf die interne oder externe Links verweisen, können von Google indexiert werden - auch dann, wenn die Seiten per robots.txt für das Crawlen gesperrt sind.
Die aktuellen Schlagzeilen vieler großer SEO-Blogs und Technikmagazine gibt es in der SEO Südwest Blogszene.
Meldungen von SEO Südwest
Google: Ein wenig Thin Content auf großen Webseiten ist in Ordnung
Google: URL Inspection Tool nicht für CSS- und JavaScript-Dateien geeignet
Google indexiert auch Seiten, die per robots.txt gesperrt sind
SEO im Ohr - Folge 34 - die wichtigsten SEO-News der Woche im Podcast
Deutschsprachige SEO-News
Google: Authentifizierung per Sicherheitsschlüssel nun auch in Firefox und Edge - heise
Webinar-Mitschnitt: Effiziente Google Ads-Kampagnen: SEA-Kampagnen in Google Ads planen, umsetzen und optimieren - Bloofusion
Google Core Update: sind Bilder die Ursache? - tagSeoBlog
SEO Auslese März 2019 - Projecter
Optimierung von Entscheidungsarchitekturen: Teil 4 – Entflechtung - GrowthUp
CONTENTIXX & SEO CAMPIXX Recap 2019 + Core Update - SUMAGO
Serpstat-Studie: Typische SEO-Fehler auf der Website, die du vermeiden solltest - SERPstat
Wie verarbeitet Google Informationen aus der Wikipedia für den Knowledge Graph ? - Aufgesang
Case: In zwei Tagen auf Platz 1 zu ‚New York SEO‘ - Search One
Englischsprachige SEO-News
All Google Ads attribution reports will soon include cross-device conversion data - Search Engine Land
How & Why You Must Improve or Remove Your Old Content - Search Engine Journal
Google Ranking Update Fluctuations Continue (3/29-4/1) - Search Engine Roundtable
Google: Links Not Shown In Search Console Are Generally Irrelevant - Search Engine Roundtable
























