Das Sperren einer Seite per robots.txt ist keine Garantie dafür, dass Google die Seite nicht indexiert.
Seiten, auf die interne oder externe Links verweisen, können von Google indexiert werden - auch dann, wenn die Seiten per robots.txt für das Crawlen gesperrt sind.
Die aktuellen Schlagzeilen vieler großer SEO-Blogs und Technikmagazine gibt es in der SEO Südwest Blogszene.
Meldungen von SEO Südwest
Google: Ein wenig Thin Content auf großen Webseiten ist in Ordnung
Google: URL Inspection Tool nicht für CSS- und JavaScript-Dateien geeignet
Google indexiert auch Seiten, die per robots.txt gesperrt sind
SEO im Ohr - Folge 34 - die wichtigsten SEO-News der Woche im Podcast
Deutschsprachige SEO-News
Google: Authentifizierung per Sicherheitsschlüssel nun auch in Firefox und Edge - heise
Webinar-Mitschnitt: Effiziente Google Ads-Kampagnen: SEA-Kampagnen in Google Ads planen, umsetzen und optimieren - Bloofusion
Google Core Update: sind Bilder die Ursache? - tagSeoBlog
SEO Auslese März 2019 - Projecter
Optimierung von Entscheidungsarchitekturen: Teil 4 – Entflechtung - GrowthUp
CONTENTIXX & SEO CAMPIXX Recap 2019 + Core Update - SUMAGO
Serpstat-Studie: Typische SEO-Fehler auf der Website, die du vermeiden solltest - SERPstat
Wie verarbeitet Google Informationen aus der Wikipedia für den Knowledge Graph ? - Aufgesang
Case: In zwei Tagen auf Platz 1 zu ‚New York SEO‘ - Search One
Englischsprachige SEO-News
All Google Ads attribution reports will soon include cross-device conversion data - Search Engine Land
How & Why You Must Improve or Remove Your Old Content - Search Engine Journal
Google Ranking Update Fluctuations Continue (3/29-4/1) - Search Engine Roundtable
Google: Links Not Shown In Search Console Are Generally Irrelevant - Search Engine Roundtable