Google: Traffic aus anderen Ländern nicht blockieren
Das Blockieren von Websites für Traffic aus anderen Ländern sollte laut Google vermieden werden. Es kann auch dazu führen, dass Google eine Website nicht crawlen kann.
SEO-Beratung: Wir sind Ihre Experten
Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.
Google: Optimierung für Algorithmen aus dem maschinellen Lernen schwierig
Obwohl Google immer wieder die Vorzüge neuer Alogrithmen des maschinellen Lernens präsentiert, ist es schwierig, daraus im Umkehrschluss Optimierungsempfehlungen abzuleiten.
Google: Gruppierung der Seiten für Core Web Vitals hängt vom Traffic ab
Welche Gruppierung Google bei den Seiten einer Website für die Core Web Vitals vornimmt, hängt von den verfügbaren Daten und damit vom Traffic der Seiten ab.
Warum 404-Fehler in der Google Search Console eine gute Nachricht sein können
404-Fehler in der Google Search Console können ein Hinweis darauf sein, dass Google alle wichtigen URLs einer Website gecrawlt hat.
Google: Klickwahrscheinlichkeit spielt bei der Gewichtung von Links keine Rolle
Die Wahrscheinlichkeit, dass jemand auf einen Link klickt, sowie der Traffic, der über einen Link gesendet wird, spielen für Google bei der Gewichtung von Links keine Rolle.
Google: Weiteres Title Update sorgt für vermehrte Nutzung der Title Tags: statt 80 jetzt 87 Prozent
Google hat die Erstellung der Titel für die Suchergebnisse erneut angepasst und verwendet nach eigenen Aussagen jetzt häufiger die Angaben aus den Title Tags.
Plötzlicher Rankingverlust für ein wichtiges Keyword: Das kann an unklarem Search Intent liegen
Wenn eine Website für ein wichtiges Keyword in der Suche plötzlich abstürzt, kann es daran liegen, dass Google die Suche-Intention der Landing Page nicht richtig zuordnen kann.
Google: Es gibt keine Möglichkeit, Sitelinks zu blockieren
Es ist nicht möglich, bestimmte Sitelinks von der Darstellung in den Suchergebnissen von Google auszuschließen. Einzig die Verwendung von 'noindex' würde helfen.
Google zur Frage, ob das Verbergen des Autoren aus Sicherheitsgründen schlecht für EAT ist
Es kann gute Gründe geben, den Namen des Autoren oder der Autorin auf einer Website nicht zu nennen. Wie geht Google damit um, und hat es Auswirkungen auf EAT?
Google ruft robots.txt nicht bei jedem Crawl ab
Google ruft die robots.txt nicht bei jedem Crawl ab, sondern nutzt auch eine im Cache abgelegte Version der Datei. Das passiert etwa einmal pro Tag.
Weitere Beiträge
- Gericht: Perplexity Comet Browser darf nicht mehr auf Amazon-Konten zugreifen
- KI-Tools: Google Gemini im Jahresvergleich 17mal stärker gewachsen als ChatGPT
- Google: Suchvolumen wächst wegen KI, Kennzeichnung von Bezahlinhalten möglich
- ChatGPT zeigt seit GPT-5.3 keine Query-Fanouts mehr an - doch es gibt eine Alternative
- GEO und die doppelte Korrelations-Falle
- Google AI Overviews: deutlich mehr Links seit Gemini 3 - neue Studie
- Google AI Mode zeigt jetzt mehr Links auf Rezept-Websites an
- Status Quo: Die aktuelle Lage der SEO
- Neue Studie zeigt: Vor allem junge Nutzer bevorzugen Google
- KI-Halluzinationen eröffnen Chancen für Broken Link Building und neuen Content
- Google Patent zur KI-generierten Webseitenerstellung: bald nichts mehr zu tun für SEOs und Webdesigner?
- Wo die Klicks wirklich bleiben: Google AI Overviews sind nur ein Teil des Problems
- Google Discover: Das sind die Veränderungen durch das Core Update vom Februar
- Google erklärt, ob korrektes HTML heute noch für SEO wichtig ist
- Google Discover Core Update vom Februar ist beendet
- Google Nano Banana 2 ist da: Bild-KI mit Highspeed
- Google plant laut Bericht Änderungen an den Suchergebnissen in Europa
- Google Discover: Analyse zeigt, wie Inhalte ausgewählt werden
- Grounding Pipeline: Wie Google KI-Antworten per Grounding absichert
- Google Search Console: keine Indexierungsdaten vor dem 15. Dezember