Google: Optimierung für Algorithmen aus dem maschinellen Lernen schwierig
Obwohl Google immer wieder die Vorzüge neuer Alogrithmen des maschinellen Lernens präsentiert, ist es schwierig, daraus im Umkehrschluss Optimierungsempfehlungen abzuleiten.
SEO-Beratung: Wir sind Ihre Experten
Wir bringen gemeinsam Ihre Webseite in Google nach vorne. Profitieren Sie von jahrelanger SEO-Erfahrung.
Google: Gruppierung der Seiten für Core Web Vitals hängt vom Traffic ab
Welche Gruppierung Google bei den Seiten einer Website für die Core Web Vitals vornimmt, hängt von den verfügbaren Daten und damit vom Traffic der Seiten ab.
Warum 404-Fehler in der Google Search Console eine gute Nachricht sein können
404-Fehler in der Google Search Console können ein Hinweis darauf sein, dass Google alle wichtigen URLs einer Website gecrawlt hat.
Google: Klickwahrscheinlichkeit spielt bei der Gewichtung von Links keine Rolle
Die Wahrscheinlichkeit, dass jemand auf einen Link klickt, sowie der Traffic, der über einen Link gesendet wird, spielen für Google bei der Gewichtung von Links keine Rolle.
Google: Weiteres Title Update sorgt für vermehrte Nutzung der Title Tags: statt 80 jetzt 87 Prozent
Google hat die Erstellung der Titel für die Suchergebnisse erneut angepasst und verwendet nach eigenen Aussagen jetzt häufiger die Angaben aus den Title Tags.
Plötzlicher Rankingverlust für ein wichtiges Keyword: Das kann an unklarem Search Intent liegen
Wenn eine Website für ein wichtiges Keyword in der Suche plötzlich abstürzt, kann es daran liegen, dass Google die Suche-Intention der Landing Page nicht richtig zuordnen kann.
Google: Es gibt keine Möglichkeit, Sitelinks zu blockieren
Es ist nicht möglich, bestimmte Sitelinks von der Darstellung in den Suchergebnissen von Google auszuschließen. Einzig die Verwendung von 'noindex' würde helfen.
Google zur Frage, ob das Verbergen des Autoren aus Sicherheitsgründen schlecht für EAT ist
Es kann gute Gründe geben, den Namen des Autoren oder der Autorin auf einer Website nicht zu nennen. Wie geht Google damit um, und hat es Auswirkungen auf EAT?
Google ruft robots.txt nicht bei jedem Crawl ab
Google ruft die robots.txt nicht bei jedem Crawl ab, sondern nutzt auch eine im Cache abgelegte Version der Datei. Das passiert etwa einmal pro Tag.
Ja, Google kann beim Crawlen automatisch Formulare ausfüllen
Google füllt in einzelnen Fällen Formulare aus, wenn der Googlebot darauf stößt. Das kann zum Beispiel dazu führen, dass interne Suchergebnisseiten indexiert werden.
Weitere Beiträge
- Google: John Müller kritisiert erneut gefälschte PageSpeed Insights Scores
- Google klagt gegen SerpApi wegen Content-Klau. Zu Recht?
- Google erklärt, warum ‘GEO’ keine neue Disziplin ist
- Google Search Console: Indexierungsbericht wieder aktuell
- KI-Tools: Studie zeigt deutliche Abweichungen zwischen API- und gescrapten Ergebnissen
- YouTube-Präsenz ist nach neuer Studie der wichtigste Faktor für die KI-Sichtbarkeit von Marken
- Google rollt 'Read more'-Links auf Suchergebnisseiten aus - direkter Sprung zu Textauszug
- Neue Auffälligkeiten Google Search Console: Greifen SEO-Crawler und KI-Bots wieder auf Suchergebnisse zu?
- Google Search Console: Indexierungsbericht seit fast einem Monat nicht mehr aktualisiert
- Google Discover kaum von Rankings in der Suche beeinflusst: Chance auch für kleine Websites
- Google Core Update vom Dezember: erste Auswirkungen sichtbar
- Google Shopping: Strukturierte Daten per JavaScript sind keine gute Idee
- Google Core Update vom Dezember ist da
- Google KI-Modus bekommt mehr und besser sichtbare Links
- Google rollt Preferred Sources weltweit aus
- Google bestätigt kleine Core Updates, die nicht offiziell angekündigt werden
- Google: Nächstes Core Update kommt bald, aber möglicherweise nicht mehr vor Weihnachten
- EU-Kommission eröffnet Verfahren gegen Google wegen KI-Datennutzung
- Große GEO-Versprechen: John Müller von Google rät zur Vorsicht
- Google Search Console Insights zeigt jetzt auch Klicks auf soziale Kanäle an