Das Begrenzen des Crawl-Limits einer Website hat zur Folge, dass Google die Priorität der zu crawlenden URLs ändert. Zudem wirkt sich die Begrenzung nicht auf alle Crawler gleichermaßen aus.
In der Google Search Console gibt es immer noch die mittlerweile etwas schwer auffindbare Möglichkeit, ein Crawl-Limit pro Website festzulegen. Damit reduziert sich die Zahl der Abrufe durch Google.
Google crawlt jedoch auf viele verschiedene Weisen und verwendet dazu unterschiedliche Crawler, etwa den mobilen Googlebot und den Googlebot für Desktop. Hinzu kommen weitere Crawler für News, Anzeigen und einige mehr.
Das Reduzieren der Crawl-Frequenz wirkt sich nicht auf alle Crawler gleichermaßen aus. Das erklärte Johannes Müller auf Twitter. Es würden neue Prioritäen festgelegt, um den Schwerpunkt auf wichtige URLs und Crawls zu legen. Wenn es keine Begrenzung gebe, würden dagegen auch weniger kritische Dinge gecrawlt:
Das Herabsetzen der Crawl-Frequenz sollte immer nur dann gechehen, wenn technische Gründe wie zum Beispiel eine zu hohe Last auf dem Server dafür sprechen. Ansonsten ist von der Verwendung dieser Einstellungsmöglichkeit abzuraten, weil diese dazu führen kann, dass Google nicht alle URLs crawlt oder Änderungen erst später in den Index übernehmen kann.