Nachdem bereits verschiedene große Websites ChatGPT per robots.txt ausgeschlossen hatten, ist nun auch die New York Times diesen Schritt gegangen. Bedeutet diese Entwicklung das Aus für aktuelle Informationen in den Antworten der KI-Chatbots?
Es gibt die Möglichkeit, ChatGPT per robots.txt von einer Website auszuschließen. Inhalte der Website dürfen dann nicht mehr zum Trainieren des Large Language Models von ChatGPT verwendet werden. Wie zuletzt berichtet haben bereits zahlreiche Websites wie die der Süddeutschen Zeitung oder Stack Overflow davon Gebrauch gemacht und ChatGPT ausgesperrt.
Sie benötigen SEO-Beratung für Ihre Website?
Nun ist mit der New York Times eine weitere prominente Website dazugekommen, die ChatGPT den Zugriff per robots.txt verwährt. Das berichtet The Verge auf Twitter:
Führt diese Entwicklung dazu, dass in den Antworten der KI-Chatbots, zu denen auch Google Bard und Google SGE gehören, zukünftig keine aktuellen Inhalte und Informationen mehr enthalten sein werden?
Das wird sicherlich stark davon abhängen, ob und in welcher Weise die Anbieter der KI-Tools ihre Quellen kenntlich machen und ihnen eine Kompensation gewähren werden - zum Beispiel in Form von Traffics über angezeigte Links. Rein rechtlich ist das Verwenden von Daten anderer Websites zum Trainieren von Sprachmodellen ohne entsprechende Vereinbarung mit und Kompensation der Urheber zumindest problematisch. Sollte hier keine Lösung gefunden werden, ist mit einer steigenden Anzahl derjenigen zu rechnen, die ihre Websites für KI-Chatbots sperren werden - auch wenn derzeit laut einer Umfrage eine Mehrheit noch keinen solchen Schritt plant.
Fraglich ist allerdings, ob sich die Anbieter von KI-Chatbots und anderen KI-Tools an die Anweisungen in der robots.txt halten werden.
SEO-Newsletter bestellen