Erst vor kurzem hatte Google eine Möglichkeit angekündigt, Seiten mit kopierten Inhalten zu melden. Diese "Scraper Report" genannte Funktion soll dafür sorgen, dass Inhalte von Originalseiten besser ranken als Inhalte von Seiten, welche diese Inhalte kopieren. Doch auch Google und andere Suchmaschinen bewegen sich durch die Darstellung von Inhalten anderer Seiten stets in einem Grenzbereich. Wieviele Informationen anderer Webseiten darf eine Suchmaschine darstellen, ohne dass sie sich den Vorwurf des Kopierens gefallen lassen muss?
Am Donnerstag der vergangenen Woche gab es die Nachricht, dass Google die Möglichkeit zum Melden so genannter Scraper Sites anbieten würde. Damit sollte es einen Mechanismus geben, der für ein besseres Ranking von Webseiten mit originären Inhalten gegenüber solchen Seiten mit lediglich kopierten Inhalten sorgt.
Sieht man sich jedoch die Suchergebnisseiten von Google, Bing und Co. einmal an, dann stellt man fest, dass auch die dort gezeigten Inhalte - naturgemäß - solche sind, die von anderen Seiten übernommen werden. Dies ist auch gewünscht und normalerweise kein Problem. Doch in letzter Zeit gibt es die Tendenz, dass der Umfang der auf den SERPs gezeigten Inhalte mehr und mehr zunimmt. Ein gutes Beispiel ist der Knowledge Graph, der sich aus Wikipedia und anderen Quellen bedient. Oftmals genügt schon das Durchlesen der Informationen, die im Kasten rechts auf den SERPs dargestellt werden, um eine Frage zu beantworten. Ein Klick auf die Quellseite ist dann gar nicht mehr erforderlich. Somit geht diesen Seiten Traffic verloren, die Suchmaschinen profitieren dagegen.
In einem Tweet hat nun Dan Baker, nach eigener Auskunft Experte für Online-Marketing, diesen Umstand kritisiert:
Mittlerweile fast 35.000 Retweets zeigen, dass dieses Thema viel Interesse hervorruft. Die Frage, die sich die Suchmaschinenanbieter stellen müssen, lautet also tatsächlich, wie viele Informationen dargestellt werden dürfen, um einerseits die eigenen Interessen sowie die der Suchmaschinen-Nutzer zu bedienen, ohne andererseits die Interessen der Webseitenbetreiber zu vernachlässigen.
Im Kern ging es auch bei der Diskussion um das Leistungsschutzrecht um diese Frage. Hier standen die Interessen der Verleger denen von Google gegenüber. Google zeigt in seiner News-Suche Snippets aus aktuellen Online-Nachrichten an und sorgt gleichzeitig für Traffic auf den Quellseiten. Doch auch hier besteht die Gefahr, dass manche Nutzer gar nicht mehr auf die Quellseite klicken, wenn ihnen die auf Google gezeigten Informationen bereits genügen.
{extravote 1}