Publisher Eye Controlling Online-Suchen - Netz - 2019

Anonim

Haben Sie sich jemals gefragt, ob es für Internet-Suchmaschinen wie Google legal ist, automatisch eine Website zu crawlen und Snippets daraus zu erstellen, um Nutzer zu suchen? Wie wäre es mit einem Cache der Seiten, die es indiziert, die in ihrer Gesamtheit bedient werden können, ohne auf die ursprüngliche Site zu verweisen? Oder Snippets mit Artikeln auf Nachrichten- und Aggregator-Sites verwenden?

Nun, sicher haben andere Leute über diese Fragen nachgedacht, und Google hat gerade sein erstes Gebot verloren, eine belgische gerichtliche Verfügung aufzuheben, die Google auffordert, eine Entscheidung zu veröffentlichen, die Google Urheberrechtsverletzungen durch Vervielfältigung von Auszügen von Artikeln in seinem Google News-Aggregationsdienst verletzt. Im März 2006 reichte Copiepresse Klage gegen Google ein, in der er behauptete, dass sein Google News-Service unter news.google.be illegal Abzüge von Artikeln aus seinen belgischen Nachrichtenquellen ohne ausdrückliche Genehmigung erneut drucken würde. Der Richter stimmte zu - und Google lehnte eine Teilnahme ab - und entschied, dass Google innerhalb von zehn Tagen Content von den französischen und deutschsprachigen Zeitungen von Copiepresse auf der belgischen Website von Google entfernt oder eine Strafe von 1 Million Euro pro Tag zahlt. Google musste den Text des Urteils sowohl auf der belgischen Google-Startseite als auch auf der belgischen Nachrichtenseite veröffentlichen oder eine Geldstrafe von 500.000 Euro pro Tag zahlen. Google hat die Nachrichtenquellen von seinen Nachrichtenseiten und dem Index entfernt, hat sich jedoch geweigert, den Text des Urteils zu veröffentlichen, wobei er auf die erhebliche Publizität verweist, die der Fall bereits erhalten hat. Eine Berufung auf den gesamten Fall ist für den 24. November 2006 vorgesehen.

In vielerlei Hinsicht kommt die Beschwerde von Copiepresse auf Berechtigungen. Suchmaschinen wie Google gehen davon aus, dass wenn eine Webseite öffentlich zugänglich ist, sie indiziert werden kann, obwohl sie robot.txt und automatische Mittel zum Spezifizieren von Inhalt nicht indizieren, wie zum Beispiel robot.txt und Roboter-META-Tags. Copiepresse (und die meisten Urheberrechtsgesetze) gehen jedoch von der Annahme aus, dass für die Neuveröffentlichung oder Weiterverbreitung von Inhalten zunächst eine Genehmigung des Urheberrechtsinhabers eingeholt werden muss. Copiepresse möchte im System von Google sein, möchte aber als Publisher für den Wert entschädigt werden, den ihr Inhalt für Google bietet.

Zu diesem Zweck startet der in Paris ansässige Weltverband der Zeitungen (WAN) ein automatisiertes Content Access Protocol (ACAP), das regeln und festlegen soll, wie Suchmaschinenspider, Nachrichtenservices und andere Crawler auf Inhalte von Publishern zugreifen und diese nutzen können Festlegung von Lizenzvereinbarungen und Zugangsniveaus - und nicht das einfache Opt-in- oder Opt-out-Modell, das von den bestehenden Ausschlussrichtlinien angeboten wird.

Google und andere Suchmaschinenbetreiber argumentieren, dass ihre Aggregatoren und Indizes Content-Publishern einen nützlichen Service bieten, der es Internetnutzern ermöglicht, ihre Websites auf eine Weise zu entdecken und darauf zuzugreifen, die für die Publisher nicht möglich wäre. Einige Publisher behaupten jedoch, dass Google, MSN, Yahoo und andere im Wesentlichen ihre Such- und Aggregationsgeschäfte aufgebaut haben, indem sie Inhalte von Publishern ohne Genehmigung oder Vergütung nutzen und nutzen.