Leistungsschutzrecht 2.1 – FreeLens verklagt Google wegen Bildersuche

Der deutsche Foto-Verband FreeLens hat Google aufgrund der neuen Bildersuche verklagt. Freelens prangert an, dass durch die neue Bildersuche von Google das Urheberrecht verletzt wird. Das klingt nach einem Leistungsschutzrecht 2.1 – für Fotos.

Das Problem und Parallelen zum LSR

Googles neue Bildersuche

Die neue Bildersuche von Google. Bild:Google

Fotografen fürchten um ihren Traffic, da es überflüssig sei ihre Seiten noch aufzurufen, wenn Bilder im Google-Index direkt in voller Größe angezeigt werden können.

Die Argumentation: Der „Haupt-Content“ von Fotografen sind ihre Bilder, so wie Texte der Haupt-Content von Bloggern sind. Google zeigt in der neuen suche das Originalbild an, also den gesamten Original-Content, ohne dass man die Webseite besuchen muss, auf der das Bild erschienen ist. Daher sei dies so, als würde Google die Bilder klauen / selbst veröffentlichen.

Genau das gleiche Drama spielte sich beim Leistungsschutzrecht ab. Texte sind die Haupt-Einnahme der Journalisten, wenn Google also „zu lange Zitate“ anbietet, sei dies so, als würde Google den Content selbst veröffentlichen.

Journalisten und Fotografen bangen nun um die Klicks auf ihre Webseiten, durch die sie Geld verdienen.

Warum Google das Urheberrecht nicht verletzen kann

Jeder Webseitenbetreiber kann eigenmächtig entscheiden, ob und wie die eigene Webseite im Google-Index erscheint. Das ob ist meistens kein Thema, Google ist für viele Webseiten, so auch für meinen Blog mit 75%, die größte Traffic-Quelle. Natürlich will man im Google-Index verewigt sein und gefunden werden.
Was viele nicht zu verstehen scheinen: Man kann ebenfalls kontrollieren, WIE man im Google-Index erscheint.

Was man ungeschützt ins Web stellt, gilt als Public Domain – Frei für jedermann. Daher tragen alle Fotografen auch brav ihr Anrecht auf das Copyright (c) am Ende jeder Seite ein.
Der Google-Bot weiß aber nicht, welche Lizenz für welchen Teil der Seite gilt, es gibt keine einheitliche Regel dafür. Der Google-Bot kann es gar nicht wissen. Daher – und das ist seit Anfang der Suchmaschinen so – durchsucht der Crawler alle Seiten nach jedem Content und nimmt diesen in die Datenbank auf. Wer das nicht will, kann alle Crawler ganz einfach durch die robots.txt blocken, dann erscheint nichts im Index. Es liegt also nicht an Google (oder anderen Suchmaschinen), sondern am Webseitenbetreiber. Google ist optional, man muss sich nicht verlinken lassen. Google bietet einen Service den Webseitenbetreiber nutzen können, um sich im Web zu präsentieren. Das ist „kostenlose Werbung“. Es geschieht freiwillig. Man lässt sich also „absichtlich“, per opt-out im Google-Index eintragen. Wie soll Google dabei Urheberrechte verletzen?

Jeder kann den Google-Bot steuern

In diesem Fall beschweren sich die Fotografen, dass ihre Bilder in voller Größe, also nicht nur als kleines Thumbnail, direkt bei Google angezeigt und heruntergeladen werden können.

Warum bitte, um alles in der Welt, geben die Fotografen dann ihre Bilder in voller Größe freiwillig zur Indexierung an Google weiter?!? Es ist purer Schwachsinn!

Mit Rewrite-Rules in Apache und anderen HTTP-Servern kann man bestimmte User-Agents umleiten. Der GoogleBot wird immer den User-Agent Googlebot oder Variationen haben. Man kann Google also schonmal eine komplett andere Ressource sehen lassen, als normale Nutzer. Wer den Google-Bot nicht direkt umleiten will auf eine andere Ressource, kann die Seite dynamisch mit PHP erzeugen. Hier kann wieder der User-Agent benutzt werden, um Google zu identifizieren. Ein und die selbe Seite kann also für Google und für normale Nutzer vollkommen unterschiedlich angezeigt werden. Außerdem kann auch einfach der Zugang zu den Bildern in Originalgröße für den Crawler in der robots.txt gesperrt werden. Dadurch wird NICHT die ganze Webseite für die Crawler gesperrt. Man kann gezielt Teile der Webseite sperren. Es liegt also am Webmaster die Webseite so aufzubauen, dass man Inhalte, die man nicht im Google-Index finden will, einfach für den Crawler sperren kann.

robots.txt, php-skript und rewrite-rule

Drei verschiedene Methoden, um den Googlebot-Image Crawler aus dem Ordner „highres“ fern zu halten.

Das einfachste wäre es, Auf der Webseite nur Thumbnails anzuzeigen die zum Originalbild verlinken. Originalbild und Thumbnails sind in unterschiedlichen Ordnern gespeichert, also kann der Ordner mit Originalbildern in der robots.txt einfach gesperrt werden. Bingo, Google erhält nur Thumnails und zeigt nur Thumbnails an.

Oder das Bild wird in Originalgröße auf der Webseite angezeigt, und Google wird durch eine Rewrite-Rule nicht zum Ordner mit der Originalgröße geschickt, sondern zum Ordner mit den Thumbnails. Oder die Bilder werden durch einen MouseOver-Effekt in voller größe angezeigt, Google parst kein JavaScript.

Oder es wird direkt bei der Seitenerstellung durch PHP kontrolliert, ob ein normaler Nutzer die Seite betrachten will, oder Google. Im Fall von Google kann ein komplett anderer Inhalt angezeigt werden. Natürlich kann man auch einfach nur die Links zu Bildern in Originalgröße durch die Links zu den Thumbnails austauschen.

Es gibt genug Möglichkeiten zu kontrollieren, was Google sieht. Dass FreeLens jetzt gegen Google klagt heißt für mich persönlich, dass sie sich einfach nicht damit auskennen wie Google funktioniert und wie man die Webseite ordentlich programmiert.

Das Problem mit dem Problem

Diese Organisation, FreeLens, sieht nur dass Google Bilder in voller Größe anzeigt. Sie sehen aber nicht, dass es ihre eigene Schuld ist, da sie die Bilder munter und fröhlich Google zur Verfügung gestellt haben.
In Deutschland ist es verboten, sein eigenes Auto ungeschützt, nicht abgeschlossen, öffentlich stehen zu lassen.
Im Internet darf man seinen Content ungeschützt öffentlich zur Verfügung stellen, das ist für manche das Grundprinzip des Internets. Wer seinen Content allerdings nicht von jedem Nutzen lassen will, der muss ihn auch schützen. Es ist technisch einfach nicht möglich für Google zu erraten, welche Bilder in voller Größe indexiert werden dürfen und welche nicht, also wird jedem Webseitenbetreiber die Freiheit gelassen selbst zu entscheiden, was wie in den Index kommt.

Google zu verklagen, weil sie die Inhalte anzeigen, die Webseitenbetreiber ihnen geben, ist gehöriger Unfug (freundlich ausgedrückt). Das wäre so, als würde ich das Telefonbuch verklagen weil sie meine Telefonnummer öffentlich drucken, obwohl ich ihnen die Nummer selbst gebe.

Bertram Solcher, der Vorsitzende von FREELENS sagt dazu:

Es ist erschreckend, welch geringe Wertschätzung und welche Missachtung elementarster Autorenrechte den Urhebern durch Google entgegengebracht wird. Es kann nicht sein, dass Fotografen zu reinen Content-Lieferanten von Google degradiert werden.

Ich sage dazu:

Es ist erschreckend, welch geringe Wertschätzung und welche Missachtung elementarster Prinzipien die Urheber Google entgegenbringen. Es kann nicht sein, dass Fotografen sich als reine Content-Lieferanten darstellen, nur weil einige Webmaster so degradiert sind, dass sie den Content einfach frei Google überlassen. Desweiteren ist es eine blinde Hetzjagd, Google für die Anzeige des freiwillig übermittelten Contents verantwortlich zu machen.

Stoppt diesen Unsinn. Ihr seid selbst dafür verantwortlich, was die Suchmaschinen anzeigen. Es ist äußerst dumm eine Webseite ins Internet zu stellen und zu hoffen, dass Suchmaschinen schon irgendwie erraten können, welcher Content wie zu behandeln ist. Noch dümmer ist es allerdings, die Suchmaschinenbetreiber zu verklagen, nur weil man selbst nicht in der Lage ist, das urheberrechtlich geschützte Material zu verwalten.

MfG
Damon Dransfeld

Dieser Eintrag wurde veröffentlicht in Meta-Level
Bookmarken: Permanent-Link Schreibe einen Kommentar oder hinterlasse einen Trackback: Trackback-URL.

2 Kommentare

  1. Pascal
    Erstellt am 28. April 2013 um 16:20 | Permalink zum Kommentar

    „[…] Was man ungeschützt ins Web stellt, gilt als Public Domain – Frei für jedermann. […]“

    Das ist völliger Blödsinn. Es ist eben nicht frei für jedermann, das Urheberrecht bleibt dadurch völlig unangetastet.

    „[…] In diesem Fall beschweren sich die Fotografen, dass ihre Bilder in voller Größe, also nicht nur als kleines Thumbnail, direkt bei Google angezeigt und heruntergeladen werden können. […]“

    Vergleichen wir dies einmal mit den textbasierten Suchergebnissen von Google.

    Suche ich nach einem Text über die NASA, so werden mir von Google Snippets verschiedener Webseiten angezeigt. Es handelt sich hierbei um eine Vorschau, also nur einen Auszug der gefundenen Seite. Dies ist vergleichbar mit den Thumbnails, die bei der Bildersuche vor der Änderung angezeigt wurden. Klicken wir nun auf das gewünschte Ergebnis, so landen wir beim Urheber, also der Webseite selbst. Google ist hier also der Vermittler, der dem Betreiber der Webseite einen Besucher geschickt hat.

    Wenden wir nun jene Änderung, die für die Klage von Freelens sorgte, auf das genannte Beispiel an: Der Benutzer, der nach einem Text über die NASA sucht, klickt nun auf das gewünschte Ergebnis. Nun landet er aber eben nicht auf der Webseite des Urhebers des Textes, sondern er bleibt bei Google, denn Google zeigt den gesamten Text der gefundenen Webseite bei sich selbst an und setzt nur an der Seite einen Link zum Urheber. Der Benutzer, der einen Text über die NASA suchte, hat nun jenen gesuchten Text und wird nun eben nicht mehr zur Webseite des Urhebers gehen. In diesem Fall ist nun Google eben nicht mehr der Vermittler, da der Benutzer das Gewünschte bereits von Google erhalten hat.

    „[…] Warum bitte, um alles in der Welt, geben die Fotografen dann ihre Bilder in voller Größe freiwillig zur Indexierung an Google weiter?!? Es ist purer Schwachsinn! […]“

    Es handelt sich aber bei dem vorliegenden Problem leider nicht etwa um ein Opt-In wie es die von dir hier getätigte Aussage erscheinen lässt, sondern um ein Opt-out. Genau hier liegt das Problem, das deine Argumentation leider schnell wie ein Kartenhaus zusammen fallen lässt.

    Nur, weil ich die Möglichkeit des Opt-outs biete, bedeutet dies für mich keine freie Fahrt beim Diebstahl des Contents, da die Rechte am Content immer noch beim Urheber liegen. Oder darf ich mich mit einem Crawler nun genüsslich am sämtlichen Content im Internet bedienen und ihn für meine Besucher anzeigen, solange ich den jeweiligen Urhebern auf meiner Seite erkläre, wie sie dies verhindern können? Genau das spricht eben gegen geltende Gesetze.

    Nach deiner Logik hat man nun einen Freifahrtschein für Contentdiebstahl. Jeder kann sich nun an sämtlichen Content bedienen. Der Urheber ist schließlich selbst schuld: Er muss ja nur eine ellenlange robots.txt anlegen müssen, in der hunderttausende verschiedene Bots ausgesperrt werden, die dann täglich erweitert werden muss, da immer mehr Seiten veröffentlicht werden, die ercrawlte Ergebnisse anzeigen. Es gibt ja eben nicht nur den Google-Bot.

    „[…] Es ist technisch einfach nicht möglich für Google zu erraten, welche Bilder in voller Größe indexiert werden dürfen und welche nicht, […]“

    … und wenn es mir nicht möglich ist, zu erfahren, ob ich das, was ich da nehme, benutzen darf, dann habe ich es zu unterlassen. Wenn ich es etwas von jmdn. benutzen möchte, dann muss ich von demjenigen die Erlaubnis haben. Ich kann es mir eben nicht einfach nehmen und dann damit argumentieren, dass der Urheber mir ja hätte sagen müssen, dass ich das nicht darf. Wenn ich nicht weiß, ob ich es benutzen darf, dann kann ich es nicht einfach benutzen. Das ist naiv.

    „[…] In Deutschland ist es verboten, sein eigenes Auto ungeschützt, nicht abgeschlossen, öffentlich stehen zu lassen. […]“

    … und trotzdem darf ich ein Auto, das ungeschützt und nicht abgeschlossen in der Öffentlichkeit steht, nicht einfach stehlen, oder etwa doch?

    • Erstellt am 28. April 2013 um 17:14 | Permalink zum Kommentar

      Dann wühlen wir uns mal da durch:
      „[…]Das ist völliger Blödsinn. Es ist eben nicht frei für jedermann, das Urheberrecht bleibt dadurch völlig unangetastet. […]“

      Das Urheberrecht besagt zwar, dass Werke auch ohne Copyright-Angabe urheberrechtlich geschützt sind, aber woher soll der Google-Bot wissen was wie geschützt ist? Ich kann doch auch 1 Bild auf meinem Blog verlinken, für das ich eine Lizenz von Urheber erhalten habe und ein Bild als Public Domain.
      Deshalb muss es in der robots.txt (oder anderweitig) gekennzeichnet werden.
      Stell mal deine Waschmaschine ohne Hinweis auf die Straße und klage dann, weil die „geklaut“ wurde…

      „[…]Der Benutzer, der einen Text über die NASA suchte, hat nun jenen gesuchten Text und wird nun eben nicht mehr zur Webseite des Urhebers gehen. In diesem Fall ist nun Google eben nicht mehr der Vermittler, da der Benutzer das Gewünschte bereits von Google erhalten hat.[…]“

      Der Vergleich zwischen Bilder- und Textsuche ist richtig.
      Allerdings liegt es nach wie vor an den Autoren, also Urhebern, Google zu zeigen was geschützt ist und was nicht. Und das geschieht durch die robots.txt oder andere Methoden, die ich erklärt habe.
      Desweiteren kopiert Google schon längst alle Texte komplett und macht sie unabhängig von der Webseite verfügbar, nennt sich Cache.

      „[…]Es handelt sich aber bei dem vorliegenden Problem leider nicht etwa um ein Opt-In wie es die von dir hier getätigte Aussage erscheinen lässt, sondern um ein Opt-out. Genau hier liegt das Problem, das deine Argumentation leider schnell wie ein Kartenhaus zusammen fallen lässt.[…]“

      Text gelesen?
      „Man lässt sich also “absichtlich”, per opt-out im Google-Index eintragen.“
      Übrigens wird Google die Webseite nie indexieren, so lange man sie nicht selbst einträgt, oder von anderen Webseiten links ohne „nofollow“-Attribut eingehen. Es liegt also entweder am Webmaster selbst, oder an anderen Autoren die die Webseite verlinken. Suchmaschinen funktionieren nicht über opt-ins.

      „[…]Jeder kann sich nun an sämtlichen Content bedienen. Der Urheber ist schließlich selbst schuld: Er muss ja nur eine ellenlange robots.txt anlegen müssen, in der hunderttausende verschiedene Bots ausgesperrt werden[…]“

      Das zeigt mir, dass in der Tat wenig technisches Verständnis vorhanden ist. Ich kann ALLE, UNENDLICH VIELE crawler mit nur einem Zeichen aussperren: * – Ein Wildcard-symbol.
      Und nein, nicht jeder darf einfach sämtlichen Content nehmen. Wie bereits gesagt, wird dies für Crawler durch die robots.txt gemacht. Der Autor ist selbst dafür verantwortlich, das Urheberrecht für die Crawler zu kennzeichnen.
      Durch den Opt-Out funktionieren die Suchmaschinen überhaupt erst. Nicht nur, dass sich jede Webseite bei ALLEN Suchmaschinen erst anmelden müsste (alternative Suchmaschinen würden nicht existieren), das Ranking wäre weniger aussagekräftig, da nicht objektiv erfasst werden kann, wie viele Backlinks eine Seite hat, da sich andere seiten eventuell nicht anmelden.

      Aber gehen wir einmal davon aus, dass Google per Opt-In arbeiten würde: Die Fotografen würden sich anmelden, damit ihre Werke überhaupt erst gefunden werden könnten. Und dann? Müssen sie ihre Urheberschaft trotzdem für die Crawler kennzeichnen… Toll!

      „[…]Ich kann es mir eben nicht einfach nehmen und dann damit argumentieren, dass der Urheber mir ja hätte sagen müssen, dass ich das nicht darf. Wenn ich nicht weiß, ob ich es benutzen darf, dann kann ich es nicht einfach benutzen. Das ist naiv.[…]“

      Und hier wird der ganze Kommentar noch einmal zusammengefasst:
      Suchmaschinen funktionieren nur per Opt-Out. Der Opt-Out ist allgemein bekannt und durch 2 Zeilen Text erledigt. Selbst wenn es ein Opt-In wäre, die Fotografen die Klagen, würden trotzdem bei Google erscheinen wollen. Also würden sie sich trotzdem anmelden. Und müssten wieder ihre Urheberschaft für den Bot kennzeichnen. Das geht wie oben gezeigt durch ein paar Zeilen Text. Die Alternative wäre, dass jede Webseite jede einzelne Seite für jede Suchmaschine einzeln freigeben müsste.

      Was mich immer an dieser Debatte amüsiert:
      „Google darf mich im Index anzeigen. Aber nicht alles. Und auch nicht garnicht. Nur soweit ich will.“
      Da wird rumgejammert dass Google Content schnorrt und Unternehmen zerstört… Von Unternehmen, die – wie ich – 75% Ihrer Klicks überhaupt erst durch Google erhalten. Und wenn Google dann etwas ändert, womit die nicht klar kommen, muss natürlich geklagt werden, anstatt eine ordentliche Lösung zu suchen, die allen beteiligten etwas bringt.

      Wer schlau genug ist den Traffic einer Seite zu analysieren und konkret anzugeben, wie viel Traffic angeblich an Google verloren wurde, der sollte auch in der Lage sein, ein paar Zeilen in die robots.txt zu hämmern.
      MfG
      Damon

Achtung: Wordpress interpretiert bestimmte Zeichenfolgen als Markup und verändert diese. Nutzt für Programmcode lieber Gist oder PasteBin-Services und verlinkt die Code-Schnipsel.

Post a Comment

Sie müssen angemeldet sein, um kommentieren zu können.