Leistungsschutzrechte - benutzt doch eure robot.txt

Unser geliebter Führer zu Leistungsschutzrechten für Zeitungsverleger im Internet:

Wäre Google unsere Seite, dann würden wir alle deutschen Zeitungswebseiten aus dem Such-Index entfernen. Und dann würden die Zeitungsverleger, so vermuten wir, drei Tage später mit eingekniffenem Schwanz sich melden und betteln, wieder indiziert zu werden. Genauso würden wir es machen. Diese Bitte müssten sie uns jeder einzeln auf einer Bundespressekonferenz überbringen. Zu dieser Konferenz würden wir auf einem goldenen Schild sitzend erscheinen, das sechs japanische Top-Sumo-Ringer trügen. Bei der Gelegenheit würden wir denn Verlegern mitteilen, dass Google nicht umhinkommt,für die Neuindizierung eine Bearbeitungsgebühr von 100 Tausend Euro zu berechenen.

Nein im Ernst: Im Bundestag wird gerade Schwachsinn verzapft.
Webseitenbetreiber können jederzeit ihre robot.txt gahingehend konfigurieren, daß Suchmaschinen Bots die Seiten nicht indizieren. Oder heisst es indexieren? Egal ..
Read the fucking Manual http://de.wikipedia.org/wiki/Robots_Exclusion_Standard

Leistungsschutzrechte für Verleger ist Unsinn

Kommentieren Sie hier


Community Request
mit Gast Account betreten
#kanzlerpartei