LG Köln und entfernt die Pixelio Bilder (Fortsetzung 2)

Google pixelio site:lg-koeln.nrw.de
Suchergebnis vom 8. Februar 2014 für die Googlesuche nach pixelio site:lg-koeln.nrw.de

Nachdem ich dem Webmaster des Landgerichts Köln (LG Köln) ein paar Fragen per E-Mail gestellt habe, habe ich zwar keine Antwort bekommen (Webmaster ist in Urlaub), aber eine Reaktion hat es trotzdem gegeben. Das LG Köln hat die Pixelio Bilder entfernt. Als Suchergebnis wirft Google heute nur noch ein altes Bild aus, das sich aber nicht mehr auf der Seite befindet.

Hier meine Fragen:

  1. Warum ignorieren Sie auf Ihren Seiten die Lizenzbedingungen von PIXELIO und
    setzen keinen Link auf die Adresse www.pixelio.de.
  2. Warum ergänzen Sie die Bilder um einen Schriftzug, obwohl nur folgende Bearbeitungen

    „… zugelassen sind: unter Verwendung analoger, digitaler oder sonstiger
    Bildbearbeitungsmethoden wie folgt zu bearbeiten: Änderung der Bildgröße
    (Vergrößerung, Verkleinerung, Beschneidung), Umwandlung der Farbinformationen,
    Änderung der Far-, Kontrast- und Helligkeitswerte. Das Recht zu anderweitigen
    Änderungen am Bildmaterial verbleibt beim Urheber.“

  3. Woraus schließen Sie, dass diese Bearbeitung zulässig ist und für den
    direkten Aufruf des Bildes ausreichend – inbesondere dem fehlenden Link – ist.
  4. Wäre es da nicht risikoärmer und für den Steuerzahler kostengünstiger auf
    diese unnötigen Bilder zu verzichten?

Sie können ja schlecht gegen ihr eigenes Urteil vorgehen.

😉

Update 09. Februar 2014: Ein unbedingt lesenswerter Kommentar zum Thema Rechtssicherheit findet sich auf heise.de.

Freundliche und unfreundliche Crawler

Vor einigen Monaten habe ich schon einmal etwas über die Möglichkeiten unfreundliche Crawler (Siehe: Unfreundliche Web-Crawler aussperren) zu sperren geschrieben. Heute war wieder etwas Zeit, nach zu schauen, ob die Maßnahmen gewirkt haben.

Sehr viele Zugriffe kamen bisher vom Pixray-Seeker, dem ich daraufhin den Zugriff auf jpg und gif Dateien verboten hatte. Nun, da ich Screen Shots als png einstelle, hat er sich über dieser her gemacht. Durch einen aktuellen Artikel – ich glaube, es war Evil Azraels Stänkerblog – bin ich darauf gekommen, dass Pixray auch andere User-Agent Angaben beim Zugriff schickt. Nun, wenn nicht Pixray drin steht, geht mein Eintrag in der .htaccess ins Leere.

Eine Log-Auswertung für den Pixray-Seeker ergab, dass er zwar die robots.txt las, aber zeitgleich eine Abfrage nach einer Datei schickte. Fast jeder Besuch bestand nur aus diesen beiden Zugriffen. Diesen Monat fand ich aber nur noch 14 Zugriffe eines Pixray-Seeker. Eine Auswertung der Zugriffe anhand der IP-Adressen ergab, dass sich ein Rechner mit mindestens 12 verschiedenen User-Agent Angaben meldete. Dateien (z.B. *.css), die für die Anzeige dieser Seiten wichtig sind, werden nie runter geladen. Dieses Muster und die verwendeten User-Agents trafen für viele Rechner zu. Dass es sich um Proxy-Server handelt, schließe ich daher aus.

„Freundliche und unfreundliche Crawler“ weiterlesen

Lästige Angriffe auf mein WordPress-Blog(?)

Seit geraumer Zeit beobachte ich Angriffe von vielen Servern auf dieses Blog. Die Angriffe, die dem Seitenaufruf die folgende kryptischen Zeichenfolge (auf vier Zeilen aufgeteilt) der folgenden Form anhängen.

%26sa%3DU
%26ei%3D4rpeT_yyKq3aiQKcmtjDBA
%26ved%3D0CD0QFjAJOGQ
%26usg%3DAFQjCNG2nUv1dUODZwi4HLrUVpZCF-0l8w

Beliebt sind die Seitenaufrufe für /tags/password/<ZEICHENFOLGE> und /tags/pishing/<ZEICHENFOLGE>
„Lästige Angriffe auf mein WordPress-Blog(?)“ weiterlesen

Pixray-Seeker

Seit Februar lenke ich die Zugriffe des Pixray-Seeker auf die Seite von Pixray um. Vollständig abschütteln lässt er sich dadurch leider nicht. Ein Blick ins Log zeigt, dass er weiterhin versucht – ältere – Bilder zu laden. Zwar liest der Pixray Seeker die robots.txt, aber meinen Eintrag PixrayBot ingnoriert er. Auf der Seite von Pixray finde ich immer noch keinen Hinweis, was ich in der robots.txt eintragen muss, damit eine Seite nicht durchsucht wird.

Während der Pixray-Seeker im Januar und Anfang Februar Spitzenpositionen in der Statistik eingenommen hat, halten sich seine Zugriffe jetzt im Verhältnis zu anderen Suchmaschinen in Grenzen.

Update 22.Oktober 2012

Es gibt einen neueren Artikel zu diesem Thema. Siehe Freundliche und unfreundliche Crawler.

HaJo Erzbach: Ein Fake?

In dem Artikel zu den Binary Options Mails habe ich die technische Herkunft der Mails untersucht. Eine bisher vernachlässigte Frage, steht hinter HaJo Erzbach eine reale Person. Diese Frage sollte mit Informationen aus dem Netz zu beantworten sein.

Legen wir los.

„HaJo Erzbach: Ein Fake?“ weiterlesen

80legs

80legs ist ein Web-Crawler, der ab und an meine Seiten besucht. Gegen einen entsprechenden Obulus kann ein registrierter Nutzer den Crawler mit einer spezifischen Suchanfrage beauftragen. Im Prinzip bekommt nur der Kunde das Ergebnis zu sehen, der auch dafür bezahlt hat. Wenn ich die Beschreibung richtig verstanden habe, kann ein Kunde bestimmen, welche Seiten durchsucht werden sollen, welchen Links wie tief gefolgt werden soll, usw. Auf die gefundenen Seiten kann – neben allgemeinen Suchkriterien – ein vom Kunden spezifiziertes Programm angewandt werden. Damit lässt sich mit diesem Crawler ganz spezifisch nach bestimmten Inhalten oder Dateien suchen.

Die Case Study: IP Protection by Monotype Imaging gibt einen kleinen Hinweis darauf, dass 80legs Kunden unter anderem gezielt nach Urheberrechtsverstößen (IP bedeutet in diesem Fall Intellectual Property) suchen.

Wer ein Durchsuchen seines Servers nicht möchte, der kann dies über die robots.txt verhindern. Wie der Crawler arbeitet ist in einem Wiki beschrieben. Danach identifiziert sich der Crawler als 008 mit dem aktuellen Firefox Release. Ganz unten auf der Seite, im Abschnitt Web-Masters, ist beschrieben, wie das Crawlen auf der eigene Seite unterbunden werden kann. Dazu ist folgender Eintrag in der robots.txt erforderlich:

User-agent: 008
Disallow: /

Im Gegensatz zum Pixray-Bot[1][2] ist das Verhalten und die Arbeitsweise des Crawler bei 80legs sehr gut erläutert. (Die Firma Pixray sollte sich daran ein Beispiel nehmen.)

Mir ist noch nicht ganz klar, welchen Gewinn ich als Betreiber eines Servers davon habe, dass 80legs kundenspezifisch bei mir sucht und ich Prozessorkapazität und Bandbreite dafür spendieren muss. Ich glaube ich habe nichts davon.

Bei 50.000 Rechnern ist eine Sperrung über IP-Adressen aussichtslos. Wenn die, weil das Geschäftsmodell wegen zu viel „gesperrter“ Seiten nicht funktioniert, werden sie ihre Bedenken über Bord werfen und die robots.txt ignorieren. Watt dann?

Gute Nacht!

Und natürlich:

Kölle Alaaf!

  1. [1]Siehe „Der Pixray-Seeker wird lästig“
  2. [2]Siehe „Unfreundliche Web-Crawler aussperren“