RewriteCond: bad flag delimiters für %{TIME}

Ich möchte eine Datei auf dem Apache2 erst ab einem bestimmten Datum bereitstellen. Dazu sollte eigentlich folgender Code ausreichen:

RewriteCond %{TIME} < 20140614000000
RewriteRule test.html noch-nicht-da.html [R,L]

Nun meldet der Apache2 aber immer: RewriteCond: bad flag delimiters

Ich finde auch mit Google keine Lösung für diesen Fehler. Vermutlich fehlt für TIME irgendein Modul, nur welches? Die Dokumentation ist in diesem Punkt leider sehr bescheiden.

Die Vermutung ist leider falsch.

Das Beispiele, das ich gefunden hatte, hatte hinter dem ‚< ‚ ein Leerzeichen. Dies ist jedoch nicht zulässig.

Hier nun auch die Lösung:

RewriteCond %{TIME} <20140614000000
# oder
RewriteCond %{TIME} „< 20140614000000“
RewriteRule test.html noch-nicht-da.html [R,L]

OpenSUSE 13.1 und Apache 2.4

Der Apache2 Version 2.4 bringt erhebliche Änderungen gegenüber der Version 2.2 mit. Den Versuch eines Updates des Apache2 auf die Version 2.4 auf einem openSUSE 12.2 System habe ich wegen zahlreicher Fehlermeldungen abgebrochen. Aus schlechten Erfahrung klug geworden, habe ich mir eine neues System von Grund auf mit openSUSE 13.1 in einer virtuellen Maschine aufgesetzt. Einen weiteren Abschuss des Servers wollte ich vor einen Upgrade nicht riskieren.

Die Konfiguration des Apache2 mit yast2 führt allerdings auch nicht zu einem lauffähigen System. Der Apache weigert sich mit mehreren Fehlermeldungen zu starten. Unter openSUSE 13.1 wird der Apache 2.4 installiert, obwohl in den Paketnamen die Version 2.2 angegeben ist. Nach einigen Versuchen konnte ich den Fehler in der Datei /etc/apache2/conf.d/mod_evasive.conf lokalisieren. Der Apache2 meldet, dass es das Modul /usr/lib24/apache2/mod_evasive20.so nicht gibt. Eine nachträgliche Installation / Update hilft nicht, denn die Datei heißt jetzt mod_evasive24.so.

Der Fehler kann nun durch Ändern der ersten Zeile in mod_evasive.conf behoben werden. Entweder wird auf das Module verzichtet und die Zeile auskommentiert / gelöscht oder der Dateinamen geändert. Eine Änderung des Modulnamen auf mod_evasive24.c führt allerdings wieder zu Fehlern.

LoadModule evasive20_module /usr/lib64/apache2/mod_evasive24.so

 
Mit einigen Hinweisen auf wirkungslose, obsolete Parameter startet der Apache2 jetzt.

Google-Frage: Kann man beweisen, dass man Pornos herunterlädt?

Network
Network

Diese Frage an Google führte die Tage jemanden zu diesen Seiten. Ob die Frage zufriedenstellen beantwortet wurde, weiß ich nicht. Vielleicht traf der Sucher auf den Artikel Wie kann man ein Portal überwachen? In diesem Fall könnte die Frage ausreichend beantwortet sein. Wenn nicht, folgt hier eine etwas allgemeinere und umfassendere Antwort.

Auch wenn die Frage aus der Redtube-Abmahnwelle motiviert sein dürfte, will ich darauf nicht oder nur als Randnotiz eingehen.

„Google-Frage: Kann man beweisen, dass man Pornos herunterlädt?“ weiterlesen

Umleitung von RetDube nach RedTube

Wie die RetDube Falle funktioniert haben könnte.
Wie die RetDube Falle funktioniert haben könnte.

Über Feiertage ist es mit Nachrichten zu den Massenabmahnungen der Kanzlei Urmann und Collegen ruhiger geworden. Wenig Neues – viel Spekulation über Altes. Nachdem viel über den Kauf von Klicks bei Trafficholder und die Software GLADII 1.1.3 spekuliert wurde, sowie die Frage, ob auf retdube.net eine Seite gefälscht oder auf die Originalseite zugegriffen wurde, kontrovers diskutiert wurde, habe ich mich gefragt, wie aufwändig die Variante mit der einfachen Umleitung wäre und sie teilweise nachgebaut.

(Ich hatte schon geschrieben, dass Miriams Adventures auf mehreren DVD gepresst wurde. Dazu habe ich mir noch einen kleinen Bonmot am Schuss.)

„Umleitung von RetDube nach RedTube“ weiterlesen

Falsche Bots finden

Geschützte Seiten, die trotzdem über Google gefunden werden wollen, erlauben den Zugriff, wenn er von Google kommt. Im einfachen Fall fragt der Server nur den User Agent String ab. Kennzeichnet er den Aufrufer als Googlebot, wird der Zugriff erlaubt. Dies wird gerne ausgenutzt um einen Zugriffsschutz zu umgehen.

Manche Crawler oder Nutzer – gut oder böse sei dahin gestellt – tarnen sich als Googlebot mit dem User Agent String Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html).

Frage: Wie kann ich erkennen, dass ein Zugriff wirklich von einem Googlebot kommt? Und was kann ich gegen dagegen tun?
„Falsche Bots finden“ weiterlesen

Der Pixray-Seeker wird lästig

In den letzten Tagen beobachte ich vermehrte Besuche durch den Pixray-Seeker[1]. Mit der Einführung der Permalinks funktioniert die frühere Umleitung auf ein Dummy-Bild nicht mehr. Außerdem kostet das Erzeugen des Zufallsbildes auf meinem VServer Prozessorzeit. Ich leite jetzt alle Zugriffe auf Pixray.com zurück. Für den Test habe ich den Useragent-Switcher[2] als Plugin im Firefox installiert. Ich denke, wenn es bei dem funktioniert, funktioniert es auch beim Bot.

Hier der Eintrag in der .htaccess.

RewriteCond %{HTTP_USER_AGENT} .*[Pp]ixray.*
RewriteRule . http://www.pixray.com/ [L]

Update: Ich habe den Ausdruck in der RewriteRule von ^.*$ auf . geändert. Irgendwie hat die alte Regel den Zugriff nicht für alle Dateien umgelenkt.

  1. [1]Siehe auch:„Unfreundliche Web-Crawler aussperren“
  2. [2]Siehe Chris Pederick – Useragent-Switcher 0.7.3

Unfreundliche Web-Crawler aussperren

Update 23. Oktober 2012: Inzwischen gibt es neue Erkenntnisse über den Pixray-Seeker. Er meldet sich wahrscheinlich nicht mehr mit Pixray-Seeker, sondern simuliert verschiedene User-Agents. Siehe Freundliche und unfreundliche Crawler

Beim Auswerten der Webalizer Statistiken sind mir Angriffe und verschiedene Suchmaschinen aufgefallen, von denen ich noch nichts gehört hatte. Die Angriffe gingen in der Regel gegen phpMyAdmin Installationen. Die laufen bei mir jedoch ins Leere. Über diese Angriffe schreibe ich später, d.h. in einem anderen Artikel. Heute soll es um eine spezielle Suchmaschine gehen.

„Unfreundliche Web-Crawler aussperren“ weiterlesen