Liturgischer Kalender als WP Plugin

Ev Kirchenjahr Widget Screenshot
Screenshot des Widgets E. Kirchenjahr

Durch Zufall habe ich den Liturgischen Kalender und ein kleines PHP-Script für die Einbindung in die eigene Web-Seite gefunden. Daraus habe ich heute Abend ein PlugIn für WordPress gebastelt. Das Plugin habe ich auf GitHub zur Verfügung gestellt. Wie immer als eine öffentliche Lizenz.

Installiert wird das Plugin mit „git clone https://github.com/Byggvir/ev-kirchenjahr“ im Plugin Verzeichnis der WordPress Installation, dann aktivieren und in einer Seitenleiste platzieren.

Alternativ kann der Source Code als (zip) oder (tar.gz) herunter geladen werden. Der ebenfalls im Plugin Verzeichnis von WordPress auszupacken ist.

Ein Beispiel ist auf der Seite unserer Gemeinde zu bewundern: https://ev-kircherheinbach.de

Update

Das Plugin unterstützt ab der Version v2019.1.0 einen Shortcode

Nächster Feiertag
20. Januar 2019
2. So. nach Epiphanias
Woc­hen­psalm:
Ps 105,1–8
Pre­digt­text:
Röm 12,9–16
Nächster hoher Feiertag
6. März 2019
Aschermittwoch
zur Anzeige der Informationen in Artikeln und Seiten. Als Datum kann etwas eingegeben werden, dass PHP mit der Funktion strtotime in ein gültiges Datum umwandlen kann.

Beispiel:

Nächster Feiertag
24. Dezember 2019
Christvesper
Woc­hen­psalm:
Ps 96,1–3.7–13
Pre­digt­text:
Ez 37,24–28
Nächster hoher Feiertag
24. Dezember 2019
Christvesper
Nächster Feiertag
22. Dezember 2019
4. Advent
Woc­hen­psalm:
Ps 102,13–14.16–18.20–23
Pre­digt­text:
2. Kor 1,18–22
Nächster hoher Feiertag
24. Dezember 2019
Christvesper
Nächster Feiertag
22. Dezember 2019
4. Advent
Nächster Feiertag
22. Dezember 2019
4. Advent
Woc­hen­psalm:
Ps 102,13–14.16–18.20–23
Ein­gangs­psalm:
Ps 102,13–14.16–18.20–23
AT-Le­sung:
Jes 62,1–5
E­pis­tel:
Phil 4,4–7
Pre­digt­text:
2. Kor 1,18–22
E­van­ge­li­um:
Lk 1,26–38(39–56)
Woc­hen­lied:
EG 9 - Nun jauchzet, all ihr Frommen
EG 19 - O komm, o komm, du Morgenstern
Lit. Farbe:
Violett
Woc­hen­spruch:
Freuet euch in dem Herrn allewege, und abermals sage ich: Freuet euch! Der Herr ist nahe! (Phil 4,4.5b)
Nächster hoher Feiertag
24. Dezember 2019
Christvesper

Herrnhuter Losungen in MySQL / MariaDB importieren

Das Hernnhuter Losungen Widget zeigt unter WordPress die Losung des Tages in einer Seitenleiste an. Bei der Anpassung und Überarbeitung für 2019 kam mir die Idee, die Losungen nicht aus der XML Datei einzulesen, sondern in eine MySQL / MariaDB Tabelle zu improtieren. Unter Die Losungen – Gottes Wort für jeden Tag werden die Losungen für das laufende (und ab Spätherbst folgende) Jahr zum Download angeboten.

Beim Import in eine Datenbank gilt es ein paar Hürden zu überwinden. Für den Import unter Linux sind die CSV-Dateien geeigneter als die XML-Dateien.

„Herrnhuter Losungen in MySQL / MariaDB importieren“ weiterlesen

DSVGO

Nun hat sie Sie und mich erwischt, die Datenschutz-Grundverordnung oder die

VERORDNUNG (EU) 2016/679 DES EUROPÄISCHEN PARLAMENTS UND DES RATES vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung)

Sie dürfen jetzt Ihre Zeit damit verplempern sich erklären zu lassen,

  1. dass ich angeblich personenbezogenen Daten verarbeite (DSVGO Artikel 4 Ziffer 2), zu denen ich die Personen nicht identifizieren kann und will.
  2. dass, wenn Sie hier einen Kommentar hinterlassen, dieser natürlich gespeichert, verarbeitet und anderen angezeigt wird.
  3. dass Sie Cookies akzeptieren müssen, damit ihre persönlichen Einstellungen auf Ihrem eigenen Rechner gespeichert werden.
  4. dass die Seitenaufrufe mittels eines automatisierten und anonymisierten Verfahren gezählt werden.

Vielleicht ist der vierte Punkt für einigen neu. Aber dazu später.

„DSVGO“ weiterlesen

Server neu installiert

Heute habe ich diesen Server neu installiert. Das lange hinausgezögerte Upgrade von OpenSUSE 12.3 auf OpenSUSE 13.1 war endlich fällig. Leider unterstützt STRATO noch nicht die Version OpenSUSE 13.2, so dass cih sicher in absehbarer Zeit wieder Hand anlegen muss.

Trotz der Vorbereitung in einer virtuellen Maschine auf dem heimischen PC gab es einige Hürden zu überwinden. Mein Verhältbnis zu Postfix hat wieder etwas gelitten. Aber jetzt bin ich wieder per E-Mail erreichbar. Dafür Freunde ich mich mit Dovecot immer mehr an. In den nächsten Tagen werde ich im SSL/TLS beibringen – oder zuerst mir.

Auch der Apache2 bedarf einiger Nacharbeit, damit alle Module, die ich nutze hier laufen. Zu allem Überfluss ändern sich auch noch die Namen und Orte der Module, wenn die 64-Bit Version statt der 32-Bit installiert wird.

Gute Nacht

RewriteCond: bad flag delimiters für %{TIME}

Ich möchte eine Datei auf dem Apache2 erst ab einem bestimmten Datum bereitstellen. Dazu sollte eigentlich folgender Code ausreichen:

RewriteCond %{TIME} < 20140614000000
RewriteRule test.html noch-nicht-da.html [R,L]

Nun meldet der Apache2 aber immer: RewriteCond: bad flag delimiters

Ich finde auch mit Google keine Lösung für diesen Fehler. Vermutlich fehlt für TIME irgendein Modul, nur welches? Die Dokumentation ist in diesem Punkt leider sehr bescheiden.

Die Vermutung ist leider falsch.

Das Beispiele, das ich gefunden hatte, hatte hinter dem ‚< ‚ ein Leerzeichen. Dies ist jedoch nicht zulässig.

Hier nun auch die Lösung:

RewriteCond %{TIME} <20140614000000
# oder
RewriteCond %{TIME} „< 20140614000000“
RewriteRule test.html noch-nicht-da.html [R,L]

Bots, Crawler und Spider

Bots, Crawler oder Spider sind Computer die das World Wide Web nach Inhalten mit unterschiedlichen Zielsetzungen durchforsten. Die bekanntesten sind sicher die Crawler der großen Suchmaschinenbetreiber Bing / MSN, Baidu, Google, Yahoo oder Yandrex. Dass deren Crawler regelmäßig vorbei schauen ist wichtig, damit eine Seite in den Suchergebnissen gefunden wird. Aber es gibt auch zahlreiche andere Crawler, deren Besuch mehr oder weniger sinnvoll ist. Wenn ein Portal keine Stellenangebote beinhaltet, ist es wenig sinnvoll, dass ein Crawler die Seiten regelmäßig besucht. Falls Sie keinen Shop betreiben, hilft es nichts, dass ein entsprechend spezialisierter Crawler Ihre Web-Seiten durchsucht.

Ob ein Crawler ein Portal durchsucht und welche Verzeichnisse durchsucht werden, kann bei kooperativen oder freundlichen Crawlern anhand des Robots Exclusion Standard über eine Datei robots.txt (Kleinschreibung beachten) im root-Verzeichnis gesteuert werden.

Unkooperative oder unfreundliche Crawler ignorieren den Inhalt der robots.txt. Gegen diese Crawler helfen nur stärkere Geschütze.

Die Zugriffe der letzten Tage auf dieses Blog habe ich hinsichtlich der besuchenden Bots, Crawler und Spider ausgewertet. Von Anfang des Monats bis heute, entfallen etwa 15% bis 20% der Seitenabrufe (Hits im Webalizer) auf über 50 verschiedene Crawler.[1] Der User-agent-string, mit dem sich der Bot, Crawler oder Spider im HTTP-Abruf meldet, ist nicht identisch mit dem User-agent in der Datei robost.txt, nach dem er sucht. Deshalb muss zu jedem Crawler der passende User-agent für die Datei robots.txt gefunden werden. Gute Web-Portale haben eine umfassende Beschreibung des Verhaltens ihrers Crawler; weniger gute verweisen auf die allgemeine Beschreibung der Datei; manche vergessen dabei den User-agent anzugeben, auf den ihr Crawler hört.

Die Bezeichnung „Standard“ ist für den Robots Exclusion Standard ist im Grunde eine Übertreibung. Die Syntax der Datei robots.txt ist nicht sehr streng definiert. Bei der Auswertung der Datei robots.txt sollte der Crawler die Groß-Kleinschreibung bei der Feldnamen (User-agent, Disallow …) und bei seinem Namen (wohlgemerkt sollte) nicht beachten. Als Parameter sind nur User-agent und Disallow definiert und es gibt nur die Wildcard „*“ für den User-agent. Viele Crawler akzeptieren aber auch Erweiterungen wie reguläre Ausdrücke. Einen einheitliche Art der Auswertung der Datei durch die Crawler wurde leider nie definiert. Eine gute Beschreibung des „Minimum“ anhand einer Beispiel-Site findet sich bei bjoernsworld.de · Suchmaschinen.

Hier nun eine Auflistung, kurze Beschreibung und Bewertung der Bots, Crawler und Spider, die ich in der letzten Zeit identifiziert habe.

„Bots, Crawler und Spider“ weiterlesen

  1. [1]Hierbei ist zu bedenken, dass es auch Kameraden gibt, die Web-Seiten mit dem User-Agent eines Crawlers abrufen um ihrer Zugriffe zu tarnen. Diese Zugriffe habe ich bei der Betrachtung nicht gefiltert. Einige Seiten verwenden einen Zugriffschutz oder verhindern, dass die Seiten auf anderen Rechnern – z.B. zum Offline Lesen – gespiegelt werden. Damit Google die Seiten trotzdem indizieren kann, werden die Crawler von Google geduldet. Bei einer fehlerhaften Implementierung dieses Schutzes kommt ein Angreifer mit dem User-agent-string eines GoogleBot ebenfalls Zugriff auf die Seiten.

So einfach wird man zur sicheren Seite bei Netzcheck.com

Ich habe soeben die Seite Netzcheck.com gefunden. Meine Seite ist also sicher. Nun gut, dass wusste ich auch vorher. Grundsätzlich ist es keine schlechte Idee Web-Seiten zu untersuchen und Sicherheitssiegel zu erzeugen, die der Web-Master auf seiner Seite einbinden kann, wie hier links geschehen. Allerdings lässt sich so ein Siegel leicht fälschen ; wer achtet schon darauf, ob es echt ist. Außerdem muss der Web-Master es selbst einbinden. Welcher Web-Master bindet ein Siegel ein: Diese Seite ist unsicher! Keiner!

Aber die Verwendung des Sicherheitssiegels hat noch zwei weitere Haken.

„So einfach wird man zur sicheren Seite bei Netzcheck.com“ weiterlesen

LG Köln und entfernt die Pixelio Bilder (Fortsetzung 2)

Google pixelio site:lg-koeln.nrw.de
Suchergebnis vom 8. Februar 2014 für die Googlesuche nach pixelio site:lg-koeln.nrw.de

Nachdem ich dem Webmaster des Landgerichts Köln (LG Köln) ein paar Fragen per E-Mail gestellt habe, habe ich zwar keine Antwort bekommen (Webmaster ist in Urlaub), aber eine Reaktion hat es trotzdem gegeben. Das LG Köln hat die Pixelio Bilder entfernt. Als Suchergebnis wirft Google heute nur noch ein altes Bild aus, das sich aber nicht mehr auf der Seite befindet.

Hier meine Fragen:

  1. Warum ignorieren Sie auf Ihren Seiten die Lizenzbedingungen von PIXELIO und
    setzen keinen Link auf die Adresse www.pixelio.de.
  2. Warum ergänzen Sie die Bilder um einen Schriftzug, obwohl nur folgende Bearbeitungen

    „… zugelassen sind: unter Verwendung analoger, digitaler oder sonstiger
    Bildbearbeitungsmethoden wie folgt zu bearbeiten: Änderung der Bildgröße
    (Vergrößerung, Verkleinerung, Beschneidung), Umwandlung der Farbinformationen,
    Änderung der Far-, Kontrast- und Helligkeitswerte. Das Recht zu anderweitigen
    Änderungen am Bildmaterial verbleibt beim Urheber.“

  3. Woraus schließen Sie, dass diese Bearbeitung zulässig ist und für den
    direkten Aufruf des Bildes ausreichend – inbesondere dem fehlenden Link – ist.
  4. Wäre es da nicht risikoärmer und für den Steuerzahler kostengünstiger auf
    diese unnötigen Bilder zu verzichten?

Sie können ja schlecht gegen ihr eigenes Urteil vorgehen.

😉

Update 09. Februar 2014: Ein unbedingt lesenswerter Kommentar zum Thema Rechtssicherheit findet sich auf heise.de.

LG Köln und PIXELIO

Kaum legt sich die Aufregung über die Abmahnwelle, kommt das LG Köln mit einem neuen Urteil aus der Sonne, bei dem man sich fragt, wo leben diese Richter? Die legen im Moment wirklich einen tollen Lauf hin.

Nach dem sie sich bei den Auskunftsersuchen schon als leichtgläubig, unfähig oder unwillig, die Anträge – wenn überhaupt – sorgfältig zu lesen und zu verstehen, erwiesen haben, scheinen sie nicht aus Schaden klug geworden zu sein und müssen die Blamage nochmals toppen.

LG Köln ignoriert Urheberrecht und eigene Rechtsauffassung

Ganz nebenbei outen Sie sich selbst – und wohl fast alle staatlichen Institutionen mit Web-Seiten – als notorische Urheberrechtsverletzer, „LG Köln und PIXELIO“ weiterlesen