Converseen ist ein Tool, mit dem sich mehrere Bilder stapelweise verarbeiten lassen. Das Programm bietet die Möglichkeit viele Bilder auf einmal zu vergrößern, zu verkleinern, in ein anderes Format zu konvertieren oder Bilder zu drehen. Zur Bildbearbeitung verwendet Converseen ImageMagick.
Ich speichere die Bilder meiner Kamera im RAW-Format und als JPEG. Die RAW-Bilder verwende ich zur Bearbeitung. Die JPEGs importiere ich beispielsweise in die Fotobibliothek des Smartphones, ohne sie weiter zu bearbeiten. Sie dienen als Erinnerungen.
Irgendwann fiel mir auf, dass ich die JPEG-Version der Bilder nicht in derselben, hohen, Auflösung benötige wie die RAW-Bilder. Also änderte ich die Einstellung in der Kamera, sodass die JPEG-Versionen speicherplatzsparend in einer niedrigeren Auflösung gespeichert werden.
Allerdings wollte ich auch die alten, bereits gespeicherten Bilder verkleinern um Speicherplatz zu sparen, der ja gerade auf dem Smartphone gerne knapp wird.
Alle Bilder mit einem Bildbearbeitungsprogramm wie GIMP zu öffnen, zu verkleinern und wieder zu speichern kam nicht in Frage. Das wäre viel zu zeitaufwändig gewesen. Also habe ich mich auf die Suche nach einem Programm gemacht, dass möglichst alle Bilder auf einmal verkleinern kann.
Gefunden habe ich Converseen, dass genau diese Aufgabe erfüllt.
Viele Bilder auf einmal vergrößern, verkleinern, drehen oder konvertieren
Bei Ubuntu ist Converseen in den Paketquellen enthalten und kann somit direkt installiert werden. Wer die aktuellste Version möchte, der findet ein entsprechendes Repository auf der Projekthomepage (http://converseen.fasterland.net). Dort findet man auch den Quellcode von Converseen, sowie die Windows-Version.
Eigentlich ist Converseen selbsterklärend. Allerdings habe ich nicht auf Anhieb kapiert, dass man links, wo das Vorschaubild gezeigt wird, nach unten scrollen muss, um zu den Bearbeitungsoptionen zu gelangen. Stattdessen habe ich mehrere Minuten damit verbracht, diese in den Menüs zu suchen. Dort findet sich jedoch nichts.
Man muss also im „Actions Panel“ nach unten scrollen, um zu den Bearbeitungsoptionen zu gelangen. Dort kann man beispielsweise die gewünschte Bildgröße in % vom Original, oder in Pixeln angeben.
Außerdem kann der Speicherort für die neuen Bilder ausgewählt werden und die Benennung geändert werden. So kann beispielsweise ein Zusatz vor, oder nach dem ursprünglichen Dateinamen hinzugefügt werden.
Anschließend aktiviert man alle Bilder die bearbeitet werden sollen und klickt auf „Convert“. Damit startet Converseen die Bearbeitung.
Der Mozilla Firefox bringt einen integrierten PDF Viewer (pdf.js) mit. Bei diesem ist die Standardanzeigebreite auf „Automatischer Zoom“ gesetzt. Ich persönlich bevorzuge die Einstellung „Seitenbreite“. In den erweiterten Einstellungen lässt sich die Standardanzeigebreite festlegen....
Firefox bringt seit Version 75 eine neue Adressezeile mit sich. Diese vergrößert sich immer dann wenn der Nutzer etwas sucht. Die neue Adressezeile lässt sich den Versionen 75 & 76 über about:config deaktivieren, ab...
Unter Windows 10 erscheint neben den Schnellzugriff auch OneDrive im Explorer. Nicht nur das Schnellzugriffsymbol lässt sich ausblenden/entfernen sondern auch das OneDrive Symbol kann im Dateiexplorer ausgeblendet werden. Um das OneDrive Symbol auszublenden müssen...
Wer sich etwas für Raumfahrt interessiert, dem ist die Webseite Apollo in Real Time wahrscheinlich bereits ein Begriff. Auf dieser Webseite wurde vergangenes Jahr eine riesige Menge an Material zur Apollo 11 Mission, bzw. zur Mondlandung online gestellt. Das besondere ist, dass nicht nur Video- Audio- und Bildmaterial online gestellt wurde, sonder die komplette Mission in Echtzeit miterlebt werden kann.
Nun ist eine weitere, ähnlich bekannte Apollo-Mission hinzugekommen. Apollo 13. Die gescheiterte Mondlandemission und die anschließende (erfolgreiche) Rettungsmission kann man nun in Echtzeit miterleben. Das gesamte Material besteht aus insgesamt neun Missionstagen.
Laut Angabe auf der Webseite ist sämtliches Videomaterial aus dem Kontrollzentrum und Bildmaterial aus dem Weltraum verfügbar. Besonders toll ist, dass zu allen Funksprüchen Transkription vorliegt und man diese in einem Cahtähnlichen Fenster mitverfolgen kann. Dies ist besonders hilfreich, da die Funksprüche nicht immer leicht zu verstehen sind, da die Audioqualität natürlich nicht mit einem Telefonat vergleichbar ist.
Da die Mission sechs Tage dauerte, ist es den meisten von uns wahrscheinlich nicht möglich, den kompletten Missionsverlauf zu verfolgen. Man hat daher zwei Möglichkeiten in die Mission einzusteigen. Zum einen kann man ganz zu Beginn mit dem Start der Mission beginnen.
Außerdem läuft die Mission permanent in Echtzeit ab. Ist die Mission abgeschlossen, beginnt sie von vorne. Auf der Webseite wird angezeigt, an welchem Missionstag und zu welcher Zeit man sich gerade befindet. Ich nutze diese Möglichkeit gerne, um immer wieder für eine halbe Stunde in die Mission einzusteigen. Das Wissen, dass es sich nicht um einen Film handelt, sondern dass dies vor 50 Jahren wirklich passiert ist, verursacht bei mit den ein oder anderen Gänsehautmoment.
Im ersten Moment wird man von der Menge an Informationen auf der Webseite nahezu erschlagen. Hier sollte man sich ein bisschen Zeit nehmen und die verschiedenen Einstellmöglichkeiten erkunden.
Laut Webseite bekommt man während der Mission folgendes Material zu sehen.
Sämtliches Filmmaterial aus dem Kontrollraum
Sämtliches Filmmaterial aus der Kapsel
Sämtliches Audiomaterial aus dem Kontrollraum (7200 Stunden).
144 Stunden an Funksprüchen zwischen Erde und Raumschiff.
Pressekonferenzen
600+ Fotos
Durchsuchbares Transkript
Berichte nach dem Ende der Mission
Wer sich für die Anfänge der Raumfahrt interessiert, oder wer vielleicht einfach nur die Apollo 13 Verfilmung gut fand, der sollte unbedingt einen Blick auf Apollo 13 in Real-Time werfen.
Die Möglichkeiten die die Linux-Kommandozeile bietet sind nahezu unbegrenzt. Es existieren unendlich viele Tools und Befehle und nahezu unendlich viele Möglichkeiten diese zu kombinieren und zu verknüpfen.
Natürlich merkt man sich all das, was man im Alltag verwendet. Aber Funktionen die man nur selten verwendet vergisst man auch leicht. In diesem Fall durchsuche ich die History nach einem Parameter an den ich mich noch erinnere. Sofern der Befehl aber nicht mehr in der History zu finden ist, geht die Sucherei los.
Wenn man nicht gerade beruflich den ganzen Tag mit der Kommandozeile arbeitet, so kennt man deren Möglichkeiten höchstwahrscheinlich nur zum Teil. Jedenfalls geht es mir so. Ich entdecke laufend, mit jedem neuen Problem und jeder neuen Lösung neue Möglichkeiten der Linux-Kommandozeile.
Egal ob man nun etwas sucht, oder einfach nur lernen und stöbern möchte, die Linux Command Library (http://linuxcommandlibrary.com) ist eine tolle Anlaufstelle.
Die Linux Command Library ist unterteilt in drei Kategorien. Commands, Basic und Tips.
In der Kategorie Commands findet man eine riesige Liste mit Befehlen. Ein Klick auf den Befehl zeigt die Manpage des dazugehörigen Tools, ergänzt um ein praktisches TLDR mit den gängigsten Optionen.
Die Kategorie Basic zeigt weitere Unterkategorien an. Beispielsweise System Information, Files/Folders, Network, SSH und viele mehr. Ein Klick auf die Unterkategorie listet passende Befehle und Tools auf. Gerade die Kategorie Basic lädt zum Stöbern ein.
Dann gibt es noch die allgemeine und recht kurze Kategorie Tips. Hier finden sich allgemeine Tipps und Hinweise, beispielsweise zur Verkettung von Befehlen.
Die Linux Command Library gibt es nicht nur im Web, sondern auch als App für Android un iOS. Die App ist zwar Open Source und der Quellcode auf Github, trotzdem scheint es die App für Android nur über Google Play zu geben. Für das iPhone und iPad ist die Linux Command Library logischerweise nur über den App-Store verfügbar.
Der Vorteil der Apps ist, dass diese auch offline funktionieren. Ansonsten funktioniert die Webseite auch ganz hervorragend im Webbrowser auf dem Smartphone.
Octotree ist eine Erweiterung, welche den fehlenden Dateibrowser auf Github nachliefert. Mithilfe einer in die Webseite eingeblendete Sidebar lässt es sich einfach via Baumansicht durch das Repository navigieren. Ich nutze die Grundversion, da ich die in der Proversion (70 €) … Weiterlesen →
Nach längerer Nutzung von Liquidprompt habe ich mich entschieden ein wenig über den Tellerrand zu schauen. Hier bin ich auf den, in reger Entwicklung befindlichen, auf Rust basierenden Shellprompt starship gestoßen. Im Moment test ich noch ein wenig seine Grenzen … Weiterlesen →
Nach zwei Jahren glücklicher Benutzung, habe ich leider meine Anker Soundbuds Slim verloren, oder verlegt. Als täglicher Begleiter für die musikalische Untermalung und als Headset hatten sie mir gute Dienste geleistet. Ich habe mir nun das Nachfolgemodell bestellt. Meiner Meinung … Weiterlesen →
Um die SSL-Konfiguration eines Webservers zu untersuchen ist SSL Labs von Qualis oft die erste Wahl. Allerdings verwenden nicht nur Webserver SSL, bzw. TLS. Und nicht jeder möchte unbedingt externe Onlinetools für jede Aufgabe verwenden.
Das Linux Magazin stellt in jeder Ausgabe kleine und praktische Tools vor und immer wieder finden sich darunter nette Helfer für den Alltag. In Ausgabe 03/2020 findet testssl.sh Erwähnung.
Testssl.sh ist ein tolles Tool zum prüfen der SSL-Konfiguration. Es läuft lokal auf der Kommandozeile und erzeugt ähnlich übersichtliche und leicht verständliche Reports wie SSL Lab. Außerdem werden verschiedene Protokolle unterstützt, so dass nicht nur Webserver, sondern beispielsweise auch Mailserver getestet werden können.
Ein Aufruf von „./testssl.sh https://example.de“ prüft die SSL-Einstellungen einer Webseite mit den Standardeinstellungen.
Ein Aufruf des Skripts ohne irgendwelche Parameter zeigt eine Liste mit verfügbaren Optionen und Schaltern. Damit können bestimmte Test gewählt werden, oder auch Zugangsdaten für eine via HTTP Basic Auth versperrte Seite.
Die Ergebnisse der einzelnen Tests werden übersichtlich aufbereitet im Terminal ausgegeben. Alternativ kann man die Ergebnisse auch in eine Datei schreiben lassen. Hierfür wird eine Vielzahl an Formaten unterstützt, wie z.b. Text, HTML, CSV, und andere.
Seitens Sony ist das Remoteplay der Playstation schon auf den Plattformen Windows, Android und iOS möglich. Sony scheint die Plattformen Linux und macOS bis jetzt nicht unterstützten zu wollen. Das FOSS Projekt Chiaki bildet diese Funktion auch unter Linux und … Weiterlesen →
When in danger or in doubt, run in circles, scream and shout.” Herman Wouk Da sind sie nun schon wieder zur Neige gegangen. Der Adressbereich IPv4. Oder nun endgültig. Könnten wir dies jetzt sehen wie wir wollen? Für meine Seite, … Weiterlesen →
Als Tim Berners Lee 1990 am Cern den allerersten Webbrowser programmiert hat, war ich noch viel zu klein um etwas von dieser Entwicklung mitzubekommen. Als Name für seinen Webbrowser wählte er „World Wide Web“.
Das World Wide Web das ich Ende der 90er kennen lernte, war voller blinkender GIFs und greller Laufschrift. Dinge die der erste Webbrowser noch gar nicht darstellen konnte.
Zum dreißigjährigen Geburtstag des WWW haben Anfang 2019 Entwickler am Cern den allerersten Webbrowser innerhalb eines modernen Webbrowsers nachgebaut. Da der echte, erste, Webbrowser noch keine modernen Web- und Verschlüsselungstechnologien unterstützt hat, könnte man mit ihm heute wahrscheinlich keine einzige Webseite mehr aufrufen.
Die nachgebaute Version des World-Wide-Web-Browsers kann auch moderne https-verschlüsselte Seiten öffnen. Behält aber das Look-and-Feel des ursprünglichen Webbrowsers bei. So kann der Browser ausschließlich Text darstellen. In Webseiten eingebundene Bilder werden nicht dargestellt. Java-Script wird sowieso nicht ausgeführt. Alles in allem erinnert das Surfen mit World Wide Web eher an einen Textbrowser wie Lynx als an einen modernen Webbrowser.
Die Neuentwicklung von World Wide Web läuft direkt im Browser und muss nicht installiert werden. Wer Lust hat durch das moderne Web mit den Möglichkeiten von 1990 zu reisen, der findet World Wide Web auf folgender Webseite.
Podcasts begleiten mich durch den Tag. Sie geben mir Wissen zu den Tagesgeschehen aus aller Welt, sind meine Arbeitsmusik, begeistern meine Familie, oder helfen mir neues Wissen zu erlangen. Es ist Zeit als Dankeschön nicht nur diese Podcasts zu bewerten, … Weiterlesen →
Ich hatte für den Sport weniger Zeit durch den Umzug und dem vorhergehenden Urlaub als mir lieb ist. Vor drei Tagen habe ich wieder mit dem Lauftraining begonnen. Ich lasse mich dabei durch die App (…) Weiterlesen
Um das Autoscaling der hochgeladenen Bilder von max 2560px in Höhe bzw Breite zu unterbinden ist folgende Zeile in der functions.php nötig Wird dies nicht vorgenommen werden alle neu hochgeladenen Bilder in Ihrer maximalen Größe (…) Weiterlesen
Ich hatte nicht gedachte, dass auch jenes McBook Pro 2017 refurbished, welche sich vor 2 Monaten gekauft hatte, unter das Angebot fällt. Da nehme ich doch einmal das kostenfreie Jahr bis 18.11.2020 gerne mit. Eine Erinnerung für den 16.11.2020 für … Weiterlesen →
Wenn man einen Server betreibt – und sei es nur ein Raspberry Pi – dann interessiert man sich wahrscheinlich auch dafür wie dieser ausgelastet ist und ob alle Dienste durchgehend funktionieren. Wo Tools wie Grafana oder Munin übertrieben sind, kann Monitorix punkten.
Monitorix ist Open Source, die Entwicklung des Projekts kann man auf Github verfolgen. Fertige Installationspakete für die gängigen Distributionen findet man auf der Downloadseite des Projekts. Seit Buster ist Monitorix auch in den Debian Paketquellen enthalten und kann damit auch auf dem Raspberry Pi mit Raspbian mit einem einfachen sudo apt install monitorix installiert werden.
Monitorix ist in Perl geschrieben und bringt seinen eigenen Webserver mit, der standardmäßig über Port 8080 unter http://localhost:8080/monitorix erreichbar ist und optional mit einem Passwortschutz versehen werden kann.
Für die schnelle Installation und Einrichtung eines Monitoringtools auf dem Homeserver oder Raspberry Pi ist das sicher eine brauchbare Lösung. Wer dem eingebauten Webserver nicht traut, der kann Monitorx auch über einen der bekannten Webserver erreichbar machen.
Apache und lighthttpd können mit mod_cgi den Perl-Code von Monitorix direkt ausführen. Vorschläge für eine entsprechende Serverkonfiguration liefert Monitorix im docs-Verzeichnis mit.
Alternativ kann man Apache oder Nginx als Proxy vor den eingebauten Webserver schalten. Den Zugriff auf den eingebauten Webserver sollte man dann in der Konfigurationsdatei unter /etc/monitorix/monitorix.conf auf die lokale IP-Adresse beschränken und/oder den Zugriff von außen durch Firewallregeln verbieten.
Untenstehende Konfiguration verwende ich um einen NGINX als Proxy vor den Monitorix-Webserver zu setzen und den Zugang mit einem Passwort zu sichern.
## Monitorix start
location /monitorix {
auth_basic "Restricted";
auth_basic_user_file /path/to/auth-basic/monitorix.htpasswd;
include proxy_params;
proxy_pass http://127.0.0.1:8080/monitorix;
allow 127.0.0.0/8;
location ~ ^/monitorix/(.+\.png)$ {
alias /var/lib/monitorix/www/$1;
}
}
## Monitorix end
Monitorix sammelt aus einer Vielzahl an Quellen Daten und bereitet diese zu ansprechenden Graphen auf. Die Liste der unterstützten Datenquellen kann man auf der Webseite unter Features ansehen, die Liste ist wirklich sehr lang. So unterstützt Monitorix auch das Auswerten verschiedener Raspberry Pi Sensoren und kann so u.a. den Verlauf der Kerntemperatur und Taktfrequenz auswerten. Teilweise müssen diese aber erst in der Konfigurationsdatei aktiviert werden.
Auch das Erstellen von Emailreports und Alarmmeldungen, wenn z.B. die load average einen bestimmten Wert übersteigt oder der Speicherplatz zu Neige geht. Natürlich stößt ein ausschließlich lokal installiertes Monitoringtool hier an seine Grenzen. Fällt das System aus, kann es auch keine Warnungen mehr versenden, so dass der Ausfall im Zweifel unbemerkt bleibt.
Wenn man aber bestimmte Daten wie z.B. die Systemauslastung, die Zugriffe auf Webserver und Datenbank im Tagesverlauf visualisieren möchte, ist Monitorix eine Lösung die schnell installiert und eingerichtet ist.
Nach dem heutigen Kernelupdate musste ich feststellen, dass unseren Zabbixserver bei einem Reboot immer noch eine vom Maintainer falsch ausgerollte Einstellung plagt. Ein Reboot ist nicht möglich, da in der zuständigen Servicedatei für den SystemD ein TimeoutSec=infinity gesetzt ist. Erst … Weiterlesen →
Meine Empfehlung für das kommende Jahr doch einmal die Schriftart zu ändern und eine neue für die Konsole und das Programmieren zu nutzen. Die Schriftart Hack lässt sich in jeder Größe sehr leicht lesen. Ein Blick auf die Proben sollte … Weiterlesen →
Leider werden die Teaserbilder in dem erweiterten Menü von Shopware falsch beschnitten dargestellt. Um dies richtig zu stellen muss die dafür zuständige CSS-Klasse erweitert werden.
Um sein MacBook für die Entwicklung oder die Administration zu nutzen sind die MacPorts unverzichtbar. MacPorts ist eine Paketverwaltung, welche es ermöglicht grafische und kommandozeilenorientierte Programme unter macOS via Script zu installieren. Ich benötige die MacPorts, da macOS nicht nativ … Weiterlesen →
Der Flughafen Stuttgart liegt nur wenige Kilometer von meinem Wohnort entfernt. Da ich aber nicht in der An- oder Abflugrichtung der Flugzeuge wohne, ist der Flughafen für mich fast immer unhörbar. Zum Glück, denn auch ich weiß welchen donnernden Lärm gerade die startenden Jets verursachen können.
Ich war daher sehr neugierig, als ich erfuhr, dass der Flughafen Stuttgart seine Lörmmessungen live im Internet zur Verfügung stellt. Acht Messstationen die sich neben der Startbahn, sowie in der deren Verlängerung in der Umgebung des Flughafens befinden, messen permanent den auftretenden Lärm.
Diese Messungen werden auf einer Karte visualisiert. Dabei wird nicht nur der Lärmpegel angegeben, sondern auch welches Flugzeug gerade startet oder landet. Inklusive Flugnummer sowie Start- und Zielflughafen. Ich freue mich immer sehr, wenn solche Datenerhebungen mit der Öffentlichkeit geteilt werden. Insbesondere wenn es sich um so ein heikles Thema wie Fluglärm handelt.
Es fällt auf, dass der Anflug und Landung relativ leise vonstatten geht. Wie zu erwarten ist, verursachen die startenden Flugzeuge den meisten Lärm. Wie aus dem Nichts taucht dann ein roter Punkt auf der Startbahn auf. Abfliegende Flugzeuge werden rot dargestellt, ankommende Maschinen werden blau angezeigt.
Je nach Lärmpegel werden die Punkte die die Messtationen symbolisieren grün, gelb oder rot eingefärbt. Gelb werden die Punkte häufig wenn sich das Flugzeug direkt über der Messstation befindet. Rote Punkte tauchen häufig auf wenn ein Flugzeug startet.
Natürlich können die Messstationen nicht unterscheiden ob Lärm von einem Flugzeug oder aus einer anderen Quelle stammt. Somit steigt der Lärmpegel auch oft, wenn sich gar kein Flugzeug im Anflug befindet. Vielleicht weil gerade ein Motorrad vorbeigerast ist. Trotzdem sieht man seht schön wie sich der Lärmpegel verändert wenn gerade ein Flugzeug im Anflug oder beim Starten ist.
Der Lärmpegel wird in db(A) angegeben. Zum Vergleich geben diverse Webseiten folgende Werte an: Eine ruhige Straße nachts ca. 40 Dezibel Normaler Straßenverkehr ca. 60 Dezibel Vorbeifahrendes Motorrad ca. 70 Dezibel
Insbesondere im Serverbereich ist Hetzner eine große Nummer. Genauso hat man aber reguläre shared Webhostingangebote im Programm. Da ich seit einiger Zeit Nextcloud Angebote (mittlerweile unter dem Namen Hetzner Storage Share vermarktet) nutze und damit sehr zufrieden bin, hat es sich angeboten, auch das Webhosting bei Hetzner zu testen.
Hetzner nutzt den Apache Webserver, so das die Möglichkeit zur Konfiguration des Servers und PHP über eine HTACCESS-Datei möglich ist. Individuelle PHP-Einstellungen können aber auch über das Webinterface vorgenommen werden. Hier kann z.B. PHP-OPCache aktiviert und deaktiviert werden. Das ist bei den anderen getesteten Hostern nicht möglich. Hier ist OPCache entweder aktiviert, oder wird gar nicht genutzt.
Wie alle getesteten Angebote bietet auch Hetzner kostenlose Let’s Encrypt Zertifikate für alle Domains an. Diese können sowohl mit Domains genutzt werden, die bei Hetzner registriert sind, als auch mit Domains die bei einem anderen Anbieter liegen, sofern deren DNS-Einträge auf den Hetzner Webspace zeigen.
Ich habe mir das Level 9 Paket geholt, welches monatlich 9,90€ und einmalig 4,90€ Einrichtungsgebühr kostet. Das Paket kann monatlich gekündigt werden.
Ladezeit
Die Ladezeiten waren durchweg sehr gut. Ausreißer mit besonders langer Ladezeit, wie sie bei manchen anderen Anbietern regelmäßig auftreten, sind mit beim Webhosting von Hetzner nicht aufgefallen.
Ladezeit all-inkl.com Webhosting, gemessen mit StatusCake, Serverstandort weltweit wechselnd:
Ladezeiten all-inkl.com, gemessen mit Pingdom, Serverstandort Frankfurt:
Bester:
Schlechtester:
Durchschnitt:
Backups
Hetzner erstellt tägliche Backups von Webspace und Datenbanken. Die Backups werden für 14 Tage vorgehalten und können über das Webinterface wieder eingespielt werden.
Besonders erfreulich ist, dass man nicht zwingend das komplette Backup wieder einspielen muss. Stattdessen können auch einzelne Dateien, die man vielleicht versehentlich gelöscht hat, wieder hergestellt werden.
Leider bekommt man weder über den FTP-Client, noch via SSH Zugang zu den Backups. So hat man keine Möglichkeit, diese auf einen externen Speicherplatz zu kopieren.
Wer für seine Backups nicht ausschließlich auf die Hetzner-Infrastruktur vertrauen will, der muss zusätzliche externe Backups über ein WordPress-Plugin anlegen.
Statistiken
Von den getesteten Anbietern ist Hetzner, beim Thema Statistiken, mein Favorit. Die Logfiles werden direkt beim Erstellen anonymisiert, jedenfalls die, auf welche man als Kunde Zugriff erhält.Dabei werden die letzten Ziffern der IP-Adresse nicht entfernt, sondern durch Zufallszahlen ausgetauscht. So sind in den Statisiken zwar vollständige IP-Adressen zu sehen, diese entsprechen aber nicht mehr den echten IPs der Webseitenbesucher. Somit dürften die Statistiken von Hetzner DSGVO-Konform nutzbar sein.
Als Statistiktools sind bei Hetzner AWStats und eine eigene Lösung namens „Report Magic“ verfügbar.
Report Magic bietet, meiner Meinung nach, durch die Nutzung von 3D-Diagrammen eine ansprechendere Aufbereitung der Daten aus den Logfiles.
Letztendlich interessieren mich aber nur zwei Informationen. Wie viele Besucher hat mein Blog und welche Beiträge werden am häufigsten aufgerufen. Ausgerechnet für den zweiten Fall bietet Report Magic aber keinen Report. Daher wäre im Alltag wohl nur AWStats für mich interessant.
IPv6
IPv6 wird unterstützt.
Die Administrationsoberfläche
Hetzner setzt auf eine selbstentwickelte Andministrationsoberfläche. Wie auch die selbsetentickelten Lösungen der Konkurrenz sieht die Oberfläche von Hetzner ziemlich altbacken aus. Im Gegensatz zur verschachtelten Lösung von all-inkl.com, wo ich mich teilweise durch alle Menüpunkte hangeln musste um eine bestimmte Einstellung zu finden, empfinde ich das Interface von Hetzner als recht strukturiert aufgebaut.
Bechten muss man lediglich, dass dem Paket eine Hauptdomain zugewiesen ist. Einige Einstellungen können nur über diese Hauptdomain vorgenommen werden und gelten dann auch für Zusatzdomains, die ebenfalls auf das Paket aufgeschaltet sind. Beispiel hierfür sind die PHP-Einstellungen. Andere Einstellungen wiederum lassen sich individuell pro Domain vornehmen.
Erfreulich flexibel sind die Cronjob-Einstellungen. Hier findet man eine einfache Übersicht, mit welcher man sich Uhrzeit, Interpreter usw. zusammenklicken kann. Allerdings muss man immer den absoluten Pfad zum Skript, welches ausgeführt werden soll, angeben. Hier ist Plesk Anwender-, insbesondere Anfrängerfreundlicher, da man dort das Skript per Klick auswählen kann.
Zusätzlich zur einfachen Ansicht, kann man auf die erweiterte Ansicht umschalten. Hier bekommt man ein leeres Textfeld vorgesetzt, in welchem die Crontab direkt bearbeiten muss. Damit ist man deutlich flexibler, insbesondere was die Ausführungszeiten angeht, als mit der einfachen Ansicht.
Ab dem Tarif „Level 9“ bekommt man auch via SSH Zugriff auf seinen Webspace.
Sonstiges
TLS 1.3 wird noch nicht unterstützt. Der Webserver unterstützt die Versionen 1.0, 1.1 und 1.2. HTTP/2 wird unterstützt.
Fazit Hetzner
Viel gibt es als Fazit zum Hetzner Webhosting gar nicht zu sagen. Es handelt sich um ein solides Angebot, ohne Fallstricke oder Einschränkungen, die es für WordPress-Hosting uninteressant machen würden.
Allerdings gibt es wiederum auch keine Features die es besonders interessant machen würden. Bei wp-projects oder PixelX bekommt man mit dem WordPress-Toolkit von Plesk beispielsweise Werkzeuge an die Hand, die einem eine Testumgebung für die eigene WordPress-Installation einrichten, oder einen bei der Absicherung von WordPress unterstützen (z.B. Anpassung von Lese-/Schreibberechtigungen von Dateien, keine Ausführung von PHP-Dateien im Upload-Ordner usw.) Hier muss man sich beispielsweise über Einträge in der .htaccess selbst helfen.
Erfreulich ist jedoch die direkte Anonymisierung der Logfiles, wodurch die Statistiken von Hetzner Datenschutzkonform nutzbar sind.
Alles in allem bietet Hetzner ein flexibles und solides Paket, das sich nicht nur auf WordPress beschränkt, sich allerdings eher an Anwender richtet, die bereits ein grundsätzliches Verständnis für im Webhosting verwendeten Begrifflichkeiten und Einstellungen haben.
Von den von mir getesteten Hostern ist Hetzner meine Empfehlung für Leute, die neben einem WordPress, auch noch zusätzliche Software wie Matomo oder ein Forum installieren möchten.
Bei PixelX hatte ich vor vielen Jahren einen kleinen privaten Blog und war mit dem Hosting sehr zufrieden. Umso erfreulicher fand ich es, dass PixelX nach wie vor existiert und attraktive Hostingpakete im Angebot hat.
Außerdem kann ein Testaccount für 30 Tage angefordert werden, was ich direkt in Anspruch genommen habe. Bei dem von mir getesteten Angebot handelt es sich um das sogenannte „Cloud Webhosting“ und nicht das ebenfalls angebotene Paket „WordPress Hosting“. WordPress kann natürlich bei beiden Paketen installiert werden.
Da auf der Homepage keine Angabe dazu finden konnte, ob das Webhosting auch mit externen, nicht bei PixelX registrierten Domains genutzt werden kann, habe ich hierzu den Support angeschrieben. die Antwort habe ich bereits nach ca. einer viertel Stunde bekommen. Ja, die Nutzung externer Domains ist möglich.
Wie alle von mir getesteten Hoster bietet auch PixelX kostenlose SSL-Zertifikate für alle Domains via Let’s Encrypt an.
Ladezeit
Ladezeit PixelX, gemessen mit StatusCake, Serverstandort weltweit wechselnd:
Ladezeiten PixelX, gemessen mit Pingdom, Serverstandort Frankfurt:
Bester: 0,68s
Schlechtester: 0,825s
Durchschnitt: 0,758s
Die gemessenen Ladezeiten bei PixelX sind durchweg hervorragend. Der Hoster reiht sich damit in den Kampf um die ersten Plätze ein.
Backups
Auch PixelX setzt, wie Netcup und wp-projects.de auf Plesk als Verwaltungsoberfläche für die Kunden. Das ist insbesondere beim Thema Backups erfreulich, da die Backuplösung die Plesk dem Anwender bietet sehr flexibel ist und über eine Vielzahl an Konfigurationsmöglichkeiten verfügt.
Der Kunde kann eigene Backups konfigurieren und dabei einstellen, wie oft (täglich, wöchtentlich, monatlich) das Backup ausgeführt werden soll. Außerdem kann man festlegen ob jedes Mal ein vollständiges Backup angefertigt werden soll, oder ob nur veränderte Dateien gesichert werden. Wählt man den zweiten Fall, so kann man wiederum festlegen, nach wie vielen Tagen wieder ein vollständiges Backup mit allen Daten erstellt werden soll.
Außerdem können die Backups, auf Wunsch auch verschlüsselt, auf einen beliebigen FTP(S)-Server kopiert werden. Sicherungen werden sowohl vom Webspace als auch von den Datenbanken, Emails und anderen Daten, wie Logfiles, erstellt.
Die Backuplösung von PixelX lässt somit bei mir keine Wünsche offen.
Statistiken
Auch bei den Statistiken setzt man auf die Lösung, die Plesk mitbringt. Das bedeutet, dass für die statistische Auswertung der Logfiles sowohl Webalizer als auch AWStats zur Verfügung steht. Außerdem kann die Erstellung von Statistiken deaktiviert werden.
Das ist grundsätzlich erfreulich. Allerdings verzichtet auch PixelX auf die Anonymisierung der IP-Adressen, so dass eine statistische Auswertung ohne vorherige Einwilligung der Besucherinnen und Besucher wohl eher nicht zulässig ist. Eine DSGVO-konforme Nutzung der Webstatistiken dürfte somit in der Praxis kaum möglich sein.
IPv6
IPv6 wird unterstützt.
Die Administrationsoberfläche
Wie bereits erwähnt, kommt bei PixelX als Administrationsoberfläche Plesk zum Einsatz. Ich finde das immer sehr erfreulich, da ich Plesk als sehr viel Nutzerfreundlicher empfinde als die selbstgestrickten Oberflächen anderer Hoster wie all-inkl.com, 1blu oder Hetzner.
Trotzdem unterscheiden sich die Plesk-Oberflächen der einzelnen Hoster leicht, je nach Konfiguration und Ausstattung. PixelX bietet z.B. die 2-Faktor-Authentifizierung zur Absicherung des Logins via Google Authenticator oder kompatible Apps an, was ich sehr positiv finde.
PixelX setzt auf den Apache Webserver, ohne vorgeschalteten Nginx-Proxy. Viele Einstellungen können somit über die .htaccess-Dateien direkt im Webspace vorgenommen werden.
Zur Absicherung und komfortablen Administration von WordPress ist das WordPress-Toolkit installiert. Damit können automatische Updates, nicht nur für WordPress selbst, sondern auch für Plugins und Themes aktiviert werden. Außerdem können verschiedene Einstellungen zur Absicherung von WordPress vorgenommen werden. So kann beispielsweise das Ausführen von PHP-Dateien im Upload-Ordner unterbunden werden. Ganz einfach mit einem Klick, ohne dass man sich selbst um die umständliche Absicherung via .htaccess kümmern muss.
Ein Zugang via SSH wird leider nicht angeboten.
Sonstiges
Der Webserver unterstützt die TLS-Versionen 1.1 und 1.2. Das moderne 1.3 wird noch nicht unterstützt. Etwas verwunderlich fand ich, dass auch das moderne Übertragungsprotokoll HTTP/2 ebenfalls nicht unterstützt wird. Der Ladezeit hat das im Fall von PixelX allerdings nicht geschadet.
Fazit PixelX
Zumindest der Server auf welchem mein Testaccount lag, schien immer über ausreichend Leistungsreserven zu verfügen. PixelX kam so auf sehr gute Ladezeiten und reiht sich weit vorne unter den getesteten Hostern ein.
Das Thema Backup ist, wie bei allen Plesk-Hostern, hervorragend umgesetzt.
Der Showstopper ist für mich jedoch die fehlende Anonymisierung der Logfiles. Dies verhindert in der Praxis leider eine DSGVO-konforme Nutzung der Webstatistiken. Auch einen SSH-Zugang habe ich vermisst denn dies ist für mich oft die schnellste Methode um etwas an den Dateien auf dem Webspace anzupassen.
Wer auf die Statistiken keinen Wert legt, z.B. weil man Google Analytics oder Matomo nutzt, und keinen SSH-Zugang vermisst, der bekommt bei PixelX ein sehr empfehlenswertes Hostingangebot. Die Ladezeiten sind hervorragend, die Konfigurationsmöglichkeiten umfangreich und der Support reagiert schnell und freundlich.
Bei Pixelx hat man sich die Mühe gemacht, untenstehende ausführliche Email zu meinem Artikel zu verfassen, die ich euch selbstverständlich nicht vorenthalten möchte.
Nicht alle Punkte sind für mich nachvollziehbar. z.B. ist laut PixelX TLS 1.3 nicht stabil und nicht für den Massenbetrieb geeignet. Cloudflare zum Beispiel hat sich entschieden TLS 1.3 zu unterstützen und der Begriff Massenbetrieb passt wohl auf kaum jemanden so gut wie auf Cloudflare. Auch 1blu, all-inkl.com, raidboxes und uberspace unterstützen bereits TLS 1.3. Letztendlich spielt das aber auch keine Rolle, schließlich ist TLS1.3 derzeit kein kaufentscheidender Punkt.
Auf jeden Fall bestätigt die Mail meinen Eindruck, dass man sich bei PixelX viel Zeit für den persönlichen Kontakt nimmt und die Kunden nicht mit teilweise unpassenden Textbausteinen (wie 1blu) abspeist. Und wenn man einmal Probleme hat, ist genau das ein entscheidender Faktor.
Backup: Zusätzlich zu den normal üblichen Plesk-Backups die der Kunde selber konfigurieren kann, erstellen wir von jeder Cloud Instanz mehrfach täglich Snapshots und bewahren diese für 7 Tage auf. Sprich selbst im absoluten Worstcase können wir schnell und einfach einen kompletten Rollback auf eine andere Node machen.
Statistik / DSGVO: Uns ist es extrem wichtig mit allen Produkten konform zur DSGVO zu sein!
Um Statistiken zu erzeugen und ein gewisses Maß an Fehleranalyse zu ermöglichen, werden im ersten Step die IP-Adressen im Log-File erfasst, dann allerdings nach spätestens 24 Stunden (genau ein Mal pro Tag beim Log-Rotate) anonymisiert.
Nur nebenbei bemerkt, die DSGVO schreibt nichts direktes zur Erfassung und Speicherdauer von IP-Adressen, außer das es ein Datensatz mit Personenbezug ist. Die Erfassung von IP-Adressen ist nicht grundsätzlich entgegen der DSGVO, Datenschutz ist hier nicht das höchste Gut. Administratoren müssen die Möglichkeit haben Angriffe zu erkennen und abzuwehren. Eine definitive Entscheidung wird vielleicht irgendwann mal ein Gericht fällen, aktuell werden sinnvolle Zeiträume von bis zu 3 Monaten diskutiert, um eine Fehler- / Angriffsanalyse betreiben zu können. Ich persönlich halte 7-14 Tage für absolut in Ordnung, was auch vor jedem Gericht Bestand haben wird. Das der Nutzer in der jeweiligen Datenschutzerklärung ordentlich darüber aufgeklärt werden muss, versteht sich von selbst.
SSH: Das ist z.B. ein wirklich entscheidender Punkt zur DSGVO, jedes Shared-Hosting auf dem Du SSH bekommst, ist zwangsläufig nicht konform zur DSGVO, da alle Benutzer auf dem System mit SSH viel zu viele Rechte haben und Sachen sehen/machen können, die diese gar nicht sehen dürfen, von der gesamten Systemsicherheit ganz abgesehen. Gleiches gilt im Übrigen auch für jede Form von RAM-Cache (den wir ja gerne auch im Shared-Hosting anbieten würden, Redis z.B.), mit geringen Kenntnissen kann ich den kompletten RAM-Cache eines Systems auslesen, also auch alles was ggf. andere Kunden grad in diesem Cache haben, temporäre Daten einer Bestellung die grad im Gange ist, Login-Prozesse und vieles mehr!
NGINX & HTTP/2: HTTP/2 hatten wir bereits vor einigen Jahren in Kombination mit NGINX in Betrieb. Nach vielen Benchmarks mussten wir feststellen, dass der NGINX auf unserer Infrastruktur eigentlich nur ein weiterer Hop für die Daten ist und letztendlich die Ladezeiten um ca. 0,2 Sek. langsamer machte. Ebenso nutzte im Schnitt 1 von 10.000 Kunden tatsächlich den NGINX mit den von ihm vorgesehenen Funktionen. Daher hatten wir uns damals entscheiden den NGINX aus unserer Infrastruktur zu verbannen, damit damals dann auch vorerst HTTP/2. Geplant war eigentlich parallel noch natives NGINX-Hosting ohne Apache, Plesk hat zwar in diese Richtung entwickelt, funktioniert im Moment aber noch nicht richtig. Unsere Technik hat im Repo die Integration von HTTP/2 nativ über den Apache2 bereits implementiert und die Tests laufen. Geplant ist der Rollout für Ende diesen Jahres.
Sonstiges: Vebserver -> Webserver TLS1.0 ist schon lange abgeschaltet, wo hast Du das noch gesehen? (Anmerkung techgrube.de: Stimmt, Artikel ist korrigiert) TLS1.3 ist noch lange nicht stable und somit nicht für den Massenbetrieb geeignet
Wegen der DSGVO müssen wir und die Kunden leider im Shared-Hosting auf einiges verzichten. Gerade um hier konform zur DSGVO zu sein, haben wir bewusst einige Funktionen wie SSH, RAM-Cache, TSL1.0 etc. ausgeschaltet / entfernt. Kunden die ggf. größere Projekte betreuen sollten so oder so auf eigenen Cloud Servern hosten, hier stehen dem Kunden dann natürlich auch RootSSH und alle anderen Annehmlichkeiten zur Verfügung: https://www.pixelx.de/cloud-server.html
P.S:: Nur zum Spaß falls Du Deinen Testaccount noch hast, installier mal W3 Total Cache und stell alles auf File-Caching. Ich habe binnen der letzten Jahre zig WPs auf Ladezeiten unter 0,12 Sek. bekommen (Aussage gilt nur für unsere Infrastruktur). Bei Fragen gerne auf mich zukommen. Wünsche noch einen schönen Abend!