y0o.de · GNU/Linux Nachrichten u.Ä.

🔒
❌ Über y0o.de
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Ältere BeiträgeITrig

ChatCrypt - verschlüsselter Onlinechat als CryptoCat Alternative

18. September 2013 um 12:27

Nicht erst seit PRISM ist Verschlüsselung in aller Munde, speziell bei Chatdiensten machte Cryptocat im Sommer negative Schlagzeilen. Das Chatsystem wurde gebrochen, weil unsichere Schlüssel verwendet wurden, geschuldet war dies, wie so oft, dem Zufallsgenerator. Auch wenn diese Fehler inzwischen behoben sind und das System wieder als sicher gilt, sind Alternativen gern gesehen.

Chatcrypt - Chatten mit Ende zu Ende Verschlüsselung

Hier kommt Chatcrypt ins Spiel. Der Onlinechat bietet Verschlüsselung auf militärischem Standard (AES 256-bit CTR Encryption) und besitzt somit eine rechte hohe Sicherheit beim persönlichen Austausch. 

  • Triple encryption - Zwei zusätzliche Sicherheitsebenen schützen Nachrichten, zusätzlich zum Standard-TLS-Protokoll.
  • Outstanding privacy - Konversationen können stattfinden, ohne dass persönliche Details oder Konten angegeben werden.
  • Real-time messaging - Alle Daten werden sofort zwischen den Parteien ausgetauscht. Nichts wird in eine Warteschlange gestellt oder gespeichert.

ChatCrypt

Jeder hat die Möglichkeit eigene Chaträume zu öffnen und ein vorher vergebenes Passwort an die gewünschten Chatteilnehmer weiterzugeben. Die ausgetauschten Nachrichten, werden 10 Sekunden verschlüsselt auf dem Server abgespeichert. Zusätzlich besteht für Blogger die Möglichkeit, den Chat in die eigene Seite einzubetten.

ChatCrypt

Leider existieren bei diesem Chat-System ebenfalls Nachteile, so existiert kein Browser Plugin und es lassen sich keine Daten versenden. Auch die vorhandene Werbung mag den ein oder andere stören, dafür ist der Dienst jedoch komplett umsonst, (im Notfall lässt sich diese ja blockieren) dennoch stellt der Dienst eine sichere Alternative zu anderen Chatservices dar.

ChatCrypt

Lazy Docker - schnell und einfach Docker Container via Konsole verwalten

10. April 2020 um 11:31

Um Docker Container zu verwalten gibt es viele Tools, da wäre zum Beispiel Portainer oder Rancher.

Lazy Docker

Aber es gibt auch schlichte Tools wie Lazy Docker.

lazydocker

Das in Go geschriebene Programm, läuft über die Konsole ist interaktiv und bietet schnellen Zugriff auf die wichtigsten Docker oder Docker Compose Funktionen. Folgende Funktionen werden aktuell (Version 0.8) unterstützt.

  • Zustand der Docker- oder Docker Compose Umgebung abfragen
  • Anzeige von Protokollen für einen Container oder Dienst
  • ASCII-Grafiken der CPU- und Speichernutzung von Containern anzeigen
  • Neustart, anhalten, entfernen, oder neuaufbauen von Containern oder Diensten
  • Anzeigen der einzelnen Schichten eines bestimmten Images
  • Aufräumen von Containern, Images oder Volumes mit prune

lazydocker-cpu

Lazy Docker installieren

Die Installation ist sehr einfach und kann direkt über wget oder via brew erledigt werden.

Der Einfachheit halber werde ich den ersten Weg wählen.

Vorrausetzung ist eine bestehende und laufende Docker Installation (ansonsten wäre die Nutzung des Programms wenig sinnvoll).

wget https://github.com/jesseduffield/lazydocker/releases/download/v0.12/lazydocker_0.12_Linux_x86_64.tar.gz
tar xvzf lazydocker*.tar.gz

sudo install lazydocker /usr/local/bin/
sudo systemctl status docker
sudo lazydocker

Die Steuerung erfolgt über die Pfeiltasten, das Menü lässt sich über x aufrufen und das Tool via Esc beenden.

Eine komplette Liste der Shortcuts findet ihr hier. Im Prinzip selbsterklärend.

Wer sich nicht selbst reinfinden möchte, der kann auch auf das Videotutorial zurückgreifen.

Fazit

Praktisches Tool, welches ohne Webserver oder dergleichen auskommt und etwas mehr Überblick bietet als die üblichen Konsolenbefehle.

Download Lazy Docker

Die 30 besten VS Code Erweiterungen für Administratoren und DevOps

05. Juni 2021 um 12:36

Wie bereits im letzten Artikel erwähnt, gibt es mit Visual Studio Code einen starken Editor, welcher sich mit Hilfe von Erweiterungen für jeden Einsatzzweck anpassen lässt.

Ich möchte euch einige davon vorstellen, welche sich für den Einsatz im Administrations- oder DevOps Bereich eignen.

Die 30 besten VS Code Erweiterungen

  1. Ansible Language: Zu dieser Erweiterung muss wenig gesagt werden. Ihr erhaltet YAML Support mit Syntax Highlighting, Autovervollständigung und der mitgelieferte YAML bzw. Ansible Linter zeigt euch Fehler adhoc an. ansible

  2. Apache Syntax Support: Der Name ist Programm und eure Apache Config Files erstrahlen beim Editieren in neuem Glanz, dank Syntax Highlighting.

  3. Atom Keymap: Solltet ihr aus der Atom Editor Welt kommen und eure alten Shortcuts vermissen, dann hilft das Plugin ungemein.

  4. Better Jinja: Das Arbeiten mit Jinja Templates kann schnell in die Verzweiflung führen. Durch diese Erweiterung erhaltet ihr neben Jinja auch Support für HTML, Markdown, YAML, CSS, Docker, Python und uvm. in euren Dateien. jinja

  5. Better TomlTom's Obvious, Minimal Language kommt immer mal wieder vor. Einige werden die Dateien von Gitlab kennen. Die Extension sorgt für bessere Lesbarkeit beim Editieren.

  6. Confluence: Atlassians Wiki Lösung findet sich sehr häufig in Unternehmen. Aus diesem Grund kommen einige sicher öfters mit deren Markup in Berührung. Hier gibt es Unterstützung für Confluence® and Jira® Markup.

  7. Debian Package Syntax Highlighting: Nur für diejenigen, die öfters mit DEB Paketen zu tun haben.

  8. Docker: Eigentlich schon essentiell, Docker Unterstützung für VS Code. docker

  9. Git History: Für Git fast unverzichtbar. Bereitet Logs auf, nimmt Grafiken zu Hand, kann vergleichen usw.

  10. Git Lens: Der selbst ernannte Supercharger. Bietet ähnlich wie Git History eine schöne Log Übersicht. Zusätzlich dazu kommen Features wie Revision Navigation, History Anzeige in der Status Bar oder der aktuellen Zeile.

  11. Gremlins Tracker: Wer kenn es nicht, ein unerwünschtes Leerzeichen sorgt im Code für Aufregung. Gremlins werden sie von dieser Erweiterung genannt und als solche auch in der Sidebar sichtbar gemacht. gremlins

  12. Hugo Language Support: NutzerInnen des Frameworks wird mit Syntax Highlighting und Snippets das Webseiten bauen erleichtert.

  13. Indent Rainbow: Einer meiner Favoriten, macht Nichts anderes als Einrückung kolorieren. Das hilft nicht nur bei YAML Dateien ungemein. 

  14. Jinja Syntax Highlighting: Jinja kann durchaus hilfreich sein, leider geht auch schnell die Übersicht im Code verloren. Durch Syntax-Hervorhebung kann dem aber vorgebeugt werden.

  15. Kubernetes: Die Beschreibung im Marketplace sagt eigentlich alles:  Develop, deploy and debug Kubernetes applications

  16. Nginx Configuration Language Support: Autovervollständigung bei der NGINX Konfiguration, nicht mehr und nicht weniger. Allerdings nicht mehr ganz aktuell. nginx

  17. Notepad++ Keymap: Für Umsteiger eignet sich diese Notepad++ Keymap.

  18. OpenSSL Utilities: Auf ITrig hatte ich bereits Anleitungen, wie Private Key, CSR oder self-signed Zertifikate über die Kommandozeile erstellt werden. Die Erweiterung erlaubt euch das Erstellen ohne weitere Kenntnisse der CLI Befehle direkt in Visual Studio Code. privkey

  19. Prettier: Schöner programmieren mit Prettier - Code formatter. Das Tools formatiert euren Code automatisch. Unterstützt werden JavaScript, TypeScript, Flow, JSX, JSON, CSS, SCSS, Less, HTML, Vue, Angular, GraphQL, Markdown, YAML.

  20. Projekt Manager: Wenn an mehreren Projekten gleichzeitig gearbeitet wird, kann es sinnvoll sein die Verwaltung dieser zu verbessern.

  21. Rainbow Brackets: Es wird wieder bunt. Regenbogenfarben für die runden Klammern, die eckigen Klammern und die verschnörkelten Klammern.

  22. Remote SSH: Dateien direkt auf Servern editieren kann durchaus praktisch sein.

  23. Salt-lint. Einfacher Linter für States und Pillars

  24. Saltstack: Analog zum Salt-Linter ist dieser Syntax Highlighter für Saltstack ein Muss. saltstack

  25. Snort:  NIDS/NIPS in Farbe.

  26. Sort: Wörter alphabetisch sortieren, einfach shift+alt+s  drücken

  27. Tomcat for Visual Code: Tomcat Server direkt aus VS Code starten und war Pakete debuggen.

  28. Toml Language Support: Ein weiterer Formater für Toml Dateien.

  29. XML Support: Alles was es für XML braucht in einem Plugin.

  30. YAML: Voller YAML Support mit Kubernetes Unterstützung. yaml

Themes

Damit die Arbeit noch mehr Spaß macht, gibt es ebenfalls viele Themes, sowie Icon Sets.

Hier eine kleine Auswahl an Themes, welche ich gerne einsetze.

  1. SynthWave 84 (die 80er sind zurück)
  2. Dracula Theme (schönes ausgewogenes Theme)
  3. Material Icons (Icons für die Ordner und Dateistruktur)
  4. Solarized Dark (Blau und Grüntöne, ist bei VSCode dabei)
  5. Monokai Pro (Theme und Icon Set zusammen)

synthwave

Eine schöne Übersicht mit Vorschauen vieler Themes bietet vscodethemes.com

Download

Schlussendlich fehlt wohl noch ein Link zu Visual Studio Code. Denn was helfen Erweiterungen, wenn der Editor fehlt.

Download VSCode

VS Code: Swissknife - konvertieren und generieren direkt im Editor

16. Mai 2021 um 12:23

Cyberchef (The Cyber Swiss Army Knife) hatte ich vor fast 4 Jahren auf ITrig erwähnt. Das Tool sagte mir damals wegen seiner praktischen Encoding beziehungsweise Decoding Funktionen zu.

Seitdem ist einige Zeit vergangen und Arbeitsweisen haben sich geändert. So verwende ich inzwischen unter anderem Visual Studio Code fürs tägliche Editieren. Durch die vielen Plugins ist der Editor sehr gut erweiterbar.

Genau hier kommt die Erweiterung Swiss Knife ins Spiel

 

VS Code – Swissknife

swissknife

Die Visual Studio Code Erweiterung von Luis Fontes beherrscht eine Menge an Funktionen, vom Hashes generieren, über Hex oder Base64 bis Markdown.

Das heißt eurer Editor wird mit wenigen Klicks um viele Alltagsanwendungen erweitert.

Folgende Funktionen beherrscht das Schweizer Messer für Visual Studio momentan:

  • Base64 decode

  • Base64 encode

  • Binary To Text

  • Bip39 Mnemonic

  • CSV to Markdown

  • Count characters

  • Count words

  • Crypto currency value

  • Date to Timestamp

  • Eliptic Curve Key Pair

  • Generate Password

  • HTML Encode (AlL)

  • Hex decode

  • Hex encode

  • Hex to RGB

  • Identify hash

  • JWT Decode

  • Join lines

  • Lorem Ipsum

  • Markdown to HTML

  • Md5 hash

  • New Swissknife Script (JS)

  • New Swissknife Script (TS)

  • Password strength

  • RGB To Hex

  • RSA Key pair

  • Random String

  • Request to fetch

  • SHA1 hash

  • SHA256 hash

  • SHA512 hash

  • Self Signed Certificate

  • Start Local HTTP Server

  • Start Local HTTPS Server

  • Stop HTTP Server

  • Text To Binary

  • Text to String

  • Timestamp to Date

  • To Camel Case

  • To Lower Case

  • To Morse code

  • To Upper Case

  • UUIDv4

  • Unicode decode

  • Unicode encode (js format)

  • Unix/Linux Permission To Human Readable

  • Url Decode

  • Url Encode

  • Url Encode (All Characters)

  • Url Shorten

  • Url Unshorten (url expand)

Die Funktionen lassen sich mit swissknife.show oder Strg+Shift+9 beziehungsweise cmd+shift+9 im Terminal aufrufen. (Text markieren vorher nicht vergessen).

Hat man die Tastenkombination einmal im Kopf, erleichtert die Erweiterung das Arbeiten an vielen Stellen sehr, vorrausgesetzt die Anwendungsfälle kommen öfters vor.

Download swissknife

 

Raspberry Pi 4 Kiosk - Bildschirmschoner unter Raspberry Pi OS deaktivieren

10. April 2021 um 13:01

Der Raspberry Pi ist schon längere Zeit in Version 4 verfügbar, Raspbian heißt nun Raspberry Pi OS und der dazugehörige Imager hat mehr Optionen erhalten (Strg + Shift +X).

Dies sind allerdings nicht die einzigen Neuerungen. Denn eine oft gestellte Frage hat nun ebenfalls eine andere Antwort.

Wie deaktiviere ich den Bildschirmschoner unter Raspberry Pi OS

Um den Bildschirmschoner zu deaktivieren, konnten bisher in einigen Dateien Hand angelegt werden.

So mussten in der Vergangenheit diverse Werte im Autostart eingetragen werden:

/home/pi/.config/lxsession/LXDE-pi/autostart

Beziehungsweise unter:

/etc/xdg/lxsession/LXDE-pi/autostart 

Details dazu findet ihr in einem alten Artikel.

Mit der neuen OS Version, welche auf Debian Buster basiert, ist dies nicht mehr nötig.

Der Hersteller hat diese Option nun direkt im Konfigurationstool versteckt. 

sudo raspi-config

[Menu] --> [Preferences] --> [Screen Blanking]

raspberrypi4-screensaveDie alten Methoden funktionieren nicht mehr.

Ein weiterer Workaround wäre die Installation eines extra Screensavers ( sudo apt-get install xscreensaver ), welcher dann deaktiviert wird. Dieser Schritt sollte im Normalfall allerdings nicht nötig sein.

 

NGINX - Webserver, Load Balancer und Proxy

28. Februar 2021 um 11:41

NGINX ist neben Apache einer der bekanntesten Webserver. Allerdings kann das Tool mehr als nur ein schlichter Webserver sein. Reverse Proxy, Load Balancer, Mail Proxy oder HTTP cache Server sind ein paar wenige Funktionen die Nginx beherrscht.

Ich möchte euch heute ein paar Beispiele zu einzelnen Funktionen zeigen. Den Anfang macht logischerweise die Installation. Als System verwende ich einen Ubuntu 20.04 LTS Server.

 

Nginx

 

Installation Nginx unter Ubuntu/Debian

Die Installation der frei verfügbaren Version (Die kommerzielle Variante nennt sich Nginx Plus) erfolgt über das Nginx Repository.

sudo wget https://nginx.org/keys/nginx_signing.key

sudo apt-key add nginx_signing.key

sudo nano /etc/apt/sources.list.d/nginx.list

  deb https://nginx.org/packages/mainline/ubuntu/ focal nginx
  deb-src https://nginx.org/packages/mainline/ubuntu/ focal nginx
              
sudo apt install nginx

sudo systemctl is-enabled nginx.service

sudo systemctl enable nginx

Nach der Installation erfolgt eine schnelle Kontrolle.

ss -ltn
ubuntu:~$ curl -I http://127.0.0.2

HTTP/1.1 200 OK
Server: nginx/1.19.6
Date: Thu, 17 Dec 2020 22:20:49 GMT
Content-Type: text/html
Content-Length: 612

Nginx selbst kompilieren

Es besteht auch die Möglichkeit, das Nginx Paket selbst zu kompilieren. Dies wird dann nötig, wenn Pakete benötigt werden, die in der Standardvariante nicht enthalten sind. Die war zum Beispiel bei der Verwendung von GeoIP oder LibreSSL mal bzw. ist noch so.

Mit dem folgenden Befehl können die installierten Module eingesehen werden.

Nginx –V

In der Standardinstallation sollte hier das Modul --add-dynamic-module=/build/nginx-5J5hor/nginx-1.18.0/debian/modules/http-geoip2 angezeigt werden. D.h. das eingangs erwähnte Geo IP Modul wird hier bereits geladen.

Einen eigenen Nginx Server unter Debian/Ubuntu einrichten

Nach einer erfolgreichen Installation zeigt Nginx eine Standardseite an. Diese kann gelöscht oder zusätzlich eine eigene virtuelle Seite angelegt werden. Auf einer IP können so mehrere Webseiten gehostet werden.

Folgende Struktur bietet sich unter Ubuntu an:

Konfiguration der einzelnen virtuellen Server.

/etc/nginx/sites-available/xyz

Momentan aktive Server wobei es sich hier um einen Symlink handelt.

/etc/nginx/sites-enabled/xyz

Schritt für Schritt heißt dies für einen Server welche auf Port 80 lauscht:

#config anlegen
touch /etc/nginx/sites-available/itrig

#config schreiben
nano /etc/nginx/sites-available/itrig

server {

        listen 80 default_server;    

        # Make site accessible from http://localhost/

        server_name localhost;
        location / {
            root /usr/share/nginx/html;
            index index.html index.htm;
        }
}

#aktiv setzen
ln -s /etc/nginx/sites-available/itrig /etc/nginx/sites-enabled/itrig

Konfiguration überprüfen

nginx –t

Neustart der Konfiguration mit

#lädt nur die neue Konfiguration
nginx –s reload

oder

sudo systemctl reload nginx


Nginx als Loadbalancer verwenden

Neben der reinen Webserverfunktion bietet NGINX die Möglichkeit den Server, als Loadbalancer zu betreiben. Da heißt der Server sorgt für Ausfallsicherheit bzw. Leistung von Webanwendungen, in dem er die Last verteilt. Vorstellen kann man sich dies wie einen Haupthändler, welcher Daten unter verteilt.

LoadbalancerNginx bietet mehrere Varianten an, wie diese Verteilung geschehen kann.

Round Robin

Das bekannteste dürfte das Round Robin Verfahren sein. Es wird eine Liste von Servern durchgearbeitet und die Last nach und nach verteilt. Ist die Liste zu Ende, fängt der Server wieder am Anfang an.

Im unteren Beispiel werden 3 Server in der Gruppe "itrigloadbalancer" zusammengefasst und der Webserver geht diese Liste nach und nach durch. Unterstützt werden die Protokolle HTTP, HTTPS, FastCGI, uwsgi, SCGI, memcached, und gRPC.

http {
    upstream itrigloadbalancer {
        server srv1.example.com;
        server srv2.example.com;
        server srv3.example.com;
    }

    server {
        listen 80;

        location / {
            proxy_pass http://itrig.de;
        }
    }
}

Least Connected

Eine weitere Lastverteilung ist das Least-Connected-Verfahren. Hier wird auf die aktiven Verbindungen der einzelnen Server geschaut. Der Server, welcher die geringste Anzahl an aktiven Verbindungen hat, bekommt die Anfrage zugeschanzt.

upstream intrigleastload {
        least_conn;
        server srv1.example.com;
        server srv2.example.com;
        server srv3.example.com;
    }

Session-Persistenz - IP Hash

Die dritte Möglichkeit Last zu verteilen, stellt das IP-Hash-Verfahren dar. Hier werden von den zugreifenden Client IPs Hash Werte erstellt. Anhand dieser Werte wird einem Client immer ein bestimmter Server zugewiesen. Damit erhält der Nutzer eine Session Persistenz, da Anfragen immer vom gleichen Server beantwortet werden.

Beim Round-Robin- oder Least-Connected-Load-Balancing kann jede nachfolgende Anfrage eines Clients potenziell auf einem anderen Servern ankommen.

upstream itrighash {
    ip_hash;
    server srv1.example.com;
    server srv2.example.com;
    server srv3.example.com;
}

Weighted load balancing

Alle Varianten lassen sich zusätzlich gewichten. So kann es vorkommen, dass ein Server eine bessere Hardware verbaut hat, als ein anderer. Mit Weighted load balancing lässt sich einzelnen Geräten mehr Last zuschieben.

upstream itrigmitgewicht {
        server srv1.example.com;
        server srv2.example.com weight=3;
        server srv3.example.com;
    }
upstream itrig {
    ip_hash;
    server srv1.example.com weight=2;
    server srv2.example.com;
    server srv3.example.com;
}

Mehr zu der Thematik unter load_balancing.


Nginx als Reverse Proxy verwenden

Den aufmerksamen Lesern dürfte aufgefallen sein, dass in einem Code Beispiel weiter oben eine Zeile mit "proxy_pass" vorhanden ist. Diese Zeile deutet darauf hin, dass NGINX als Reverse Proxy eingesetzt wird und ein Aufruf nicht direkt auf dem Server landet, sondern weitergeleitet wird.

location /webshop {
proxy_pass http://opencart.itrig.local;
}

location /landkarte {
proxy_pass http://192.168.100.99;
}

Es gibt verschiedene "Vorteile" für so eine Weiterleitung.

So kann der Nginx als HTTPS Endpunkt dienen und die Struktur dahinter kann unverschlüsselt agieren. Auch bietet NGINX die Möglichkeit als Reverse Proxy und als Load Balancer gleichzeitig zu arbeiten, die Details sind weiter oben zu lesen.

Weiter erlaubt der vorgeschaltete Server eine Caching Funktion, was zum schnelleren Ausliefern von Webseiten beitragen kann.

Hier ein Beispiel mit gesplittetem Cache aus der offiziellen NGINX Cache Dokumentation.

proxy_cache_path /path/to/hdd1 levels=1:2 keys_zone=my_cache_hdd1:10m
                 max_size=10g inactive=60m use_temp_path=off;
proxy_cache_path /path/to/hdd2 levels=1:2 keys_zone=my_cache_hdd2:10m
                 max_size=10g inactive=60m use_temp_path=off;

split_clients $request_uri $my_cache {
              50%          “my_cache_hdd1”;
              50%          “my_cache_hdd2”;
}

server {
    # ...
    location / {
        proxy_cache $my_cache;
        proxy_pass http://my_upstream;
    }
}

Das Thema Sicherheit spielt ebenso eine Rolle, da durch den vorgeschalteten Server, die Angriffsfläche kleiner gehalten wird.


NGINX mit Regex

Richtig interessant wird es, sobald die aufgerufene URL verschiedene Eigenschaften besitzt bzw. ein besonderes Verhalten zeigen sollte.

Diese Eigenschaften werden mit regulären Ausdrücken umgesetzt.

Hier sind ein paar Beispiele von regulären Ausdrücken für NGINX :

# Die URL ist durch * case insensitive
 location ~* /itrig/ {
    #...
    #...
    }

# Die URL ist case sensitive das ^ sorgt dafür das nur z.B. /itrig/logo.jpg gültig ist und nach dem ersten Match gestoppt wird.
 location ^~ /itrig/ {
    #...
    #...
    }

# Bilder anhand der Endung umleiten
 location ~ \.(gif|jpg|png)$ {
    root /data/images;
    }

# Unnötige Endungen aussperren (case insensitive)
 location ~* "\.(old|orig|original|php#|php~|php_bak|save|swo|aspx?|tpl|sh|bash|bak?|cfg|cgi|dll|exe|git|hg|ini|jsp|log|mdb|out|sql|svn|swp|tar|rdf)$" {
    deny all;
    }

# Einen Alias setzen
 location /_/static {
        alias /path/to/glory;
    }

# Rewrite einer URL,  "pfad" wird entfernt
    location /pfad {
        rewrite ^/pfad(.*)$ $1 break;
        proxy_pass http://splunk-api:8080;
    }

Es bietet sich immer an, eigene Befehle zu testen, bevor sie produktiv eingesetzt werden, denn neben Einschränkungen auf URLs kann ebenso Haus und Hof geöffnet werden.

Ein Regex Test sollte daher immer gemacht werden. Hier findet sich so ein Tool online regex.datahoarder.dev.

Das Tool kann jederzeit auf der eigenen Umgebung gehostet werden und ist auf Github zu finden.

Nginx_Regular_Expression_Tester

 

Was ist der Unterschied zwischen SMR und CMR bzw. PMR Festplatten ?

20. Dezember 2020 um 14:33

Bei mir stand wegen defekten Festplatten ein Tausch im hauseigenen NAS an. Der letzte Tausch ist lange her und inzwischen haben Kürzel wie SMR und PMR oder CMR in Produktbeschreibungen Einzug gehalten.

Doch wo genau ist eigentlich der Unterschied und warum unterstützt Synology keine SMR Festplatten?


CMR/PMR Technologie

PMR (Perpendicular Magnetic Recording) auch bekannt als CMR (Conventional Magnetic Recording) stellt die momentan übliche Methode dar, um Daten auf eine Festplatte zu schreiben. Hier wird senkrecht auf die einzelne Platte geschrieben. Dadurch kann eine hohe Datendichte erreicht werden und die Daten landet sofort auf ihrem finalen Speicherplatz.

SMR Technolgie

SMR (Shingled Magnetic Recording) ist die neuere Technologie und schreibt Daten anders auf Festplatten. Die Schreibspuren überlappen teilweise und vorhandene Spuren müssen nach einem Schreibvorgang eventuell noch einmal neu geschrieben werden. Um einen Datenverlust zu verhindern, besitzen diese Platten einen PMR Cache auf den äußeren Spuren. Dieser dient dem Zwischenspeichern der Daten bis sie auf den finalen Platz gelegt werden können. Diese Technologie bietet noch größere Speicherdichte, allerdings kann es bei vollem Cache auch dazu kommen, dass die Datenraten einbrechen.

Seagate

Auf den Webseiten der Hersteller wird inzwischen klar dargestellt, welche Festplattentechnologie zum Einsatz kommt, das war nicht immer so.

CMR_und_SMR___Seagate

(Bild: Seagate)

Western Digital

blog.westerndigital.com/wd-red-nas-drives/

(Bild: Western Digital)

Toshiba

Information zu Toshiba Platten findet ihr hier.

Synology NAS

Im Netz ist immer wieder davon zu lesen, dass der Hersteller der bekannten NAS Systeme keine SMR Festplatten unterstützt und das ist Stand 12/2020 richtig so. Synology hat eine eigene Seite, in der die SMR/CMR Technologien noch einmal erklärt werden.

Zusätzlich wird eine Kompatibilitätsliste für alle Festplattenhersteller angeboten. Prüft vor einen Kauf, ob das Modell unterstützt wird.

Zusammenfassung

  • CMR wird oft bei NAS Festplatten als Bezeichnung verwendet, damit ist PMR gemeint und die „normale“ Schreibart
  • CMR Festplatten bieten hohe Übertragungsraten (Streaming vom NAS z.B.)
  • SMR Festplatten haben eine geringere Leistungsaufnahme und benötigen weniger Scheiben bei mehr Speicherplatz
  • SMR Festplatten können beim Schreibvorgang langsamer werden (Cache-Overflow)
  • SMR Festplatten eigenen sich besser als Archiv, bei ständigen Schreibvorgängen kann ein Cache-Overflow drohen
  • Neue Anwender Festplatten setzen oft auf die SMR Technologie, da diese günstiger ist. (BarraCuda oder teilweise Western Digital Red/Blue). Welche Technologie die Hersteller den einzelnen Festplatten mitgegeben haben könnt ihr in den Screenshots oder beim Hersteller einsehen (Seagate oder Western Digital oder Toshiba)
  • NAS Festplatten verwenden meist CMR/PMR (Seagate IronWolf, Western Digital Red Plus)

 

BlackArch Linux 2020.12.01 und Kali Linux 2020.4

09. Dezember 2020 um 16:36

BlackArch Linux 2020.12.01

Das auf Arch Linux basierende Sicherheitswerkzeug enthält nun den Linux-Kernel 5.9.11, aktualisierte Pakete, Konfigurationsdateien und Werkzeuge. Außerdem wurden mehr als 100 neue Hacking-Tools hinzugefügt, sodass sich die Gesamtzahl der Tools in BlackArch auf  über 2000 beläuft.

 

blackarch

Weitere Information beinhaltet der Changelog

  • added more than 100 new tools
  • renamed 'live iso' to 'full iso'
  • updated blackarch-installer to v1.2.16
  • included linux kernel 5.9.11
  • adapted ISO creation to the new archiso version (work in progress)
  • removed unnecessary files from the ISO env
  • QA'ed and fixed a lot of packages (runtime exec, missing dependencies...)
  • updated all vim plugins and improved vim config options
  • updated all blackarch tools and packages including config files
  • updated all system packages
  • updated all window manager menus (awesome, fluxbox, openbox)

BlackArch


Kali Linux 2020.4

Der Platzhirsch hat ebenfalls geliefert und bringt die ZSH Shell für alle, die das Schweizer Messer frisch installieren. Das BASH Terminal hat in diesem Zuge auch ein Makerover erhalten und sieht nun etwas mehr nach ZSH aus.

Kali_Linux

Wer mit ZSH so gar nicht auf einen grünen Zweig kommt, es gibt einen Weg zurück zu BASH:

chsh -s /bin/bash

Zusätzlich hat die Kommandozeile einen neuen Infobereich erhalten, welcher sich je nach Installationsart anders präsentiert.

 

Win-KeX 2.5, der Windows Modus für WSL2 bringt den neuen “Enhanced Session Mode”, was Win-KeX auf Windows on ARM Geräten ermöglicht.

Dieses Feature wird in Zukunft relevanter werden, da Microsoft nun mit Surface X auch ARM Geräte im Portfolio hat. Solange aber WSL2 nicht richtig zusammen mit VirtualBox und Co funktioniert, ist dies weiterhin experimentell. (Siehe ITrig Artikel)

Die Kali-Dokumentation wurde schon vor einiger Zeit von WordPress zu Hugo migriert und ist unter kali.org/docs zu finden. Das Design wurde hier weiter angepasst.

Bei den Tools haben sich ebenfalls einige Neuzugänge eingeschlichen: Apple bleee, CertGraph, dnscat2, FinalRecon, goDoH, hostapd-mana, Metasploit Framework v6 und Whatmask

Weitere Änderungen können dem Changelog entnommen werden.

Download Kali



Übersicht 12/2020

 

Name Version Tools Besonderes Basis GUI
Autopsy 4.17.0 ??? The Sleuth Kit Windows  
BackBox 7.0 100+ AWS Ubuntu Xfce
BlackArch 2020.12.01 1750+ ArchLinux ArchLinux Multi
CAINE 11 100+ WinUFO Ubuntu Mate
DracOS 3.0   veraltet LFS DWM
DEFT Zero 2018.2   offline Lubuntu 14.04 Lxde
Kali Linux 2020.04 300+ ARM Images Debian Testing Multi
Kali AppStore   40+   Android  
LionSec 5.0   veraltet Ubuntu  
Matriux v3 RC1   offline Debian Gnome
NST 32 ??? Server integriert Fedora 32  
NetSecL OS 6.0   veraltet OpenSuse Lxde
Paladin 7.0     Ubuntu  
Parrot OS 4.10 700+ Cloud fähig Debian Buster MATE/KDE
Pentoo 2018.0 RC7.1   veraltet Gentoo Xfce
Ronin     veraltet Lubuntu Lxde
Sans SIFT 3.0   veraltet Ubuntu  

Lösung: Monero Wallet konnte nicht geöffnet werden std::bad_alloc

09. Dezember 2020 um 12:06

Dieser Bitcoin wird ja gerade wieder durchs Dorf gejagt, somit lohnt sich auch wieder ein Blick ins Monero Wallet dachte ich mir, allerdings erhielt ich beim Öffnen diesen feinen Fehler:

Wallet konnte nicht geöffnet werden std::bad_alloc bzw. "Couldn't open wallet: std::bad_alloc"

Monero

„Alles weg?“, geht einem fix durch den Kopf, muss aber nicht. Denn die GUI, welche seit Jahren auf einer Platte schlummerte, war einfach total veraltet.

Mit einer aktuellen GUI Version (0.17.1.6) von getmonero lief dann alles wieder wie geschmiert.

 

Windows 10 bootet erst im 2. Versuch - Eine Lösung

29. August 2017 um 11:46

Die Tage hatte ich ein interessantes Problem an einem Windows 10 Rechner.

Der Dell PC bootete und zeigte das Windows 10 Logo, danach passierte nichts weiter. Der PC war mit dem Anzeigen des Windows Logos quasi eingefroren.

Nach einem harten Reset bootete der PC völlig normal und Windows zeigte nach dem Start ebenfalls keinerlei Fehler an. Dieses Spiel konnte endlos wiederholt werden.

 

Schlaflos - Der Schnellstartmodus

Die Lösung war recht schnell gefunden. Der sogenannte Schnellstartmodus hatte sich nicht mit der schon etwas älteren Hardware vertragen.

Windows 10 fährt den PC nicht mehr richtig herunter, sondern versetzt ihn nur noch in einen Ruhemodus, damit haben manche Geräte wohl ihre Probleme.

Der Schnellstartmodus lässt sich über die "Systemsteuerung\Alle Systemsteuerungselemente\Energieoptionen\Was beim Drücken von Netzschaltern geschehen soll" anpassen.

windows10-energieoptionennetzschalter-windows10schnellstart-win10

Wer sich mit den neuen Windows Menüs noch nicht zurechtfindet, der kann den Weg über die alte Systemsteuerung gehen, diese muss allerdings via Cortana gesucht oder mit "Windows Taste+Pause" (startet im Untermenü "System") aufgerufen werden.

Diese Lösung funktioniert mit allen Windows 10 Versionen.

Sailfish OS Kontakte exportieren und auf Android oder iOS importieren

03. November 2020 um 12:03

Der Vorgang klingt abstrus, denn wer will schon von Sailfish OS auf Android wechseln, dennoch wurde mir genau diese Frage neulich gestellt.

Sailfish OS Kontakte exportieren

Wie lassen sich Sailfish OS Kontakte zum Beispiel von einem Jolla oder Sony auf Android exportieren?

Die Sailfish Kontakte App bietet keinen direkten Export an, dennoch ich es möglich ein Full Backup des Gerätes zu erstellen und genau damit befinden wir uns schon auf dem richtigen Weg.

Das neueste Sailfish OS (Pallas-Yllästunturi) erlaubt sogar das Erstellen eines vollen Backups direkt in eine Nextcloud, Dropbox oder ownCloud. Die so erstellte TAR Datei muss nur noch entpackt werden. Unter ".\People\data\all.vcf" ist eine VCF Datei mit allen euren Kontakten zu finden, die dann in Android oder iOS importiert werden können.

  1. Datensicherung in Sailfish OS direkt zu Nextcloud erstellen
  2. sailfish_backup_2020-10-28T20-33-00Z.tar entpacken
  3. all.vcf suchen .\People\data\all.vcf
  4. Datei in Android oder iOS importieren

sailfishos-backup

LVM Anleitung - Volume Group umbenennen (Ubuntu/Mint)

29. Oktober 2020 um 15:45

Nachdem ich vor ein paar Tagen auf LVM und einen Update Fehler eingegangen bin, möchte ich heute kurz zeigen, wie eine Volume Group umbenannt werden kann.

Unter Ubuntu/Mint ist das an sich nur ein Befehl, allerdings sollten noch weitere Dateien angepasst werden, da es sonst zu Problemen kommt.

fstab

LVM - Volume Group umbenennen

Informationen zur vorhandenen Volume Group anzeigen

sudo vgdisplay

 

Volume Group umbenennen

sudo vgrename Ubuntu16 ubuntu

  Volume group "Ubuntu16" successfully renamed to "ubuntu"

 

File system table editieren und Name anpassen

sudo  nano /etc/fstab

# <file system> <mount point>   <type>  <options>       <dump>  <pass>

/dev/mapper/ubuntu-root /               ext4    errors=remount-ro 0   1

/dev/mapper/ubuntu-tmp  /tmp            ext4    errors=remount-ro 0   1

/dev/mapper/ubuntu-var  /var            ext4    errors=remount-ro 0   1

 

Initramfs anpassen, ebenfalls hier den neuen Namen einfügen

sudo nano /etc/initramfs-tools/conf.d/resume

 

Danach muss noch der Grand Unified Bootloader GRUB angepasst werden

sudo nano /boot/grub/grub.cfg

 

Ab Ubuntu 18.04 gilt es einen weitereren Eintrag zu editieren

sudo nano /boot/grub/menu.lst

 

Nun muss noch das initial ram filesystem neu gebaut werden

sudo  update-initramfs -u -k all

 

Mögliche Fehlermeldung

update-initramfs: Generating /boot/initrd.img-5.4.0-52-generic

cryptsetup: ERROR: Couldn't resolve device

Solltet ihr cryptsetup nicht verwenden, dann könnt ihr diesen Fehler ignorieren oder auch gleich deinstallieren

sudo apt-get remove cryptsetup

Alles auf einmal

Hier nochmal alle Schritte zusammengestellt. Der Einfachheit halber, können Änderungen mit sed gemacht werden

#!/bin/bash

altevolumegroup="ubuntu16"
neuevolumegroup="ubuntu"

vgrename ${altevolumegroup} ${neuevolumegroup}
sed -i "s/${altevolumegroup}/${neuevolumegroup}/g" /etc/fstab
sed -i "s/${altevolumegroup}/${neuevolumegroup}/g" /boot/grub/grub.cfg
sed -i "s/${altevolumegroup}/${neuevolumegroup}/g" /boot/grub/menu.lst
sed -i "s/${altevolumegroup}/${neuevolumegroup}/g" /etc/initramfs-tools/conf.d/resume
update-initramfs -c -k all

Anstatt des Namens kann übrigens auch die UUID genommen werden. Allerdings solltet ihr das Script dann so nicht verwenden.

vgrename Zvlifi-Ep3t-e0Ng-U44h-o0ye-KHu1-nl7Ns4 ubuntu

 

LVM Fehler nach Ubuntu 20.04 Update - VG is using an old PV header, modify the VG to update

23. Oktober 2020 um 18:26

Neulich ist mir ein Fehler beim Update von Ubuntu 16.04 auf Ubuntu 20.04 im LVM aufgefallen. Und zwar wurde eine Meldung angezeigt, die auf alte PV (Physical Volume) Header in einer VG (Volume Group) anspielt.

Ich hatte zum Thema LVM vor langer Zeit mal einen Artikel verfasst, falls es jemanden interessiert.

Der Fehler lässt sich mit dem Befehl vchck, welcher die Konsistenz von VGs prüft, nachstellen:

sudo vgck
  WARNING: PV /dev/sda2 in VG derVolumeGroupName is using an old PV header, modify the VG to update.
  WARNING: PV /dev/sda5 in VG derVolumeGroupName is using an old PV header, modify the VG to update.


Mit dem gleichen Tool lässt sich der Fehler beheben und zwar mit der Option updatemetadata, laut man pages kann er folgendes:

Update VG metadata to correct problems.  If VG metadata was updated while a PV was missing, and the PV reappears with an old version of metadata, then this option (or any other command that writes metadata) will update the metadata on the previously missing PV.

 Der LVM Fehler sollte nach dem Ausführen von vgck zusammen mit updatemetadata nicht mehr auftauchen.

 sudo vgck --updatemetadata derVolumeGroupName

 

LVM Partitionen in Ubuntu, Linux Mint und der Konsole erstellen,vergrößern oder verkleinern - Eine Anleitung

21. Mai 2012 um 10:45

Die Wikipedia schreibt zu LVM: „Der Logical Volume Manager (LVM) ist eine hauptsächlich im Unix- und Linux-Umfeld verbreitete Abstraktionsebene zwischen Festplatten, Partitionen und Dateisystemen. Durch den LVM ist es möglich, dynamisch veränderbare Partitionen (Logical Volumes, kurz LV) zu bilden, die sich auch über mehrere Festplatten hinweg erstrecken können. Die Größe dieser virtuellen Datenträger lässt sich auch nach dem Anlegen eines Dateisystems noch ändern, selbst wenn schon Daten darin gespeichert wurden."

Es handelt sich somit schlicht um eine Festplattenpartitionierung, diese kann unter Ubuntu oder Mint mit Hilfe einer grafischen Oberfläche oder in der Konsole erstellt werden. Zunächst etwas zum Aufbau des Systems:

Allgemeine Aufteilung innerhalb eines LVM

  • Physical Volume (PV): /dev/sda (Eine oder mehrere Festplatten)
  • Volume Group (VG): Dynamische Zusammenfassung dieser Festplatten zu einem Pool bzw. Gruppe. Das heißt eine Volume Group kann sich auch über mehrere Festplatten erstrecken.
  • Logical Volume (LV): Logische Laufwerke innerhalb dieser Gruppe (unter Windows bekannt als C:\ oder D:\)

lvm-aufbau

 

LVM automatisch erstellen

Um alles automatisch zu erstellen ist kein großer Aufwand nötig. Man wählt einfach während der Installationsroutine die geführte Partitionierung für die gesamte Festplatte mit LVM aus und Ubuntu erledigt den Rest.

LVM Partitionen unter Ubuntu oder Mint von Hand erstellen

1. Um eine Partitionierung von Hand vorzunehmen, muss von der vorhandenen Festplatte eine primäre /boot Partition am Anfang erstellt werden. Diese sollte nicht größer als 300MB sein. Hier ein Beispiel aus Linux Mint.

mint-laufwerke

2.Danach kann der Rest der Festplatte mit dem Logical Volume Manager unterteilt werden. Dazu wählt man beispielsweise unter Ubuntu „Configure the Logical Volume Manager“ aus.

lvm-ubuntu

3. Jetzt muss, wie der Unterteilung oben zu entnehmen ist, erst eine Volume Group erstellt werden ("Create Volume Group"). Wir nennen die VG „Gruppe1“ und teilen ihr „/dev/sda1“ (free space) zu.

4. Nun kann mit der Erstellung der einzelnen logischen Partitionen fortgefahren werden (siehe Partitionen unter Ubuntu Server und Desktop). Dazu wählt man im gleichen Menü "Create logical Volume“ aus und gibt den Namen und die Größe der Partition an. Es werden auf jeden Fall die root, swap und data bzw. home Partition benötigt. Hat man alle Partitionen eingerichtet, geht man auf „Finish“ und fährt mit dem nächsten Schritt fort.

mountpoint-ubuntu

5. Unter Linux ist es so, dass wir den logischen Laufwerken noch das Dateisystem (aktuell ist ext4) und sogenannte Mountpoints zuweisen müssen.

  • /root
  • /swap
  • /home bzw. /data
  • /var
  • /usr

mountpoint2-ubuntu

 

6. Ist jede Partition eingerichtet, erhaltet ihr einen Überblick, der ungefähr wie folgt aussehen sollte. Sobald ihr die Konfiguration bestätigt, wird Ubuntu in euer eigens erstellten Partitionen installiert.

partitionen-ubuntu

LVM Partitionen über die Konsole erstellen

Natürlich kann mit dem LVM auch über die Konsole gearbeitet werden. Wer also die grafische Oberfläche scheut kann folgendermaßen vorgehen.

Das LVM System kommt mit Linux, kennt jedoch die verbauten Festplatten nicht, darum müssen diese dem System bekannt gemacht werden. Zuerst sollten die vorhanden Platten ausgelesen werden, um sie dann in den Logical Volume Manager einzulesen. Der ganze Prozess ist mit ein paar Befehlen recht schnell erledigt.

Auslesen der eingebauten Platten

df –h

Erstellt die Physical Volumes im LVM

pvcreate /dev/sda /dev/sdb

Erstellt eine Volume Group "Gruppe1" aus den eingelesenen Festplatten

vgcreate Gruppe1 /dev/sda /dev/sdb

Erstellt aus der VG "Gruppe1" das logische Laufwerk "data" mit 30GB Speicher

lvcreate -n data -L 30G Gruppe1

Das Laufwerk ist nun unter /dev/Gruppe1/data/ zu finden, nun kann das logisches Laufwerk "data" formatiert werden

mkfs.ext4 /dev/Gruppe1/data

Nun kann das Laufwerk unter "data" gemountet werden

mount /dev/Gruppe1/data /mnt/data

LVM Partition über die Konsole vergrößern

Sollte es je vorkommen, das die angelegte Partition zu klein wird. Kann diese in wenigen Schritten über die Konsole erweitert werden.

Überprüfen ob Speicherplatz auf der Volume Group vorhanden ist (Unter Free PE / Size sind die Werte zu finden)

vgdisplay Gruppe1

Ist das nicht der Fall, muss die neue Festplatte/Partition erst der VG "Gruppe1" hinzugefügt werden. Alternativ geht dies auch direkt über fdisk und co.

vgextend Gruppe1 /dev/sda2

Danach das Logische Laufwerk um 20GB vergrößern

lvextend –L +20G /dev/Gruppe1/data

Nun ist das Device vergrößert und das Dateisystem (ext3 oder ext4) muss ebenfalls vergrößert werden.

resize2fs /dev/Gruppe1/data

Alternativ kann das Laufwerk auch auf 10GB verkleinert werden

unmount /dev/Gruppe1/data

resize2fs –s -10G /dev/Gruppe1/data

lvreduce –L 10G /dev/Gruppe1/data

 

Die wichtigsten LVM Konsolenbefehle für Physical Volumes, Volume Groups und Logical Volumes

Als letzter Punkt noch einmal ein paar der wichtigsten Befehle im Überblick

  • pvcreate - Erstellen eines physikalischen Volumes
  • pvdisplay - Anzeigen der physikalischen Volumes
  • pvs - Anzeigen von Statistiken über physikalische Volumens
  • pvscan - Festplatten nach physikalischen Volumens durchsuchen
  • pvresize - verändern der Größe eines PV
  • pvmove - verschieben von PVs

 

  • vgcreate - Erstellen einer Volume Group
  • vgdisplay - Anzeigen von Volume Groups
  • vgs - Anzeigen von Statistiken über die vorhandenen Volume Groups
  • vgscan - Festplatten nach Volume Groups durchsuchen
  • vgck - Überprüfen einer Volume Group
  • vgrename - umbenennen einer Volume Group
  • vgextend - Vergrößern einer Volume Group
  • vgreduce - Verkleinern der Volume Group

 

  • lvcreate - Erstellen von logischen Laufwerken
  • lvdisplay - Anzeigen der logischen Laufwerken
  • lvs - Anzeigen der Statistiken über die logischen Laufwerken
  • lvscan - Suchen nach logischen Laufwerken im System
  • lvrename - Umbenennen von logischen Laufwerken
  • lvextend - Vergrößern von logischen Laufwerken
  • lvreduce - Verkleinern von logischen Laufwerken
  • lvresize - Größe von logischen Laufwerken anpassen

PostgreSQL 12 Cluster auf PostgreSQL 13 aktualisieren

19. Oktober 2020 um 16:44

Die neue Version der Datenbanksoftware ist bereits einige Tage verfügbar.

Wer sich mit den Neuerungen beschäftigen möchte, der kann gerne in die Release Notes schauen oder sich diese Video zu Gemüte führen.

 

Hier soll es heute um das Update auf die neueste Version unter Ubuntu, Mint und Co gehen.

An dieser Prozedur hat sich seit den letzten Releases nicht wirklich etwas geändert, dennoch kann es nicht schaden, den Vorgang noch einmal durchzuspielen.

postgres_logo

Installation und Update auf PostgreSQL 13 unter Ubuntu

# Create the file repository configuration:
sudo sh -c 'echo "deb http://apt.postgresql.org/pub/repos/apt $(lsb_release -cs)-pgdg main" > /etc/apt/sources.list.d/pgdg.list'

# Import the repository signing key:
wget --quiet -O - https://www.postgresql.org/media/keys/ACCC4CF8.asc | sudo apt-key add -

# Update the package lists:
sudo apt-get update

# Install the latest version of PostgreSQL.
sudo apt-get -y install postgresql-13

# Sicherung erstellen
sudo su postgres
pg_dumpall > Sicherung
exit

#Vorhandene Cluster anzeigen
pg_lsclusters

#Neues Cluster anhalten
sudo pg_dropcluster --stop 13 main

#Vorhandenes Cluster aktualisieren
sudo pg_upgradecluster 12 main

postgresql13

Nun kanns die neue Version getestet werden, sollte alles korrekt sein, kann das alte Cluster entfernt werden

sudo pg_dropcluster 11 main
sudo pg_dropcluster 12 main

 

Läuft nicht ganz rund – WSL2 mit Windows 10 2004 und VirtualBox

20. September 2020 um 14:29

In der Vergangenheit hatte ich bereits über WSL2 berichtet und die neuen Funktionen, die damit einhergehen. Leider kommt es nach der Aktivierung von WSL2 unter Windows 10 2004 zu Problemen mit VirtualBox.

Microsoft sind Probleme bekannt und listet dies auch auf der betreffenden FAQ Seite auf.

Ich hatte beispielsweise in der Vergangenheit mit aktivem WSL2 Probleme meine vorhandene Linux Server Systeme zu starten, bereits beim Bootvorgang kam es zu Kernel Fehlern, welche das System ausbremsten.

Da waren Fehler wie VERR_NEM_VM_CREATE_FAILED oder VERR_NEM_MISSING_KERNEL_API_2

WSL1 kannte diese Probleme noch nicht, da es Hyper-V (Windows Hypervisor Plattform) nicht verwendete, WSL2 tut aber genau dies, was wiederum zu dubiosen Fehlermeldungen in Verbindung mit VirtualBox führt.

Schlimmer wurde es mit Ubuntu Desktop 20.04 unter VirtualBox, hier war es nicht mehr möglich ein apt update auszuführen, ohne Hash Fehler (Hash sum mismatch) zu erhalten.

Hash_sum_mismatch

WSL2 und VirtualBox entweder oder - Die Lösung

Zunächst solltet ihr für eine aktuelle Umgebung sorgen

  • Aktualisiert VirtualBox, die neueste September Version 6.1.14 hat eines der hier beschriebenen Probleme gelöst. Changelog-6.1#v14
  • Deaktiviert das  Feature Windows Feature "Plattform für virtuelle Computer", damit greift VirtualBox auf seine eigene Engine zurück

PlattformfuervirtuelleComputer

Nach einem Neustart sollten alle Probleme in VirtualBox in Verbindung mit Linux Installation und Fehlern wie "Hash sum mismatch" oder "failed to fetch store" der Vergangenheit angehören. Negativer Effekt, WSL2 funktioniert nun nicht mehr.

Zum besseren Verständnis eine Übersicht der einzelnen Funktionen

  • Hyper-V ist der Hypervisor von Microsoft.
  • Plattform für virtuelle Computer - Ermöglicht Unterstützung für virtuelle Maschinen und ist für WSL2 erforderlich.
  • Windows-Hypervisor-Plattform - Ermöglicht die Ausführung von Virtualisierungssoftware auf dem Windows-Hypervisor. Die Hypervisor-Plattform ist eine API, die Drittanbieter-Entwickler für die Verwendung von Hyper-V verwenden können, beispielsweise Oracle VirtualBox oder Docker.

 

WSL und VirtualBox zusammen verwenden

Wie bereits oben erwähnt ist momentan ein Zusammenspiel von VirtualBox und WSL2 nicht ohne Probleme möglich.

Wer dennoch beide System verwenden möchte, der hat momentan nur die möglich auf WSL1 downzugraden.

WSL-Ubuntu_18.04_LTS_downgrade

dism.exe /online /enable-feature /featurename:VirtualMachinePlatform /all /norestart

wsl --list –verbose

wsl --set-version kali-linux 1

dism.exe /online /disable-feature /featurename:VirtualMachinePlatform /norestart

 

WSL selbst sollte natürlich weiterhin in den Windows Einstellungen aktiv sein.

WindowsSubsystemfuerLinux

Neue Sicherheitsdistributionen veröffentlicht: Kali 2020.3 und Parrot 4.10

23. August 2020 um 22:46

Zum Ende des Quartals haben die zwei Szenegrößen Kali und Parrot neue Versionen ihrer Security Distributionen veröffentlicht. Kali 2020.3 hat eine Z-Shell bekommen und Parrot 4.10 ein Update seines AnonSurf (Tor-Netzwerk) Tools implementiert. Hier die Details der Releases.

 

parrot

Parrot Security 4.10

Neben den üblichen Updates wie des Kernels (5.7) und der vorhandenen Tools fällt bei der Installation die neue Auswahl von XFCE als Desktopumgebung auf.

Anonym

Dennoch ist die größere Neuerung AnonSurf 3.0. Das hauseigene Tool wurde in 3 Module (GUI, Daemon und Utilities) unterteilt. Die in Nim geschriebene Oberfläche erlaubt eine einfache Bedienung und Zugriff auf zusätzliche Einstellungen und Monitoring Funktionen. Der Daemon behält den Systemstatus im Auge und führt nicht mehr zu Problemen beim Herunterfahren.

anonsurf

Tools

Das bekannte Metasploit wird in Version 6.0 ausgeliefert. Mit dabei eine Ende-zu-Ende Verschlüsselung für Meterpreter, sowie eine SMBv3 Client Unterstützung.

Ebenfalls aktualisiert wurde GVM 11 (Greenbone Vulnerability Management Version 11) auch bekannt als OpenVAS.

Das Release Log zeigt alle Anpassungen der neuen Version.

Das Update auf die neue Version erfolgt via CLI.

sudo parrot-upgrade

oder

sudo apt update && sudo apt full-upgrade

Download


Kali_Linux

Kali 2020.3

ZSH

Wie bereits eingangs erwähnt hat Kali damit begonnen Bash mit ZSH zu ersetzen. Noch ist dieser Wechsel nicht bindend, dies wird sich in Zukunft aber ändern. Mit chsh -s /bin/zsh und echo $SHELL könnt ihr dem gerne vorgreifen.

Nutzer die auf 2020.3 aktualisieren, sollten die Shell manuell installieren

sudo apt install -y zsh zsh-syntaxhighlighting zsh-autosuggestions

Vor und Nachteile gibt es für die Z-Shell sicher viele, zu den Vorteilen zählt eine bessere Autovervollständigung, Autokorrektur und Globbing.

Weitere Infos und Erweiterungen sind unter https://ohmyz.sh/ zu finden.

Icons

Bereits im Vorfeld angekündigt wurde das neue Icon Set. Die Icons wurde nun eingebunden und geben der Oberfläche zusätzlich Farbe.

Kalindows

Mit Win-KeX (Windows + Kali Desktop EXperience) wurde für WLS (Windows Subsysteme for Linux) ein GUI eingeführt. Bisher konnte unter Windows nur auf der Kommandozeile gearbeitet werden, dies ist nun Vergangenheit. Benötigt wird WSL2, welches mit der aktuellen Windows Version bereits ausgerollt wird, aber auch auf Windows 10 Version 1903 oder 1909 unterstützt wird.

Ich hatte dazu bereits einen Artikel verfasst (WSL2 - Windows-Subsystem-for-Linux - Installation unter Windows).

Win-Kex

Die Installation in WSL erfolgt mit

sudo apt update 

sudo apt install -y kali-win-kex

kex

Kali NetHunter Bluetooth Arsenal

Die mobile Kali Version unterstützt nun Nokia 3.1 und Nokia 6.1 Smartphones.

Mit dem Bluetooth Arsenal wurde eine Toolsammlung mit praktischen vorgefertigten Methoden gebündelt, welches die App zusätzlich bereichert.   

Weitere Neuerungen wie HiDPI oder ARM Änderungen sind im Release Log zu finden.

Download


 

Übersicht 08/2020

 

Name Version Tools Besonderes Basis GUI
Autopsy 4.13.0 ??? The Sleuth Kit Windows  
BackBox 7.0 100+ AWS Ubuntu Xfce
BlackArch 2020.06.01 1750+ ArchLinux ArchLinux Gnome
CAINE 11 100+ WinUFO Ubuntu Mate
DracOS 3.0   veraltet LFS DWM
DEFT Zero 2018.2   offline Lubuntu 14.04 Lxde
Kali Linux 2020.03 300+ ARM Images Debian Testing Multi
Kali AppStore   20+   Android  
LionSec 5.0   veraltet Ubuntu  
Matriux v3 RC1   offline Debian Gnome
NST 32 ??? Server integriert Fedora 32  
NetSecL OS 6.0   veraltet OpenSuse Lxde
Paladin 7.0     Ubuntu  
Parrot OS 4.10 700+ Cloud fähig Debian Buster MATE/KDE
Pentoo 2018.0 RC7.1   veraltet Gentoo Xfce
Ronin     veraltet Lubuntu Lxde
Sans SIFT 3.0   veraltet Ubuntu  

GIMP - Werkzeuggruppen deaktivieren

16. August 2020 um 16:28

Seit GIMP 2.10.18 wird das Tool Menü in sogenannte Werkzeuggruppen unterteilt.  Dies kann für das regelmäßige Arbeiten mit dem Bildbearbeitungsprogramm sicher praktisch sein. Für den Laien, welcher schnell mal ein Bild freischneiden möchte, kann dies aber zu einer Suche nach dem richtigen Werkzeug werden.

Glücklicherweise lässt sich dieses Feature einfach wieder deaktivieren. Dazu muss unter Bearbeiten -- Einstellungen -- Oberfläche -- Werkzeugkasten lediglich der Haken bei Werkzeuggruppen verwenden entfernt werden und die alte Anzeige der GIMP Tools ist zurück.

gimp-werkzeuggruppen

Mit ein wenig Übung ist die neue Gruppierung jedoch durchaus praktisch.

Durch Tastatur Shortcuts gelangt der Nutzer allerdings am schnellsten zum Ziel. Eine Übersicht an Tastaturbefehlen findet ihr unter gimpusers.de/gimp/hotkeys.

 

Neuerungen auf ITrig - HTTPS und Serendipity mit PHP7

01. März 2016 um 12:32

HTTPS

Wie angekündigt ist ITrig nun auch via HTTPS erreichbar. Das Zertifikat stammt von Lets Encrypt und sollte somit von jedem Browser erkannt werden.
Diese Zertifikate sind momentan nur 90 Tage gültig und müssen danach erneuert werden.

lets-encrypt

Mit Hilfe eines Script lässt sich die Aktualisierung leicht automatisieren. Es gibt von offizieller Seite eine Hilfestellung für Nginx Server, siehe Nginx Blog.

#!/bin/sh

cd /opt/letsencrypt/
./letsencrypt-auto --config /etc/letsencrypt/configs/my-domain.conf certonly

if [ $? -ne 0 ]
 then
        ERRORLOG=`tail /var/log/letsencrypt/letsencrypt.log`
        echo -e "The Let's Encrypt cert has not been renewed! \n \n" \
                 $ERRORLOG
 else
        nginx -s reload

fi

exit 0

Weitere Varianten für Apache und Co sind bei letsencrypt im Forum zu finden (Link).

php


PHP 7 und Serendipity

Seit Ende letzten Jahres steht PHP7 zur Verfügung. Aus diesem Grund habe ich vor einigen Tagen testweise auf die neuen PHP Version umgestellt. Nach der Umstellung gab es Probleme mit dem Cache_Lite Plugin. Die letzte stabile Version (1.7.16) stammt aus dem Jahr 2014 und hat mit PHP7 so seine Probleme.

Durch das Anpassen der Datei lite.php zu finden unter "/serendpity/bundled-libs/" konnte ich die entstehenden Fehler mit der s9y JavaScript Library beheben.

Fehlermeldung s9y PHP7

<script>
if(typeof errorHandlerCreateDOM == "function") {
var fragment = window.top.errorHandlerCreateDOM("Error redirect: == SERENDIPITY ERROR == <p>Methods with the same name as their class will not be constructors in a future version of PHP; Cache_Lite has a deprecated constructor in /home/www/blog/bundled-libs/Cache/Lite.php on line 29</p>");
document.body.insertBefore(fragment, document.body.childNodes[0]);
}
</script>
<noscript> == SERENDIPITY ERROR == <p>Methods with the same name as their class will not be constructors in a future version of PHP; Cache_Lite has a deprecated constructor in /home/www/blog/bundled-libs/Cache/Lite.php on line 29</p></noscript>
/ Dynamically fetched templates/2k11/admin/serendipity_editor.js.tpl on , called from: include/plugin_api.inc.php:external_plugin /

Lösung

Anpassen der Funktion in der lite.php

function Cache_Lite($options = array(NULL))

zu

function __construct($options = array(NULL))

Danach konnte das s9y Backend mit PHP 7.0.3 ohne Probleme geladen werden. Details sind im s9y Forum zu finden.

Recuva - Fotos oder MP3s wiederherstellen

19. Juli 2010 um 09:07

Recuva

Bereits vorgestern ist eine neue Version (1.38.504) von Recuva erschienen. Bei Recuva handelt es sich um eine Recovery Software für gelöschte Daten, speziell für MP3 Player oder Digitalkameras.

Die Software aus dem Hause Piriform ist einfach aufgebaut und überzeugt wie andere Produkte (CCleaner, Defraggler) dieser Firma.

Nach dem Start des Programms wählt man aus welche Art von Dateien man wiederherstellen möchte, danach grenzt man die Suche noch nach dem Ort ein und schon kann es los gehen. Sollte man beim ersten Suchvorgang nicht das gewünschte Resultat erzielen kann man zusätzlich noch den Tiefenscan benutzen. Normalerweise sollte aber eine normale Suche ausreichen.

Bei mir wurden damit auf der Digitalkamera einige sehr alte Bilder gefunden, die sich ohne Probleme wiederherstellen liessen. Die neue Version unterstützt Windows 7, sowie die Suche nach gelöschten PDFs.

Der komplette Change Log ist auf der Homepage zu finden.

Herunterladen könnt ihr die neue Version hier.

VZ Netzwerke mit Messenger nutzen

01. Juli 2010 um 10:27

Die VZ Netzwerke ziehen mal wieder nach und bieten den VZ Plauderkasten jetzt auch zur Messengerintegration an.

Das ganze steckt wohl noch etwas in den Kinderschuhen, denn unter Pidgin lässt sich ein Account ohne Probleme einrichten, nur sieht man leider noch keine Kontakte.

Wer es dennoch wagen möchte, der findet bei Thomas Maetz oder stadt-bremerhaven eine Anleitung.

 

Icinga 1.0.2 released

30. Juni 2010 um 15:33

Icinga 1.0.2

Es gibt eine neue Version (1.0.2) des Nagios Fork Icinga. Die neue Version soll schneller und stabiler sein.

Bei Icinga handelt es sich um ein Open Source Monitoring System, welches voll kompatibel zum Industriestandard Nagios ist.

Der komplette Changelog kann auf der Homepage eingesehen werden.

Chatroulette Desktop Client

30. Juni 2010 um 10:46

Nach dem großen Erfolg von Chatroulette ist nun ein Dektop Client für Chatroulette erschienen. Das kleine Programm ist gerade mal ca. 800KB groß und benötigt eine aktuelle Flash Installation. Danach steht dem Video Chat Vergnügen Nichts mehr im Wege.

Sicher eine gute Alternative für die browserbasierte Variante. Leider habe ich gerade nicht die Möglichkeit das Programm ausführlich zu testen, werde aber einen ausführlichen Test nachliefern.

chatroulette

Das A und O

29. Juni 2010 um 16:30

Das A und O

Jogi würde in diesen Tagen wohl sagen: "Teamplay ist das A und O". Gemeint ist damit das Wesentliche bzw. Wichtigste. Zurückzuführen ist diese Redensart auf das griechische Alphabet, genauer gesagt auf Luthers Übersetzung der Bibel: "Ich bin das A und das O, der Anfang und das Ende, spricht Gott der Herr...". Mit A ist somit das griechische "Alpha" gemeint und mit O das griechische "Omega", der letzte Buchstabe des Alphabets.

abc

❌