y0o.de · GNU/Linux Nachrichten u.Ä.

🔒
❌ Über y0o.de
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Ältere BeiträgeITrig

Nagios - Icinga: Debian Bullseye check_interfaces schlägt fehl

28. September 2021 um 19:16

icinga-logo

Ein kurzer Tipp fürs Interface Monitoring mit Icinga oder Nagios unter Debian.

Nach einem Update auf Debian Bullseye kann es vorkommen, dass einige Check Plugins fehlschlagen. So geschehen mit check_interfaces.

Das Plugin bringt nur noch folgende Ausgabe:

Plugin-Ausgabe
/usr/lib/nagios/plugins/check_interfaces: error while loading shared libraries: libnetsnmp.so.30: cannot open shared object file: No such file or directory

Zunächst kann man natürlich versuchen, die nötigen Dateien auf anderen Systemen zu suchen oder das Paket libsnmp40 zu installieren, leider bringt dies unnötige Arbeit, bzw. keine Abhilfe.

Die Lösung ist ein einfaches neu builden des Plugins:

debian_bullseye

apt-get update
apt-get -y install git build-essential libsnmp-dev

wget https://github.com/NETWAYS/check_interfaces/archive/refs/tags/v1.4.tar.gz

tar xvf v1.4.tar.gz

cd check_interfaces-1.4/

./configure --libexecdir=/usr/lib/nagios/plugins

make
make install

Der Zielpfad kann natürlich je nach Check Plugin Verzeichnis angepasst werden. Nach dem erneuten Builden unter Debian Bullseye sollte das Plugin wieder ohne Probleme funktionieren.

Security Distributionen: BlackArch 2021.09 und Kali Linux 2021.3

27. September 2021 um 10:39

Kali Linux 2021.3

Neues Quartal neues Kali Linux.

Kali_Linux

TLS 1.x

Mit Version 2021.3 wurden unter anderem alte Brötchen wieder aufgewärmt. So ist TLS 1.0 und TLS 1.1 unter OpenSSL wieder aktiv. Hintergrund sind mögliche Tests mit alten Systemen, welche noch mit den alten Standards laufen. Mit dem Befehl kali-tweaks lassen sich die Einstellungen allerdings jederzeit anpassen.

Virtuelle Maschinen

Virtuelle Maschinen haben eine bessere Unterstützung erhalten. So sollte nun ein Copy & Paste zwischen Host und virtuellem Zielsystem funktionieren. Unter Windows wurde mit dem Hyper-V Enhanced Session Mode die Möglichkeit für USB Sticks als lokale Ressource geschaffen.

Auch diese Funktion lässt sich über den Befehl kali-tweaks einrichten.

Smartwatches und Android 11 ohne TWRP

Neben der ersten Smartwatch TicHunter-Pro können Android 11 Smartphones nun via Magisk bespielt werden. Bisher war dies nur über das TWRP möglich. Das Projekt befindet sich allerdings noch am Anfang und ist mit Vorsicht zu genießen.

ARM

Kali für ARM hat neue Build Scripts erhalten, diese unterstützen nun auch RaspberryPi Zero.

Die aktualisierten Scripts erstellen ein neues Snakeoil Zertifikat. Als neue Standard Shell wird ZSH integriert. Dies lässt sich über das bereits bekannte kali-tweaks anpassen. Ebenfalls werden kalipi-config und kalipi-tft-config vorinstalliert.

Pinebook Freunde dürfen sich außerdem über einen neuen Kernel und einen hübscheren Bootscreen freuen.

kali-tools

Doku ist alles

Die neue Kali Tools Seite soll nicht unerwähnt bleiben. Sie bietet eine moderne und praktische Übersicht aller vorhandener Software.

BlackArch hat so eine Übersicht schon etwas länger und in der Vergangenheit ebenfalls ein neues Release veröffentlicht.

Download


BlackArch 2021.09

blackarch
Nachdem Kali Linux vorgelegt hatte, zieht BlackArch mit einer neuen Version nach.

Das auf Arch Linux basierende System bringt nach eigener Aussage nun 2700 Tools mit.

Welche Werkzeuge euch genau zur Verfügung stehen, könnt ihr dieser Tool-Liste entnehmen.

BlackArch 2021.09 läuft mit dem Kernel 5.13.10. Neben einem neuen Textinstaller gab es die üblichen Updates.

Download



Übersicht 09/2021

 

Name Version Tools Besonderes Basis GUI
Autopsy 4.18 ??? The Sleuth Kit Windows  
BackBox 7.0 100+ AWS Ubuntu Xfce
BlackArch 2021.09 1750+ ArchLinux ArchLinux Multi
CAINE 11 100+ WinUFO Ubuntu Mate
DracOS 3.0   veraltet LFS DWM
DEFT Zero 2018.2   offline Lubuntu 14.04 Lxde
Kali Linux 2021.03 300+ Plattformen Debian Testing Multi
Kali AppStore   40+   Android  
LionSec 5.0   veraltet Ubuntu  
Matriux v3 RC1   offline Debian Gnome
NST 34 ??? Server integriert Fedora  
NetSecL OS 6.0   veraltet OpenSuse Lxde
Paladin 7.0     Ubuntu  
Parrot OS 4.11.2 700+ Cloud fähig Debian Buster MATE/KDE
Pentoo 2018.0 RC7.1   veraltet Gentoo Xfce
Ronin     veraltet Lubuntu Lxde
Sans SIFT 3.0   veraltet Ubuntu  

Security: GVM 21.04 - mit Docker in 15 Minuten zum OpenVAS Schwachstellen Scanner

20. August 2021 um 19:08

OpenVAS bzw. Greenbone Vulnerability Manager ist nicht ganz einfach zu installieren, da viele Abhängigkeiten und Pakete gebaut werden müssen.
Eine etwas ältere Anleitung ist noch auf ITrig zu finden.

Mithilfe von Docker kann der Installationsprozess stark beschleunigt werden.
Händische Konfigurationen und Updates fallen weg und innerhalb kurzer Zeit steht ein vollständig eingerichtetes Schwachstellenmanagement zur Verfügung.

Greenbone_Security_Assistant

GVM 21.04 mit Docker Compose installieren

Zunächst sollte Docker installiert werden.

Docker Debian installieren

apt remove docker docker-engine docker.io containerd runc
apt update
apt install apt-transport-https ca-certificates curl gnupg lsb-release git

curl -fsSL https://download.docker.com/linux/debian/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg

echo \
  "deb [arch=amd64 signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/debian \
  $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null

apt update
apt install docker-ce docker-ce-cli containerd.io

Docker Ubuntu installieren

sudo apt remove docker docker-engine docker.io containerd runc 
sudo apt update
sudo apt install apt-transport-https ca-certificates curl gnupg lsb-release git

sudo curl -fsSL https://download.docker.com/linux/ubuntu/gpg | sudo gpg --dearmor -o /usr/share/keyrings/docker-archive-keyring.gpg

sudo echo \
  "deb [arch=amd64 signed-by=/usr/share/keyrings/docker-archive-keyring.gpg] https://download.docker.com/linux/ubuntu \
  $(lsb_release -cs) stable" | sudo tee /etc/apt/sources.list.d/docker.list > /dev/null

sudo apt update
sudo apt install docker-ce docker-ce-cli containerd.io

Docker Compose darf ebenfalls nicht fehlen

Docker Compose Debian/Ubuntu installieren

sudo curl -L "https://github.com/docker/compose/releases/download/1.29.2/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose

sudo chmod +x /usr/local/bin/docker-compose

docker-compose --version

Installation GVM 21.04 mit Docker

# Clonen/Installieren
cd /opt
sudo git clone https://github.com/immauss/openvas.git

# Admin pw anpassen
cd openvas/
nano docker-compose.yml

# System starten
docker-compose up -d
#Logs anschauen
docker-compose logs -f
#Server überprüfen
ss -lntp |grep 8080

Der erste Start kann recht lange dauern, da im Hintergrund alle NVTs geladen werden.

Der Installationsfortschritt kann mit docker-compose logs -f verfolgt werden.

Sollten Fehler passieren, hilft meist ein Neustart des Vorgangs. Gleiches gilt für ein Update der Signaturen.

openvas-docker

#Neustart oder Signaturen aktualisieren
cd /opt/openvas
sudo docker-compose down && docker-compose up -d

#Neueste Logs prüfen
sudo docker-compose logs --tail="50"


Schlussendlich ist das Tool unter http://localhost:8080/login erreichbar und einsatzfähig.


Allerdings empfehle ich einen Proxy mit HTTPS vorzuschalten und den Port 8080 auf Localhost umzubiegen.

Ein Proxy könnte im Docker-Compose File integriert oder direkt installiert werden.

Docker-Compose anpassen

Das Umbiegen auf Localhost, kann im Docker Compose File vorgenommen werden.

#Beispiel für eine Anpassung der docker-compose.yml

version: "3"
services:
  openvas:
    ports:
      - "127.0.0.1:8080:9392"
    environment:
      - "PASSWORD=notyouradmin!"
      - "USERNAME=admin"
      - "RELAYHOST=172.17.0.1"
      - "SMTPPORT=25"
      - "REDISDBS=512" # number of Redis DBs to use
      - "QUIET=false"  # dump feed sync noise to /dev/null
      - "NEWDB=false"  # only use this for creating a blank DB
      - "SKIPSYNC=false" # Skips the feed sync on startup.
      - "RESTORE=false"  # This probably not be used from compose... see docs.
      - "DEBUG=false"  # This will cause the container to stop and not actually start gvmd
      - "HTTPS=false"  # wether to use HTTPS or not
      - "GMP=false"    # to enable see docs
    volumes:
      - "openvas:/data"
    container_name: openvas
    image: immauss/openvas
volumes:
  openvas:

Nginx Proxyserver einrichten

Hier ein Beispiel für einen Nginx Proxyserver (ohne Docker)

apt install nginx
sudo rm /etc/nginx/sites-enabled/default

Ein Zertifikat erstellen

 sudo openssl req -x509 -newkey rsa:4096 -sha256 -days 365 -nodes   -keyout gvm.itrig.key -out gvm.itrig.crt -subj "/CN=gvm.itrig.de"   -addext "subjectAltName=DNS:security.itrig.de,DNS:gvm.itrig.de,IP:192.168.0.111"
#Beispiel für eine Nginx Proxy Config

nano /etc/nginx/sites-available/openvas

server {
  server_name localhost;
   listen 443 ssl http2;
   ssl_certificate     /etc/ssl/gvm.itrig.de.crt;
   ssl_certificate_key /etc/ssl/gvm.itrig.de.key;
   ssl_session_timeout 1d;
   ssl_session_cache shared:MozSSL:10m;  # about 40000 sessions
   ssl_session_tickets off;
   ssl_protocols TLSv1.2 TLSv1.3;
   ssl_ciphers ECDHE-ECDSA-AES128-GCM-SHA256:ECDHE-RSA-AES128-GCM-SHA256:ECDHE-ECDSA-AES256-GCM-SHA384:ECDHE-RSA-AES256-GCM-SHA384:ECDHE-ECDSA-CHACHA20-POLY1305:ECDHE-RSA-CHACHA20-POLY1305:DHE-RSA-AES128-GCM-SHA256:DHE-RSA-AES256-GCM-SHA384;
   ssl_prefer_server_ciphers off;
   resolver 127.0.0.1;
   

    location / {
        proxy_pass http://localhost:8080;
    }
}
# Symlink setzen
cd /etc/nginx/sites-enabled/
ln -s ../sites-available/openvas openvas

#Neustart Nginx
systemctl restart nginx

#Kontrolle mit
systemctl status nginx
#oder
ss -lntp

Der Scanner ist nun via https://localhost/login erreichbar.

 

Fazit

Für einen schnellen Test und dem Lernen am System ist GVM via Docker von github.com/immauss/openvas sicherlich geeignet. Die Builds werden übrigens wöchentlich aktualisiert und beinhalten zusätzlich auch die neuesten Feed-Updates.

Um Docker, Container, Images und Co besser im Blick zu behalten, verweise ich an dieser Stelle auf Lazydocker. Das Tool bietet einen grafischen Überblick, über alle aktiven und inaktiven Docker Komponenten.

 

10 wichtige Befehle um Windows schnell und einfach zu reparieren

14. August 2021 um 11:27

Für Windows gibt es verschiedene Varianten, um ein System auf Schäden zu prüfen und zu reparieren. Die bekannteste dürfte der Befehl DISM (Deployment Image Servicing and Management) sein. Diese befindet sich unter c:\windows\system32  kann aber einfach über die Kommandozeile oder PowerShell aufgerufen werden.

dism

Windows – Reparatur bei Problemen mit DISM und SFC

Voraussetzung für die Verwendung von DISM oder sfc ist eine Kommandozeile oder eine PowerShell mit Administratorrechten. Ansonsten erhaltet ihr den Fehler: 740.

Prüfung von Windows auf Beschädigungen

Dism /Online /Cleanup-Image /ScanHealth

Windows auf beschädigte Systemdateien testen

Dism /Online /Cleanup-Image /CheckHealth

Wiederherstellung von Windows und Prüfung auf beschädigte Systemdateien

Dism /Online /Cleanup-Image /RestoreHealth

Wiederherstellung von Windows und Prüfung auf beschädigte Systemdateien mithilfe eines sauberen Images

Dism /Image:C:\offline /Cleanup-Image /RestoreHealth /Source:c:\test\windowimage
#alternativ geht dies auch im Online Modus
Dism /Online /Cleanup-Image /RestoreHealth /Source:c:\test\windowimage /LimitAccess

Start des System File Checkers  (ein etwas älteres Tool zu Systemreparatur)

sfc /scannow

Bootphasen Reparatur

Sollte sich das System schon so weit verabschiedet haben, dass ein Bootvorgang scheitert, können zusätzlich Maßnahmen ergriffen werden, um zum Beispiel den Boot Sektor zu reparieren. Mit dem Wiederherstellungsmodus ist das aus einer bestehenden Windows Installation möglich.

Computerreparaturoptionen -> Problembehandlung -> Erweiterte Optionen -> Eingabeaufforderung.

Ist auch der Wiederherstellungsmodus nicht erreichbar, sollte von einem extra Windows Stick gebootet werden.

Microsoft selbst beschreibt 4 Bootphasen, welche teilweise mit verschiedenen Befehlen repariert werden können.

Bootphasen

Bootloader Phase reparieren

Boot Codes und Boot Sektor der Systempartition reparieren

bootrec /fixmbr
bootrec /fixboot

Suche nach verwaisten Windows Installationen im Bootmanager

bootrec /scanos

Windows Boot Konfigurationsdaten neu aufbauen

bootrec /rebuildbcd

# Sollte kein verwaistes System gefunden werden kann wie folgt weit gesucht werden (windows installation: 0)
bcdedit /export c:\bcdbackup
attrib c:\\boot\\bcd -r –s -h
ren c:\\boot\\bcd bcd.old
bootrec /rebuildbcd

#Scanning all disks for Windows installations. Please wait, since this may take a while ...
#Successfully scanned Windows installations. Total identified Windows installations: 1
#D:\Windows  
#Add installation to boot list? Yes/No/All:

Als letzten Befehl noch der Klassiker um eine defekte Festplatte zu reparieren

Festplatte prüfen und reparieren

chkdsk /f /r

 

Tipp - Produkt Key in Microsoft Server 2012 R2 2019 mit Powershell anpassen

21. Mai 2015 um 10:52

Ein Kurztipp für die Windows Welt. 

Es kommt öfters vor, dass ein Windows Server Produkt Key geändert oder angepasst werden muss. Am einfachsten geht dies über die integrierte PowerShell Konsole. Auch ein Wechsel der Windows Version von Evaluation zu Standard ist hier möglich.

Installiertes Windows System mit DISM auslesen

DISM /online /Get-CurrentEdition

Tool zur Imageverwaltung für die Bereitstellung
Version: 6.3.0000.000000

Abbildversion: 6.3.0000.00000

Aktuelle Edition:

Aktuelle Edition : ServerStandardEval

Der Vorgang wurde erfolgreich beendet.

Windows Produkt Key und Version auf Standard mit DISM ändern

DISM /online /Set-Edition:ServerStandard /ProductKey:<key> /AcceptEula

Tool zur Imageverwaltung für die Bereitstellung
Version: 6.3.0000.000000

Abbildversion: 6.3.000.00000

Komponentenaktualisierung wird gestartet...
Product Key-Installation wird gestartet...
Product Key-Installation ist abgeschlossen.

Paket "Microsoft-Windows-ServerStandardEvalEdition~000000000" wird entfernt
[==========================100.0%==========================]
Komponentenaktualisierung ist abgeschlossen.

Editionsspezifische Einstellungen werden angewendet...
Das Anwenden der editionsspezifische Einstellungen ist abgeschlossen.

Der Vorgang wurde erfolgreich beendet.
Zum Abschließen dieses Vorgangs muss Windows neu gestartet werden.
Möchten Sie den Computer jetzt neu starten? (Y/N)

Ebenso wäre es möglich, die Version auf "ServerDatacenter" zu ändern.

Die Kontrolle des Wechsels kann nach einem Neustart wieder mit demselben Befehl wie oben geprüft werden.

DISM /online /Get-CurrentEdition

Sollte die Variante mit DISM nicht funktionieren oder der Wechsel zu einer andere Windows Server Version überflüssig sein, kann alternativ mit "slmgr" dem Software Licensing Management Tool vom Windows gearbeitet werden. Damit ist ein Schlüsseltausch schnell erledigt.

slmgr

Windows Server 2012 2019 Produkt Key mit slmgr tauschen

slmgr /ipk <key>

 

LVM Fehler nach Ubuntu 20.04 Update - VG is using an old PV header, modify the VG to update

23. Oktober 2020 um 18:26

Neulich ist mir ein Fehler beim Update von Ubuntu 16.04 auf Ubuntu 20.04 im LVM aufgefallen. Und zwar wurde eine Meldung angezeigt, die auf alte PV (Physical Volume) Header in einer VG (Volume Group) anspielt.

Ich hatte zum Thema LVM vor langer Zeit mal einen Artikel verfasst, falls es jemanden interessiert.

Der Fehler lässt sich mit dem Befehl vgck, welcher die Konsistenz von VGs prüft, nachstellen:

sudo vgck
  WARNING: PV /dev/sda2 in VG derVolumeGroupName is using an old PV header, modify the VG to update.
  WARNING: PV /dev/sda5 in VG derVolumeGroupName is using an old PV header, modify the VG to update.


Mit dem gleichen Tool lässt sich der Fehler beheben, und zwar mit der Option updatemetadata, laut man pages kann er folgendes:

Update VG metadata to correct problems.  If VG metadata was updated while a PV was missing, and the PV reappears with an old version of metadata, then this option (or any other command that writes metadata) will update the metadata on the previously missing PV.

 Der LVM Fehler sollte nach dem Ausführen von vgck zusammen mit updatemetadata nicht mehr auftauchen.

 sudo vgck --updatemetadata derVolumeGroupName

 

Security Distributionen: Kali Linux 2021.2, NST 34, Parrot OS 4.11

04. Juli 2021 um 20:27

Nachdem ich die letzte Release-Runde ausgelassen hatte, möchte ich die aktuelle wieder mitnehmen und ein paar Worte über Kali Linux, NST und Parrot verlieren.

Kali Linux 2021.2

kali

Das neueste Release stellt einen Mix aus Verbesserungen des vorhandenen Systems und der Einführungen einiger Neuerungen dar.

Kaboxer

Das CLI Tool soll in Zukunft eine Paketierung von Programmen mit vielen Abhängigkeiten erleichtern. Dazu werden Kaboxer/Docker Images erstellt. Alles, was es dazu braucht, ist einen Nutzer, welcher Mitglied in der Kaboxer/Docker Gruppe ist, ein Dockerfile und eine kaboxer.yaml.

Damit lassen sich nun Images bauen, welche die gewünschten Abhängigkeiten enthalten. Auch eine Einbindung in das Kali Startmenü ist zum Beispiel möglich. Hier ein grobes Beispiel.

Dockerfile erstellen

FROM debian:stable-slim
RUN apt update && apt install -y \
    python3 \
    python3-prompt-toolkit
COPY ./hello /usr/bin/hello
RUN mkdir /kaboxer \
 && hello version > /kaboxer/version

kaboxer.yaml erstellen

application:
  id: hello-cli
  name: Hello World for Kaboxer (CLI)
  description: >
    hello-kbx is the hello-world application demonstrator for Kaboxer
packaging:
  revision: 1
components:
  default:
    run_mode: cli
    executable: /usr/bin/hello cli

builden

kaboxer build hello-cli

ausführen

kaboxer run hello-cli

Weitere Details findet ihr unter packaging-apps-with-kaboxer.

Fazit

Ein praktisches Tool, welches sicherlich das Tool Spektrum der Distribution erweitern wird.

Auch wenn beispielsweise Greenbone Vulnerability Management bereits mit Kali ausgeliefert wird, würde sich dieses Tool sehr gut für einen Kaboxer Container eignen.

Drei Tools bringt Kali Linux bereits auf diese Weise mit:

  • Covenant - Daemon using server/client network model

Kali Tweaks

Eine weitere Neuerung sind Kali Tweaks. Diese erlauben es das System auf die eigenen Bedürfnisse besser anzupassen. So lassen sich damit Repositorys verwalten, Virtualisierungseinstellungen anpassen oder Metapakete installieren.
Auch hierzu haben die Entwickler einen eigenen Artikel angelegt.

Sonstiges

Die restlichen Meldungen beziehen sich auf die Unterstützung neuer Systeme wie Raspberry Pi 400 oder den Support von Nethunter für Android 11. Für ersteres gibt es nun mit kalipi-config eine eigene Config Oberfläche speziell für Kali Linux.

Neben den kosmetischen Anpassungen wurden ebenfalls neue Tools integriert. So ist unter anderem das Reverse Engineering Tool Ghidra und Visual Studio (OSS) Code mit an Bord oder der Webserver Verzeichnis Scanner Dirsearch, sowie Cloudbrute für eine Dateisuche in der Cloud.

Alle Neuerungen, Tools und Co finden sich ebenfalls im Release Log.

Download


NST 34

nst

Das Network Security Toolkit hat ebenfalls ein Update auf eine neue Version erhalten.

Bei der Fedora basierten Distribution halten sich die Neuerungen in Grenzen. Die Weboberfläche NST WUI bindet nun lft (Layer-4 Traceroute) und Ntopng REST API ein. Der Verzeichnisscanner dirble beherrscht nun die Ausgabe in Tabellenform. Das alles läuft auf dem Linux Kernel 5.12.10.

Weitere Änderungen können direkt im Changelog nachgelesen werden.

Download


Parrot OS 4.11.2

parrot

Der Vollständigkeit halber sei hier noch das Release vom März erwähnt, welches einen neuen Kernel 5.10 und viele Updates auf der Tooling Seite erhalten hat. Auch hier lässt sich alles im Release Log nach recherchieren.

Download



Übersicht 06/2021

 

Name Version Tools Besonderes Basis GUI
Autopsy 4.18 ??? The Sleuth Kit Windows  
BackBox 7.0 100+ AWS Ubuntu Xfce
BlackArch 2020.12.01 1750+ ArchLinux ArchLinux Multi
CAINE 11 100+ WinUFO Ubuntu Mate
DracOS 3.0   veraltet LFS DWM
DEFT Zero 2018.2   offline Lubuntu 14.04 Lxde
Kali Linux 2021.01 300+ ARM Images Debian Testing Multi
Kali AppStore   40+   Android  
LionSec 5.0   veraltet Ubuntu  
Matriux v3 RC1   offline Debian Gnome
NST 34 ??? Server integriert Fedora  
NetSecL OS 6.0   veraltet OpenSuse Lxde
Paladin 7.0     Ubuntu  
Parrot OS 4.11.2 700+ Cloud fähig Debian Buster MATE/KDE
Pentoo 2018.0 RC7.1   veraltet Gentoo Xfce
Ronin     veraltet Lubuntu Lxde
Sans SIFT 3.0   veraltet Ubuntu  

ChatCrypt - verschlüsselter Onlinechat als CryptoCat Alternative

18. September 2013 um 12:27

Nicht erst seit PRISM ist Verschlüsselung in aller Munde, speziell bei Chatdiensten machte Cryptocat im Sommer negative Schlagzeilen. Das Chatsystem wurde gebrochen, weil unsichere Schlüssel verwendet wurden, geschuldet war dies, wie so oft, dem Zufallsgenerator. Auch wenn diese Fehler inzwischen behoben sind und das System wieder als sicher gilt, sind Alternativen gern gesehen.

Chatcrypt - Chatten mit Ende zu Ende Verschlüsselung

Hier kommt Chatcrypt ins Spiel. Der Onlinechat bietet Verschlüsselung auf militärischem Standard (AES 256-bit CTR Encryption) und besitzt somit eine rechte hohe Sicherheit beim persönlichen Austausch. 

  • Triple encryption - Zwei zusätzliche Sicherheitsebenen schützen Nachrichten, zusätzlich zum Standard-TLS-Protokoll.
  • Outstanding privacy - Konversationen können stattfinden, ohne dass persönliche Details oder Konten angegeben werden.
  • Real-time messaging - Alle Daten werden sofort zwischen den Parteien ausgetauscht. Nichts wird in eine Warteschlange gestellt oder gespeichert.

ChatCrypt

Jeder hat die Möglichkeit eigene Chaträume zu öffnen und ein vorher vergebenes Passwort an die gewünschten Chatteilnehmer weiterzugeben. Die ausgetauschten Nachrichten, werden 10 Sekunden verschlüsselt auf dem Server abgespeichert. Zusätzlich besteht für Blogger die Möglichkeit, den Chat in die eigene Seite einzubetten.

ChatCrypt

Leider existieren bei diesem Chat-System ebenfalls Nachteile, so existiert kein Browser Plugin und es lassen sich keine Daten versenden. Auch die vorhandene Werbung mag den ein oder andere stören, dafür ist der Dienst jedoch komplett umsonst, (im Notfall lässt sich diese ja blockieren) dennoch stellt der Dienst eine sichere Alternative zu anderen Chatservices dar.

ChatCrypt

Lazy Docker - schnell und einfach Docker Container via Konsole verwalten

10. April 2020 um 11:31

Um Docker Container zu verwalten gibt es viele Tools, da wäre zum Beispiel Portainer oder Rancher.

Lazy Docker

Aber es gibt auch schlichte Tools wie Lazy Docker.

lazydocker

Das in Go geschriebene Programm, läuft über die Konsole ist interaktiv und bietet schnellen Zugriff auf die wichtigsten Docker oder Docker Compose Funktionen. Folgende Funktionen werden aktuell (Version 0.8) unterstützt.

  • Zustand der Docker- oder Docker Compose Umgebung abfragen
  • Anzeige von Protokollen für einen Container oder Dienst
  • ASCII-Grafiken der CPU- und Speichernutzung von Containern anzeigen
  • Neustart, anhalten, entfernen, oder neuaufbauen von Containern oder Diensten
  • Anzeigen der einzelnen Schichten eines bestimmten Images
  • Aufräumen von Containern, Images oder Volumes mit prune

lazydocker-cpu

Lazy Docker installieren

Die Installation ist sehr einfach und kann direkt über wget oder via brew erledigt werden.

Der Einfachheit halber werde ich den ersten Weg wählen.

Vorrausetzung ist eine bestehende und laufende Docker Installation (ansonsten wäre die Nutzung des Programms wenig sinnvoll).

wget https://github.com/jesseduffield/lazydocker/releases/download/v0.12/lazydocker_0.12_Linux_x86_64.tar.gz
tar xvzf lazydocker*.tar.gz

sudo install lazydocker /usr/local/bin/
sudo systemctl status docker
sudo lazydocker

Die Steuerung erfolgt über die Pfeiltasten, das Menü lässt sich über x aufrufen und das Tool via Esc beenden.

Eine komplette Liste der Shortcuts findet ihr hier. Im Prinzip selbsterklärend.

Wer sich nicht selbst reinfinden möchte, der kann auch auf das Videotutorial zurückgreifen.

Fazit

Praktisches Tool, welches ohne Webserver oder dergleichen auskommt und etwas mehr Überblick bietet als die üblichen Konsolenbefehle.

Download Lazy Docker

Die 30 besten VS Code Erweiterungen für Administratoren und DevOps

05. Juni 2021 um 12:36

Wie bereits im letzten Artikel erwähnt, gibt es mit Visual Studio Code einen starken Editor, welcher sich mit Hilfe von Erweiterungen für jeden Einsatzzweck anpassen lässt.

Ich möchte euch einige davon vorstellen, welche sich für den Einsatz im Administrations- oder DevOps Bereich eignen.

Die 30 besten VS Code Erweiterungen

  1. Ansible Language: Zu dieser Erweiterung muss wenig gesagt werden. Ihr erhaltet YAML Support mit Syntax Highlighting, Autovervollständigung und der mitgelieferte YAML bzw. Ansible Linter zeigt euch Fehler adhoc an. ansible

  2. Apache Syntax Support: Der Name ist Programm und eure Apache Config Files erstrahlen beim Editieren in neuem Glanz, dank Syntax Highlighting.

  3. Atom Keymap: Solltet ihr aus der Atom Editor Welt kommen und eure alten Shortcuts vermissen, dann hilft das Plugin ungemein.

  4. Better Jinja: Das Arbeiten mit Jinja Templates kann schnell in die Verzweiflung führen. Durch diese Erweiterung erhaltet ihr neben Jinja auch Support für HTML, Markdown, YAML, CSS, Docker, Python und uvm. in euren Dateien. jinja

  5. Better TomlTom's Obvious, Minimal Language kommt immer mal wieder vor. Einige werden die Dateien von Gitlab kennen. Die Extension sorgt für bessere Lesbarkeit beim Editieren.

  6. Confluence: Atlassians Wiki Lösung findet sich sehr häufig in Unternehmen. Aus diesem Grund kommen einige sicher öfters mit deren Markup in Berührung. Hier gibt es Unterstützung für Confluence® and Jira® Markup.

  7. Debian Package Syntax Highlighting: Nur für diejenigen, die öfters mit DEB Paketen zu tun haben.

  8. Docker: Eigentlich schon essentiell, Docker Unterstützung für VS Code. docker

  9. Git History: Für Git fast unverzichtbar. Bereitet Logs auf, nimmt Grafiken zu Hand, kann vergleichen usw.

  10. Git Lens: Der selbst ernannte Supercharger. Bietet ähnlich wie Git History eine schöne Log Übersicht. Zusätzlich dazu kommen Features wie Revision Navigation, History Anzeige in der Status Bar oder der aktuellen Zeile.

  11. Gremlins Tracker: Wer kenn es nicht, ein unerwünschtes Leerzeichen sorgt im Code für Aufregung. Gremlins werden sie von dieser Erweiterung genannt und als solche auch in der Sidebar sichtbar gemacht. gremlins

  12. Hugo Language Support: NutzerInnen des Frameworks wird mit Syntax Highlighting und Snippets das Webseiten bauen erleichtert.

  13. Indent Rainbow: Einer meiner Favoriten, macht Nichts anderes als Einrückung kolorieren. Das hilft nicht nur bei YAML Dateien ungemein. 

  14. Jinja Syntax Highlighting: Jinja kann durchaus hilfreich sein, leider geht auch schnell die Übersicht im Code verloren. Durch Syntax-Hervorhebung kann dem aber vorgebeugt werden.

  15. Kubernetes: Die Beschreibung im Marketplace sagt eigentlich alles:  Develop, deploy and debug Kubernetes applications

  16. Nginx Configuration Language Support: Autovervollständigung bei der NGINX Konfiguration, nicht mehr und nicht weniger. Allerdings nicht mehr ganz aktuell. nginx

  17. Notepad++ Keymap: Für Umsteiger eignet sich diese Notepad++ Keymap.

  18. OpenSSL Utilities: Auf ITrig hatte ich bereits Anleitungen, wie Private Key, CSR oder self-signed Zertifikate über die Kommandozeile erstellt werden. Die Erweiterung erlaubt euch das Erstellen ohne weitere Kenntnisse der CLI Befehle direkt in Visual Studio Code. privkey

  19. Prettier: Schöner programmieren mit Prettier - Code formatter. Das Tools formatiert euren Code automatisch. Unterstützt werden JavaScript, TypeScript, Flow, JSX, JSON, CSS, SCSS, Less, HTML, Vue, Angular, GraphQL, Markdown, YAML.

  20. Projekt Manager: Wenn an mehreren Projekten gleichzeitig gearbeitet wird, kann es sinnvoll sein die Verwaltung dieser zu verbessern.

  21. Rainbow Brackets: Es wird wieder bunt. Regenbogenfarben für die runden Klammern, die eckigen Klammern und die verschnörkelten Klammern.

  22. Remote SSH: Dateien direkt auf Servern editieren kann durchaus praktisch sein.

  23. Salt-lint. Einfacher Linter für States und Pillars

  24. Saltstack: Analog zum Salt-Linter ist dieser Syntax Highlighter für Saltstack ein Muss. saltstack

  25. Snort:  NIDS/NIPS in Farbe.

  26. Sort: Wörter alphabetisch sortieren, einfach shift+alt+s  drücken

  27. Tomcat for Visual Code: Tomcat Server direkt aus VS Code starten und war Pakete debuggen.

  28. Toml Language Support: Ein weiterer Formater für Toml Dateien.

  29. XML Support: Alles was es für XML braucht in einem Plugin.

  30. YAML: Voller YAML Support mit Kubernetes Unterstützung. yaml

Themes

Damit die Arbeit noch mehr Spaß macht, gibt es ebenfalls viele Themes, sowie Icon Sets.

Hier eine kleine Auswahl an Themes, welche ich gerne einsetze.

  1. SynthWave 84 (die 80er sind zurück)
  2. Dracula Theme (schönes ausgewogenes Theme)
  3. Material Icons (Icons für die Ordner und Dateistruktur)
  4. Solarized Dark (Blau und Grüntöne, ist bei VSCode dabei)
  5. Monokai Pro (Theme und Icon Set zusammen)

synthwave

Eine schöne Übersicht mit Vorschauen vieler Themes bietet vscodethemes.com

Download

Schlussendlich fehlt wohl noch ein Link zu Visual Studio Code. Denn was helfen Erweiterungen, wenn der Editor fehlt.

Download VSCode

VS Code: Swissknife - konvertieren und generieren direkt im Editor

16. Mai 2021 um 12:23

Cyberchef (The Cyber Swiss Army Knife) hatte ich vor fast 4 Jahren auf ITrig erwähnt. Das Tool sagte mir damals wegen seiner praktischen Encoding beziehungsweise Decoding Funktionen zu.

Seitdem ist einige Zeit vergangen und Arbeitsweisen haben sich geändert. So verwende ich inzwischen unter anderem Visual Studio Code fürs tägliche Editieren. Durch die vielen Plugins ist der Editor sehr gut erweiterbar.

Genau hier kommt die Erweiterung Swiss Knife ins Spiel

 

VS Code – Swissknife

swissknife

Die Visual Studio Code Erweiterung von Luis Fontes beherrscht eine Menge an Funktionen, vom Hashes generieren, über Hex oder Base64 bis Markdown.

Das heißt eurer Editor wird mit wenigen Klicks um viele Alltagsanwendungen erweitert.

Folgende Funktionen beherrscht das Schweizer Messer für Visual Studio momentan:

  • Base64 decode

  • Base64 encode

  • Binary To Text

  • Bip39 Mnemonic

  • CSV to Markdown

  • Count characters

  • Count words

  • Crypto currency value

  • Date to Timestamp

  • Eliptic Curve Key Pair

  • Generate Password

  • HTML Encode (AlL)

  • Hex decode

  • Hex encode

  • Hex to RGB

  • Identify hash

  • JWT Decode

  • Join lines

  • Lorem Ipsum

  • Markdown to HTML

  • Md5 hash

  • New Swissknife Script (JS)

  • New Swissknife Script (TS)

  • Password strength

  • RGB To Hex

  • RSA Key pair

  • Random String

  • Request to fetch

  • SHA1 hash

  • SHA256 hash

  • SHA512 hash

  • Self Signed Certificate

  • Start Local HTTP Server

  • Start Local HTTPS Server

  • Stop HTTP Server

  • Text To Binary

  • Text to String

  • Timestamp to Date

  • To Camel Case

  • To Lower Case

  • To Morse code

  • To Upper Case

  • UUIDv4

  • Unicode decode

  • Unicode encode (js format)

  • Unix/Linux Permission To Human Readable

  • Url Decode

  • Url Encode

  • Url Encode (All Characters)

  • Url Shorten

  • Url Unshorten (url expand)

Die Funktionen lassen sich mit swissknife.show oder Strg+Shift+9 beziehungsweise cmd+shift+9 im Terminal aufrufen. (Text markieren vorher nicht vergessen).

Hat man die Tastenkombination einmal im Kopf, erleichtert die Erweiterung das Arbeiten an vielen Stellen sehr, vorrausgesetzt die Anwendungsfälle kommen öfters vor.

Download swissknife

 

Raspberry Pi 4 Kiosk - Bildschirmschoner unter Raspberry Pi OS deaktivieren

10. April 2021 um 13:01

Der Raspberry Pi ist schon längere Zeit in Version 4 verfügbar, Raspbian heißt nun Raspberry Pi OS und der dazugehörige Imager hat mehr Optionen erhalten (Strg + Shift +X).

Dies sind allerdings nicht die einzigen Neuerungen. Denn eine oft gestellte Frage hat nun ebenfalls eine andere Antwort.

Wie deaktiviere ich den Bildschirmschoner unter Raspberry Pi OS

Um den Bildschirmschoner zu deaktivieren, konnten bisher in einigen Dateien Hand angelegt werden.

So mussten in der Vergangenheit diverse Werte im Autostart eingetragen werden:

/home/pi/.config/lxsession/LXDE-pi/autostart

Beziehungsweise unter:

/etc/xdg/lxsession/LXDE-pi/autostart 

Details dazu findet ihr in einem alten Artikel.

Mit der neuen OS Version, welche auf Debian Buster basiert, ist dies nicht mehr nötig.

Der Hersteller hat diese Option nun direkt im Konfigurationstool versteckt. 

sudo raspi-config

[Menu] --> [Preferences] --> [Screen Blanking]

raspberrypi4-screensaveDie alten Methoden funktionieren nicht mehr.

Ein weiterer Workaround wäre die Installation eines extra Screensavers ( sudo apt-get install xscreensaver ), welcher dann deaktiviert wird. Dieser Schritt sollte im Normalfall allerdings nicht nötig sein.

 

NGINX - Webserver, Load Balancer und Proxy

28. Februar 2021 um 11:41

NGINX ist neben Apache einer der bekanntesten Webserver. Allerdings kann das Tool mehr als nur ein schlichter Webserver sein. Reverse Proxy, Load Balancer, Mail Proxy oder HTTP cache Server sind ein paar wenige Funktionen die Nginx beherrscht.

Ich möchte euch heute ein paar Beispiele zu einzelnen Funktionen zeigen. Den Anfang macht logischerweise die Installation. Als System verwende ich einen Ubuntu 20.04 LTS Server.

 

Nginx

 

Installation Nginx unter Ubuntu/Debian

Die Installation der frei verfügbaren Version (Die kommerzielle Variante nennt sich Nginx Plus) erfolgt über das Nginx Repository.

sudo wget https://nginx.org/keys/nginx_signing.key

sudo apt-key add nginx_signing.key

sudo nano /etc/apt/sources.list.d/nginx.list

  deb https://nginx.org/packages/mainline/ubuntu/ focal nginx
  deb-src https://nginx.org/packages/mainline/ubuntu/ focal nginx
              
sudo apt install nginx

sudo systemctl is-enabled nginx.service

sudo systemctl enable nginx

Nach der Installation erfolgt eine schnelle Kontrolle.

ss -ltn
ubuntu:~$ curl -I http://127.0.0.2

HTTP/1.1 200 OK
Server: nginx/1.19.6
Date: Thu, 17 Dec 2020 22:20:49 GMT
Content-Type: text/html
Content-Length: 612

Nginx selbst kompilieren

Es besteht auch die Möglichkeit, das Nginx Paket selbst zu kompilieren. Dies wird dann nötig, wenn Pakete benötigt werden, die in der Standardvariante nicht enthalten sind. Die war zum Beispiel bei der Verwendung von GeoIP oder LibreSSL mal bzw. ist noch so.

Mit dem folgenden Befehl können die installierten Module eingesehen werden.

Nginx –V

In der Standardinstallation sollte hier das Modul --add-dynamic-module=/build/nginx-5J5hor/nginx-1.18.0/debian/modules/http-geoip2 angezeigt werden. D.h. das eingangs erwähnte Geo IP Modul wird hier bereits geladen.

Einen eigenen Nginx Server unter Debian/Ubuntu einrichten

Nach einer erfolgreichen Installation zeigt Nginx eine Standardseite an. Diese kann gelöscht oder zusätzlich eine eigene virtuelle Seite angelegt werden. Auf einer IP können so mehrere Webseiten gehostet werden.

Folgende Struktur bietet sich unter Ubuntu an:

Konfiguration der einzelnen virtuellen Server.

/etc/nginx/sites-available/xyz

Momentan aktive Server wobei es sich hier um einen Symlink handelt.

/etc/nginx/sites-enabled/xyz

Schritt für Schritt heißt dies für einen Server welche auf Port 80 lauscht:

#config anlegen
touch /etc/nginx/sites-available/itrig

#config schreiben
nano /etc/nginx/sites-available/itrig

server {

        listen 80 default_server;    

        # Make site accessible from http://localhost/

        server_name localhost;
        location / {
            root /usr/share/nginx/html;
            index index.html index.htm;
        }
}

#aktiv setzen
ln -s /etc/nginx/sites-available/itrig /etc/nginx/sites-enabled/itrig

Konfiguration überprüfen

nginx –t

Neustart der Konfiguration mit

#lädt nur die neue Konfiguration
nginx –s reload

oder

sudo systemctl reload nginx


Nginx als Loadbalancer verwenden

Neben der reinen Webserverfunktion bietet NGINX die Möglichkeit den Server, als Loadbalancer zu betreiben. Da heißt der Server sorgt für Ausfallsicherheit bzw. Leistung von Webanwendungen, in dem er die Last verteilt. Vorstellen kann man sich dies wie einen Haupthändler, welcher Daten unter verteilt.

LoadbalancerNginx bietet mehrere Varianten an, wie diese Verteilung geschehen kann.

Round Robin

Das bekannteste dürfte das Round Robin Verfahren sein. Es wird eine Liste von Servern durchgearbeitet und die Last nach und nach verteilt. Ist die Liste zu Ende, fängt der Server wieder am Anfang an.

Im unteren Beispiel werden 3 Server in der Gruppe "itrigloadbalancer" zusammengefasst und der Webserver geht diese Liste nach und nach durch. Unterstützt werden die Protokolle HTTP, HTTPS, FastCGI, uwsgi, SCGI, memcached, und gRPC.

http {
    upstream itrigloadbalancer {
        server srv1.example.com;
        server srv2.example.com;
        server srv3.example.com;
    }

    server {
        listen 80;

        location / {
            proxy_pass http://itrig.de;
        }
    }
}

Least Connected

Eine weitere Lastverteilung ist das Least-Connected-Verfahren. Hier wird auf die aktiven Verbindungen der einzelnen Server geschaut. Der Server, welcher die geringste Anzahl an aktiven Verbindungen hat, bekommt die Anfrage zugeschanzt.

upstream intrigleastload {
        least_conn;
        server srv1.example.com;
        server srv2.example.com;
        server srv3.example.com;
    }

Session-Persistenz - IP Hash

Die dritte Möglichkeit Last zu verteilen, stellt das IP-Hash-Verfahren dar. Hier werden von den zugreifenden Client IPs Hash Werte erstellt. Anhand dieser Werte wird einem Client immer ein bestimmter Server zugewiesen. Damit erhält der Nutzer eine Session Persistenz, da Anfragen immer vom gleichen Server beantwortet werden.

Beim Round-Robin- oder Least-Connected-Load-Balancing kann jede nachfolgende Anfrage eines Clients potenziell auf einem anderen Servern ankommen.

upstream itrighash {
    ip_hash;
    server srv1.example.com;
    server srv2.example.com;
    server srv3.example.com;
}

Weighted load balancing

Alle Varianten lassen sich zusätzlich gewichten. So kann es vorkommen, dass ein Server eine bessere Hardware verbaut hat, als ein anderer. Mit Weighted load balancing lässt sich einzelnen Geräten mehr Last zuschieben.

upstream itrigmitgewicht {
        server srv1.example.com;
        server srv2.example.com weight=3;
        server srv3.example.com;
    }
upstream itrig {
    ip_hash;
    server srv1.example.com weight=2;
    server srv2.example.com;
    server srv3.example.com;
}

Mehr zu der Thematik unter load_balancing.


Nginx als Reverse Proxy verwenden

Den aufmerksamen Lesern dürfte aufgefallen sein, dass in einem Code Beispiel weiter oben eine Zeile mit "proxy_pass" vorhanden ist. Diese Zeile deutet darauf hin, dass NGINX als Reverse Proxy eingesetzt wird und ein Aufruf nicht direkt auf dem Server landet, sondern weitergeleitet wird.

location /webshop {
proxy_pass http://opencart.itrig.local;
}

location /landkarte {
proxy_pass http://192.168.100.99;
}

Es gibt verschiedene "Vorteile" für so eine Weiterleitung.

So kann der Nginx als HTTPS Endpunkt dienen und die Struktur dahinter kann unverschlüsselt agieren. Auch bietet NGINX die Möglichkeit als Reverse Proxy und als Load Balancer gleichzeitig zu arbeiten, die Details sind weiter oben zu lesen.

Weiter erlaubt der vorgeschaltete Server eine Caching Funktion, was zum schnelleren Ausliefern von Webseiten beitragen kann.

Hier ein Beispiel mit gesplittetem Cache aus der offiziellen NGINX Cache Dokumentation.

proxy_cache_path /path/to/hdd1 levels=1:2 keys_zone=my_cache_hdd1:10m
                 max_size=10g inactive=60m use_temp_path=off;
proxy_cache_path /path/to/hdd2 levels=1:2 keys_zone=my_cache_hdd2:10m
                 max_size=10g inactive=60m use_temp_path=off;

split_clients $request_uri $my_cache {
              50%          “my_cache_hdd1”;
              50%          “my_cache_hdd2”;
}

server {
    # ...
    location / {
        proxy_cache $my_cache;
        proxy_pass http://my_upstream;
    }
}

Das Thema Sicherheit spielt ebenso eine Rolle, da durch den vorgeschalteten Server, die Angriffsfläche kleiner gehalten wird.


NGINX mit Regex

Richtig interessant wird es, sobald die aufgerufene URL verschiedene Eigenschaften besitzt bzw. ein besonderes Verhalten zeigen sollte.

Diese Eigenschaften werden mit regulären Ausdrücken umgesetzt.

Hier sind ein paar Beispiele von regulären Ausdrücken für NGINX :

# Die URL ist durch * case insensitive
 location ~* /itrig/ {
    #...
    #...
    }

# Die URL ist case sensitive das ^ sorgt dafür das nur z.B. /itrig/logo.jpg gültig ist und nach dem ersten Match gestoppt wird.
 location ^~ /itrig/ {
    #...
    #...
    }

# Bilder anhand der Endung umleiten
 location ~ \.(gif|jpg|png)$ {
    root /data/images;
    }

# Unnötige Endungen aussperren (case insensitive)
 location ~* "\.(old|orig|original|php#|php~|php_bak|save|swo|aspx?|tpl|sh|bash|bak?|cfg|cgi|dll|exe|git|hg|ini|jsp|log|mdb|out|sql|svn|swp|tar|rdf)$" {
    deny all;
    }

# Einen Alias setzen
 location /_/static {
        alias /path/to/glory;
    }

# Rewrite einer URL,  "pfad" wird entfernt
    location /pfad {
        rewrite ^/pfad(.*)$ $1 break;
        proxy_pass http://splunk-api:8080;
    }

Es bietet sich immer an, eigene Befehle zu testen, bevor sie produktiv eingesetzt werden, denn neben Einschränkungen auf URLs kann ebenso Haus und Hof geöffnet werden.

Ein Regex Test sollte daher immer gemacht werden. Hier findet sich so ein Tool online regex.datahoarder.dev.

Das Tool kann jederzeit auf der eigenen Umgebung gehostet werden und ist auf Github zu finden.

Nginx_Regular_Expression_Tester

 

Was ist der Unterschied zwischen SMR und CMR bzw. PMR Festplatten ?

20. Dezember 2020 um 14:33

Bei mir stand wegen defekten Festplatten ein Tausch im hauseigenen NAS an. Der letzte Tausch ist lange her und inzwischen haben Kürzel wie SMR und PMR oder CMR in Produktbeschreibungen Einzug gehalten.

Doch wo genau ist eigentlich der Unterschied und warum unterstützt Synology keine SMR Festplatten?


CMR/PMR Technologie

PMR (Perpendicular Magnetic Recording) auch bekannt als CMR (Conventional Magnetic Recording) stellt die momentan übliche Methode dar, um Daten auf eine Festplatte zu schreiben. Hier wird senkrecht auf die einzelne Platte geschrieben. Dadurch kann eine hohe Datendichte erreicht werden und die Daten landet sofort auf ihrem finalen Speicherplatz.

SMR Technolgie

SMR (Shingled Magnetic Recording) ist die neuere Technologie und schreibt Daten anders auf Festplatten. Die Schreibspuren überlappen teilweise und vorhandene Spuren müssen nach einem Schreibvorgang eventuell noch einmal neu geschrieben werden. Um einen Datenverlust zu verhindern, besitzen diese Platten einen PMR Cache auf den äußeren Spuren. Dieser dient dem Zwischenspeichern der Daten bis sie auf den finalen Platz gelegt werden können. Diese Technologie bietet noch größere Speicherdichte, allerdings kann es bei vollem Cache auch dazu kommen, dass die Datenraten einbrechen.

Seagate

Auf den Webseiten der Hersteller wird inzwischen klar dargestellt, welche Festplattentechnologie zum Einsatz kommt, das war nicht immer so.

CMR_und_SMR___Seagate

(Bild: Seagate)

Western Digital

blog.westerndigital.com/wd-red-nas-drives/

(Bild: Western Digital)

Toshiba

Information zu Toshiba Platten findet ihr hier.

Synology NAS

Im Netz ist immer wieder davon zu lesen, dass der Hersteller der bekannten NAS Systeme keine SMR Festplatten unterstützt und das ist Stand 12/2020 richtig so. Synology hat eine eigene Seite, in der die SMR/CMR Technologien noch einmal erklärt werden.

Zusätzlich wird eine Kompatibilitätsliste für alle Festplattenhersteller angeboten. Prüft vor einen Kauf, ob das Modell unterstützt wird.

Zusammenfassung

  • CMR wird oft bei NAS Festplatten als Bezeichnung verwendet, damit ist PMR gemeint und die „normale“ Schreibart
  • CMR Festplatten bieten hohe Übertragungsraten (Streaming vom NAS z.B.)
  • SMR Festplatten haben eine geringere Leistungsaufnahme und benötigen weniger Scheiben bei mehr Speicherplatz
  • SMR Festplatten können beim Schreibvorgang langsamer werden (Cache-Overflow)
  • SMR Festplatten eigenen sich besser als Archiv, bei ständigen Schreibvorgängen kann ein Cache-Overflow drohen
  • Neue Anwender Festplatten setzen oft auf die SMR Technologie, da diese günstiger ist. (BarraCuda oder teilweise Western Digital Red/Blue). Welche Technologie die Hersteller den einzelnen Festplatten mitgegeben haben könnt ihr in den Screenshots oder beim Hersteller einsehen (Seagate oder Western Digital oder Toshiba)
  • NAS Festplatten verwenden meist CMR/PMR (Seagate IronWolf, Western Digital Red Plus)

 

BlackArch Linux 2020.12.01 und Kali Linux 2020.4

09. Dezember 2020 um 16:36

BlackArch Linux 2020.12.01

Das auf Arch Linux basierende Sicherheitswerkzeug enthält nun den Linux-Kernel 5.9.11, aktualisierte Pakete, Konfigurationsdateien und Werkzeuge. Außerdem wurden mehr als 100 neue Hacking-Tools hinzugefügt, sodass sich die Gesamtzahl der Tools in BlackArch auf  über 2000 beläuft.

 

blackarch

Weitere Information beinhaltet der Changelog

  • added more than 100 new tools
  • renamed 'live iso' to 'full iso'
  • updated blackarch-installer to v1.2.16
  • included linux kernel 5.9.11
  • adapted ISO creation to the new archiso version (work in progress)
  • removed unnecessary files from the ISO env
  • QA'ed and fixed a lot of packages (runtime exec, missing dependencies...)
  • updated all vim plugins and improved vim config options
  • updated all blackarch tools and packages including config files
  • updated all system packages
  • updated all window manager menus (awesome, fluxbox, openbox)

BlackArch


Kali Linux 2020.4

Der Platzhirsch hat ebenfalls geliefert und bringt die ZSH Shell für alle, die das Schweizer Messer frisch installieren. Das BASH Terminal hat in diesem Zuge auch ein Makerover erhalten und sieht nun etwas mehr nach ZSH aus.

Kali_Linux

Wer mit ZSH so gar nicht auf einen grünen Zweig kommt, es gibt einen Weg zurück zu BASH:

chsh -s /bin/bash

Zusätzlich hat die Kommandozeile einen neuen Infobereich erhalten, welcher sich je nach Installationsart anders präsentiert.

 

Win-KeX 2.5, der Windows Modus für WSL2 bringt den neuen “Enhanced Session Mode”, was Win-KeX auf Windows on ARM Geräten ermöglicht.

Dieses Feature wird in Zukunft relevanter werden, da Microsoft nun mit Surface X auch ARM Geräte im Portfolio hat. Solange aber WSL2 nicht richtig zusammen mit VirtualBox und Co funktioniert, ist dies weiterhin experimentell. (Siehe ITrig Artikel)

Die Kali-Dokumentation wurde schon vor einiger Zeit von WordPress zu Hugo migriert und ist unter kali.org/docs zu finden. Das Design wurde hier weiter angepasst.

Bei den Tools haben sich ebenfalls einige Neuzugänge eingeschlichen: Apple bleee, CertGraph, dnscat2, FinalRecon, goDoH, hostapd-mana, Metasploit Framework v6 und Whatmask

Weitere Änderungen können dem Changelog entnommen werden.

Download Kali



Übersicht 12/2020

 

Name Version Tools Besonderes Basis GUI
Autopsy 4.17.0 ??? The Sleuth Kit Windows  
BackBox 7.0 100+ AWS Ubuntu Xfce
BlackArch 2020.12.01 1750+ ArchLinux ArchLinux Multi
CAINE 11 100+ WinUFO Ubuntu Mate
DracOS 3.0   veraltet LFS DWM
DEFT Zero 2018.2   offline Lubuntu 14.04 Lxde
Kali Linux 2020.04 300+ ARM Images Debian Testing Multi
Kali AppStore   40+   Android  
LionSec 5.0   veraltet Ubuntu  
Matriux v3 RC1   offline Debian Gnome
NST 32 ??? Server integriert Fedora 32  
NetSecL OS 6.0   veraltet OpenSuse Lxde
Paladin 7.0     Ubuntu  
Parrot OS 4.10 700+ Cloud fähig Debian Buster MATE/KDE
Pentoo 2018.0 RC7.1   veraltet Gentoo Xfce
Ronin     veraltet Lubuntu Lxde
Sans SIFT 3.0   veraltet Ubuntu  

Lösung: Monero Wallet konnte nicht geöffnet werden std::bad_alloc

09. Dezember 2020 um 12:06

Dieser Bitcoin wird ja gerade wieder durchs Dorf gejagt, somit lohnt sich auch wieder ein Blick ins Monero Wallet dachte ich mir, allerdings erhielt ich beim Öffnen diesen feinen Fehler:

Wallet konnte nicht geöffnet werden std::bad_alloc bzw. "Couldn't open wallet: std::bad_alloc"

Monero

„Alles weg?“, geht einem fix durch den Kopf, muss aber nicht. Denn die GUI, welche seit Jahren auf einer Platte schlummerte, war einfach total veraltet.

Mit einer aktuellen GUI Version (0.17.1.6) von getmonero lief dann alles wieder wie geschmiert.

 

Windows 10 bootet erst im 2. Versuch - Eine Lösung

29. August 2017 um 11:46

Die Tage hatte ich ein interessantes Problem an einem Windows 10 Rechner.

Der Dell PC bootete und zeigte das Windows 10 Logo, danach passierte nichts weiter. Der PC war mit dem Anzeigen des Windows Logos quasi eingefroren.

Nach einem harten Reset bootete der PC völlig normal und Windows zeigte nach dem Start ebenfalls keinerlei Fehler an. Dieses Spiel konnte endlos wiederholt werden.

 

Schlaflos - Der Schnellstartmodus

Die Lösung war recht schnell gefunden. Der sogenannte Schnellstartmodus hatte sich nicht mit der schon etwas älteren Hardware vertragen.

Windows 10 fährt den PC nicht mehr richtig herunter, sondern versetzt ihn nur noch in einen Ruhemodus, damit haben manche Geräte wohl ihre Probleme.

Der Schnellstartmodus lässt sich über die "Systemsteuerung\Alle Systemsteuerungselemente\Energieoptionen\Was beim Drücken von Netzschaltern geschehen soll" anpassen.

windows10-energieoptionennetzschalter-windows10schnellstart-win10

Wer sich mit den neuen Windows Menüs noch nicht zurechtfindet, der kann den Weg über die alte Systemsteuerung gehen, diese muss allerdings via Cortana gesucht oder mit "Windows Taste+Pause" (startet im Untermenü "System") aufgerufen werden.

Diese Lösung funktioniert mit allen Windows 10 Versionen.

Sailfish OS Kontakte exportieren und auf Android oder iOS importieren

03. November 2020 um 12:03

Der Vorgang klingt abstrus, denn wer will schon von Sailfish OS auf Android wechseln, dennoch wurde mir genau diese Frage neulich gestellt.

Sailfish OS Kontakte exportieren

Wie lassen sich Sailfish OS Kontakte zum Beispiel von einem Jolla oder Sony auf Android exportieren?

Die Sailfish Kontakte App bietet keinen direkten Export an, dennoch ich es möglich ein Full Backup des Gerätes zu erstellen und genau damit befinden wir uns schon auf dem richtigen Weg.

Das neueste Sailfish OS (Pallas-Yllästunturi) erlaubt sogar das Erstellen eines vollen Backups direkt in eine Nextcloud, Dropbox oder ownCloud. Die so erstellte TAR Datei muss nur noch entpackt werden. Unter ".\People\data\all.vcf" ist eine VCF Datei mit allen euren Kontakten zu finden, die dann in Android oder iOS importiert werden können.

  1. Datensicherung in Sailfish OS direkt zu Nextcloud erstellen
  2. sailfish_backup_2020-10-28T20-33-00Z.tar entpacken
  3. all.vcf suchen .\People\data\all.vcf
  4. Datei in Android oder iOS importieren

sailfishos-backup

LVM Anleitung - Volume Group umbenennen (Ubuntu/Mint)

29. Oktober 2020 um 15:45

Nachdem ich vor ein paar Tagen auf LVM und einen Update Fehler eingegangen bin, möchte ich heute kurz zeigen, wie eine Volume Group umbenannt werden kann.

Unter Ubuntu/Mint ist das an sich nur ein Befehl, allerdings sollten noch weitere Dateien angepasst werden, da es sonst zu Problemen kommt.

fstab

LVM - Volume Group umbenennen

Informationen zur vorhandenen Volume Group anzeigen

sudo vgdisplay

 

Volume Group umbenennen

sudo vgrename Ubuntu16 ubuntu

  Volume group "Ubuntu16" successfully renamed to "ubuntu"

 

File system table editieren und Name anpassen

sudo  nano /etc/fstab

# <file system> <mount point>   <type>  <options>       <dump>  <pass>

/dev/mapper/ubuntu-root /               ext4    errors=remount-ro 0   1

/dev/mapper/ubuntu-tmp  /tmp            ext4    errors=remount-ro 0   1

/dev/mapper/ubuntu-var  /var            ext4    errors=remount-ro 0   1

 

Initramfs anpassen, ebenfalls hier den neuen Namen einfügen

sudo nano /etc/initramfs-tools/conf.d/resume

 

Danach muss noch der Grand Unified Bootloader GRUB angepasst werden

sudo nano /boot/grub/grub.cfg

 

Ab Ubuntu 18.04 gilt es einen weitereren Eintrag zu editieren

sudo nano /boot/grub/menu.lst

 

Nun muss noch das initial ram filesystem neu gebaut werden

sudo  update-initramfs -u -k all

 

Mögliche Fehlermeldung

update-initramfs: Generating /boot/initrd.img-5.4.0-52-generic

cryptsetup: ERROR: Couldn't resolve device

Solltet ihr cryptsetup nicht verwenden, dann könnt ihr diesen Fehler ignorieren oder auch gleich deinstallieren

sudo apt-get remove cryptsetup

Alles auf einmal

Hier nochmal alle Schritte zusammengestellt. Der Einfachheit halber, können Änderungen mit sed gemacht werden

#!/bin/bash

altevolumegroup="ubuntu16"
neuevolumegroup="ubuntu"

vgrename ${altevolumegroup} ${neuevolumegroup}
sed -i "s/${altevolumegroup}/${neuevolumegroup}/g" /etc/fstab
sed -i "s/${altevolumegroup}/${neuevolumegroup}/g" /boot/grub/grub.cfg
sed -i "s/${altevolumegroup}/${neuevolumegroup}/g" /boot/grub/menu.lst
sed -i "s/${altevolumegroup}/${neuevolumegroup}/g" /etc/initramfs-tools/conf.d/resume
update-initramfs -c -k all

Anstatt des Namens kann übrigens auch die UUID genommen werden. Allerdings solltet ihr das Script dann so nicht verwenden.

vgrename Zvlifi-Ep3t-e0Ng-U44h-o0ye-KHu1-nl7Ns4 ubuntu

 

LVM Fehler nach Ubuntu 20.04 Update - VG is using an old PV header, modify the VG to update

23. Oktober 2020 um 18:26

Neulich ist mir ein Fehler beim Update von Ubuntu 16.04 auf Ubuntu 20.04 im LVM aufgefallen. Und zwar wurde eine Meldung angezeigt, die auf alte PV (Physical Volume) Header in einer VG (Volume Group) anspielt.

Ich hatte zum Thema LVM vor langer Zeit mal einen Artikel verfasst, falls es jemanden interessiert.

Der Fehler lässt sich mit dem Befehl vchck, welcher die Konsistenz von VGs prüft, nachstellen:

sudo vgck
  WARNING: PV /dev/sda2 in VG derVolumeGroupName is using an old PV header, modify the VG to update.
  WARNING: PV /dev/sda5 in VG derVolumeGroupName is using an old PV header, modify the VG to update.


Mit dem gleichen Tool lässt sich der Fehler beheben und zwar mit der Option updatemetadata, laut man pages kann er folgendes:

Update VG metadata to correct problems.  If VG metadata was updated while a PV was missing, and the PV reappears with an old version of metadata, then this option (or any other command that writes metadata) will update the metadata on the previously missing PV.

 Der LVM Fehler sollte nach dem Ausführen von vgck zusammen mit updatemetadata nicht mehr auftauchen.

 sudo vgck --updatemetadata derVolumeGroupName

 

LVM Partitionen in Ubuntu, Linux Mint und der Konsole erstellen,vergrößern oder verkleinern - Eine Anleitung

21. Mai 2012 um 10:45

Die Wikipedia schreibt zu LVM: „Der Logical Volume Manager (LVM) ist eine hauptsächlich im Unix- und Linux-Umfeld verbreitete Abstraktionsebene zwischen Festplatten, Partitionen und Dateisystemen. Durch den LVM ist es möglich, dynamisch veränderbare Partitionen (Logical Volumes, kurz LV) zu bilden, die sich auch über mehrere Festplatten hinweg erstrecken können. Die Größe dieser virtuellen Datenträger lässt sich auch nach dem Anlegen eines Dateisystems noch ändern, selbst wenn schon Daten darin gespeichert wurden."

Es handelt sich somit schlicht um eine Festplattenpartitionierung, diese kann unter Ubuntu oder Mint mit Hilfe einer grafischen Oberfläche oder in der Konsole erstellt werden. Zunächst etwas zum Aufbau des Systems:

Allgemeine Aufteilung innerhalb eines LVM

  • Physical Volume (PV): /dev/sda (Eine oder mehrere Festplatten)
  • Volume Group (VG): Dynamische Zusammenfassung dieser Festplatten zu einem Pool bzw. Gruppe. Das heißt eine Volume Group kann sich auch über mehrere Festplatten erstrecken.
  • Logical Volume (LV): Logische Laufwerke innerhalb dieser Gruppe (unter Windows bekannt als C:\ oder D:\)

lvm-aufbau

 

LVM automatisch erstellen

Um alles automatisch zu erstellen ist kein großer Aufwand nötig. Man wählt einfach während der Installationsroutine die geführte Partitionierung für die gesamte Festplatte mit LVM aus und Ubuntu erledigt den Rest.

LVM Partitionen unter Ubuntu oder Mint von Hand erstellen

1. Um eine Partitionierung von Hand vorzunehmen, muss von der vorhandenen Festplatte eine primäre /boot Partition am Anfang erstellt werden. Diese sollte nicht größer als 300MB sein. Hier ein Beispiel aus Linux Mint.

mint-laufwerke

2.Danach kann der Rest der Festplatte mit dem Logical Volume Manager unterteilt werden. Dazu wählt man beispielsweise unter Ubuntu „Configure the Logical Volume Manager“ aus.

lvm-ubuntu

3. Jetzt muss, wie der Unterteilung oben zu entnehmen ist, erst eine Volume Group erstellt werden ("Create Volume Group"). Wir nennen die VG „Gruppe1“ und teilen ihr „/dev/sda1“ (free space) zu.

4. Nun kann mit der Erstellung der einzelnen logischen Partitionen fortgefahren werden (siehe Partitionen unter Ubuntu Server und Desktop). Dazu wählt man im gleichen Menü "Create logical Volume“ aus und gibt den Namen und die Größe der Partition an. Es werden auf jeden Fall die root, swap und data bzw. home Partition benötigt. Hat man alle Partitionen eingerichtet, geht man auf „Finish“ und fährt mit dem nächsten Schritt fort.

mountpoint-ubuntu

5. Unter Linux ist es so, dass wir den logischen Laufwerken noch das Dateisystem (aktuell ist ext4) und sogenannte Mountpoints zuweisen müssen.

  • /root
  • /swap
  • /home bzw. /data
  • /var
  • /usr

mountpoint2-ubuntu

 

6. Ist jede Partition eingerichtet, erhaltet ihr einen Überblick, der ungefähr wie folgt aussehen sollte. Sobald ihr die Konfiguration bestätigt, wird Ubuntu in euer eigens erstellten Partitionen installiert.

partitionen-ubuntu

LVM Partitionen über die Konsole erstellen

Natürlich kann mit dem LVM auch über die Konsole gearbeitet werden. Wer also die grafische Oberfläche scheut kann folgendermaßen vorgehen.

Das LVM System kommt mit Linux, kennt jedoch die verbauten Festplatten nicht, darum müssen diese dem System bekannt gemacht werden. Zuerst sollten die vorhanden Platten ausgelesen werden, um sie dann in den Logical Volume Manager einzulesen. Der ganze Prozess ist mit ein paar Befehlen recht schnell erledigt.

Auslesen der eingebauten Platten

df –h

Erstellt die Physical Volumes im LVM

pvcreate /dev/sda /dev/sdb

Erstellt eine Volume Group "Gruppe1" aus den eingelesenen Festplatten

vgcreate Gruppe1 /dev/sda /dev/sdb

Erstellt aus der VG "Gruppe1" das logische Laufwerk "data" mit 30GB Speicher

lvcreate -n data -L 30G Gruppe1

Das Laufwerk ist nun unter /dev/Gruppe1/data/ zu finden, nun kann das logisches Laufwerk "data" formatiert werden

mkfs.ext4 /dev/Gruppe1/data

Nun kann das Laufwerk unter "data" gemountet werden

mount /dev/Gruppe1/data /mnt/data

LVM Partition über die Konsole vergrößern

Sollte es je vorkommen, das die angelegte Partition zu klein wird. Kann diese in wenigen Schritten über die Konsole erweitert werden.

Überprüfen ob Speicherplatz auf der Volume Group vorhanden ist (Unter Free PE / Size sind die Werte zu finden)

vgdisplay Gruppe1

Ist das nicht der Fall, muss die neue Festplatte/Partition erst der VG "Gruppe1" hinzugefügt werden. Alternativ geht dies auch direkt über fdisk und co.

vgextend Gruppe1 /dev/sda2

Danach das Logische Laufwerk um 20GB vergrößern

lvextend –L +20G /dev/Gruppe1/data

Nun ist das Device vergrößert und das Dateisystem (ext3 oder ext4) muss ebenfalls vergrößert werden.

resize2fs /dev/Gruppe1/data

Alternativ kann das Laufwerk auch auf 10GB verkleinert werden

unmount /dev/Gruppe1/data

resize2fs –s -10G /dev/Gruppe1/data

lvreduce –L 10G /dev/Gruppe1/data

 

Die wichtigsten LVM Konsolenbefehle für Physical Volumes, Volume Groups und Logical Volumes

Als letzter Punkt noch einmal ein paar der wichtigsten Befehle im Überblick

  • pvcreate - Erstellen eines physikalischen Volumes
  • pvdisplay - Anzeigen der physikalischen Volumes
  • pvs - Anzeigen von Statistiken über physikalische Volumens
  • pvscan - Festplatten nach physikalischen Volumens durchsuchen
  • pvresize - verändern der Größe eines PV
  • pvmove - verschieben von PVs

 

  • vgcreate - Erstellen einer Volume Group
  • vgdisplay - Anzeigen von Volume Groups
  • vgs - Anzeigen von Statistiken über die vorhandenen Volume Groups
  • vgscan - Festplatten nach Volume Groups durchsuchen
  • vgck - Überprüfen einer Volume Group
  • vgrename - umbenennen einer Volume Group
  • vgextend - Vergrößern einer Volume Group
  • vgreduce - Verkleinern der Volume Group

 

  • lvcreate - Erstellen von logischen Laufwerken
  • lvdisplay - Anzeigen der logischen Laufwerken
  • lvs - Anzeigen der Statistiken über die logischen Laufwerken
  • lvscan - Suchen nach logischen Laufwerken im System
  • lvrename - Umbenennen von logischen Laufwerken
  • lvextend - Vergrößern von logischen Laufwerken
  • lvreduce - Verkleinern von logischen Laufwerken
  • lvresize - Größe von logischen Laufwerken anpassen

PostgreSQL 12 Cluster auf PostgreSQL 13 aktualisieren

19. Oktober 2020 um 16:44

Die neue Version der Datenbanksoftware ist bereits einige Tage verfügbar.

Wer sich mit den Neuerungen beschäftigen möchte, der kann gerne in die Release Notes schauen oder sich diese Video zu Gemüte führen.

 

Hier soll es heute um das Update auf die neueste Version unter Ubuntu, Mint und Co gehen.

An dieser Prozedur hat sich seit den letzten Releases nicht wirklich etwas geändert, dennoch kann es nicht schaden, den Vorgang noch einmal durchzuspielen.

postgres_logo

Installation und Update auf PostgreSQL 13 unter Ubuntu

# Create the file repository configuration:
sudo sh -c 'echo "deb http://apt.postgresql.org/pub/repos/apt $(lsb_release -cs)-pgdg main" > /etc/apt/sources.list.d/pgdg.list'

# Import the repository signing key:
wget --quiet -O - https://www.postgresql.org/media/keys/ACCC4CF8.asc | sudo apt-key add -

# Update the package lists:
sudo apt-get update

# Install the latest version of PostgreSQL.
sudo apt-get -y install postgresql-13

# Sicherung erstellen
sudo su postgres
pg_dumpall > Sicherung
exit

#Vorhandene Cluster anzeigen
pg_lsclusters

#Neues Cluster anhalten
sudo pg_dropcluster --stop 13 main

#Vorhandenes Cluster aktualisieren
sudo pg_upgradecluster 12 main

postgresql13

Nun kanns die neue Version getestet werden, sollte alles korrekt sein, kann das alte Cluster entfernt werden

sudo pg_dropcluster 11 main
sudo pg_dropcluster 12 main

 

Läuft nicht ganz rund – WSL2 mit Windows 10 2004 und VirtualBox

20. September 2020 um 14:29

In der Vergangenheit hatte ich bereits über WSL2 berichtet und die neuen Funktionen, die damit einhergehen. Leider kommt es nach der Aktivierung von WSL2 unter Windows 10 2004 zu Problemen mit VirtualBox.

Microsoft sind Probleme bekannt und listet dies auch auf der betreffenden FAQ Seite auf.

Ich hatte beispielsweise in der Vergangenheit mit aktivem WSL2 Probleme meine vorhandene Linux Server Systeme zu starten, bereits beim Bootvorgang kam es zu Kernel Fehlern, welche das System ausbremsten.

Da waren Fehler wie VERR_NEM_VM_CREATE_FAILED oder VERR_NEM_MISSING_KERNEL_API_2

WSL1 kannte diese Probleme noch nicht, da es Hyper-V (Windows Hypervisor Plattform) nicht verwendete, WSL2 tut aber genau dies, was wiederum zu dubiosen Fehlermeldungen in Verbindung mit VirtualBox führt.

Schlimmer wurde es mit Ubuntu Desktop 20.04 unter VirtualBox, hier war es nicht mehr möglich ein apt update auszuführen, ohne Hash Fehler (Hash sum mismatch) zu erhalten.

Hash_sum_mismatch

WSL2 und VirtualBox entweder oder - Die Lösung

Zunächst solltet ihr für eine aktuelle Umgebung sorgen

  • Aktualisiert VirtualBox, die neueste September Version 6.1.14 hat eines der hier beschriebenen Probleme gelöst. Changelog-6.1#v14
  • Deaktiviert das  Feature Windows Feature "Plattform für virtuelle Computer", damit greift VirtualBox auf seine eigene Engine zurück

PlattformfuervirtuelleComputer

Nach einem Neustart sollten alle Probleme in VirtualBox in Verbindung mit Linux Installation und Fehlern wie "Hash sum mismatch" oder "failed to fetch store" der Vergangenheit angehören. Negativer Effekt, WSL2 funktioniert nun nicht mehr.

Zum besseren Verständnis eine Übersicht der einzelnen Funktionen

  • Hyper-V ist der Hypervisor von Microsoft.
  • Plattform für virtuelle Computer - Ermöglicht Unterstützung für virtuelle Maschinen und ist für WSL2 erforderlich.
  • Windows-Hypervisor-Plattform - Ermöglicht die Ausführung von Virtualisierungssoftware auf dem Windows-Hypervisor. Die Hypervisor-Plattform ist eine API, die Drittanbieter-Entwickler für die Verwendung von Hyper-V verwenden können, beispielsweise Oracle VirtualBox oder Docker.

 

WSL und VirtualBox zusammen verwenden

Wie bereits oben erwähnt ist momentan ein Zusammenspiel von VirtualBox und WSL2 nicht ohne Probleme möglich.

Wer dennoch beide System verwenden möchte, der hat momentan nur die möglich auf WSL1 downzugraden.

WSL-Ubuntu_18.04_LTS_downgrade

dism.exe /online /enable-feature /featurename:VirtualMachinePlatform /all /norestart

wsl --list –verbose

wsl --set-version kali-linux 1

dism.exe /online /disable-feature /featurename:VirtualMachinePlatform /norestart

 

WSL selbst sollte natürlich weiterhin in den Windows Einstellungen aktiv sein.

WindowsSubsystemfuerLinux

Neue Sicherheitsdistributionen veröffentlicht: Kali 2020.3 und Parrot 4.10

23. August 2020 um 22:46

Zum Ende des Quartals haben die zwei Szenegrößen Kali und Parrot neue Versionen ihrer Security Distributionen veröffentlicht. Kali 2020.3 hat eine Z-Shell bekommen und Parrot 4.10 ein Update seines AnonSurf (Tor-Netzwerk) Tools implementiert. Hier die Details der Releases.

 

parrot

Parrot Security 4.10

Neben den üblichen Updates wie des Kernels (5.7) und der vorhandenen Tools fällt bei der Installation die neue Auswahl von XFCE als Desktopumgebung auf.

Anonym

Dennoch ist die größere Neuerung AnonSurf 3.0. Das hauseigene Tool wurde in 3 Module (GUI, Daemon und Utilities) unterteilt. Die in Nim geschriebene Oberfläche erlaubt eine einfache Bedienung und Zugriff auf zusätzliche Einstellungen und Monitoring Funktionen. Der Daemon behält den Systemstatus im Auge und führt nicht mehr zu Problemen beim Herunterfahren.

anonsurf

Tools

Das bekannte Metasploit wird in Version 6.0 ausgeliefert. Mit dabei eine Ende-zu-Ende Verschlüsselung für Meterpreter, sowie eine SMBv3 Client Unterstützung.

Ebenfalls aktualisiert wurde GVM 11 (Greenbone Vulnerability Management Version 11) auch bekannt als OpenVAS.

Das Release Log zeigt alle Anpassungen der neuen Version.

Das Update auf die neue Version erfolgt via CLI.

sudo parrot-upgrade

oder

sudo apt update && sudo apt full-upgrade

Download


Kali_Linux

Kali 2020.3

ZSH

Wie bereits eingangs erwähnt hat Kali damit begonnen Bash mit ZSH zu ersetzen. Noch ist dieser Wechsel nicht bindend, dies wird sich in Zukunft aber ändern. Mit chsh -s /bin/zsh und echo $SHELL könnt ihr dem gerne vorgreifen.

Nutzer die auf 2020.3 aktualisieren, sollten die Shell manuell installieren

sudo apt install -y zsh zsh-syntaxhighlighting zsh-autosuggestions

Vor und Nachteile gibt es für die Z-Shell sicher viele, zu den Vorteilen zählt eine bessere Autovervollständigung, Autokorrektur und Globbing.

Weitere Infos und Erweiterungen sind unter https://ohmyz.sh/ zu finden.

Icons

Bereits im Vorfeld angekündigt wurde das neue Icon Set. Die Icons wurde nun eingebunden und geben der Oberfläche zusätzlich Farbe.

Kalindows

Mit Win-KeX (Windows + Kali Desktop EXperience) wurde für WLS (Windows Subsysteme for Linux) ein GUI eingeführt. Bisher konnte unter Windows nur auf der Kommandozeile gearbeitet werden, dies ist nun Vergangenheit. Benötigt wird WSL2, welches mit der aktuellen Windows Version bereits ausgerollt wird, aber auch auf Windows 10 Version 1903 oder 1909 unterstützt wird.

Ich hatte dazu bereits einen Artikel verfasst (WSL2 - Windows-Subsystem-for-Linux - Installation unter Windows).

Win-Kex

Die Installation in WSL erfolgt mit

sudo apt update 

sudo apt install -y kali-win-kex

kex

Kali NetHunter Bluetooth Arsenal

Die mobile Kali Version unterstützt nun Nokia 3.1 und Nokia 6.1 Smartphones.

Mit dem Bluetooth Arsenal wurde eine Toolsammlung mit praktischen vorgefertigten Methoden gebündelt, welches die App zusätzlich bereichert.   

Weitere Neuerungen wie HiDPI oder ARM Änderungen sind im Release Log zu finden.

Download


 

Übersicht 08/2020

 

Name Version Tools Besonderes Basis GUI
Autopsy 4.13.0 ??? The Sleuth Kit Windows  
BackBox 7.0 100+ AWS Ubuntu Xfce
BlackArch 2020.06.01 1750+ ArchLinux ArchLinux Gnome
CAINE 11 100+ WinUFO Ubuntu Mate
DracOS 3.0   veraltet LFS DWM
DEFT Zero 2018.2   offline Lubuntu 14.04 Lxde
Kali Linux 2020.03 300+ ARM Images Debian Testing Multi
Kali AppStore   20+   Android  
LionSec 5.0   veraltet Ubuntu  
Matriux v3 RC1   offline Debian Gnome
NST 32 ??? Server integriert Fedora 32  
NetSecL OS 6.0   veraltet OpenSuse Lxde
Paladin 7.0     Ubuntu  
Parrot OS 4.10 700+ Cloud fähig Debian Buster MATE/KDE
Pentoo 2018.0 RC7.1   veraltet Gentoo Xfce
Ronin     veraltet Lubuntu Lxde
Sans SIFT 3.0   veraltet Ubuntu  
❌