Lese-Ansicht

Upgrade auf Ubuntu 26.04 für Ungeduldige

Auf einen Blick

​Der erste Blick auf die neue Long-Term-Support-Version (LTS) von Ubuntu lässt vermuten, dass die Entwickler in den vergangenen zwei Jahren im Tiefschlaf gewesen sind. Doch der Schein trügt: Ubuntu 26.04 hat es in sich, auch wenn es rein optisch kaum Unterschiede zur Vorgängerversion 24.04 gibt.

​Ubuntu 26.04 LTS wird mit GNOME 50 und Linux-Kernel 7.0 ausgeliefert und setzt nativ ausschließlich auf den Display-Server Wayland. X11 ist damit endgültig Geschichte. Zwar könnten dadurch vereinzelt Legacy-Anwendungen den Dienst quittieren, doch für den Großteil der Nutzer wird dieser Übergang dank ausgereifter Kompatibilitätsschichten nahtlos verlaufen.

​Die wichtigsten Neuerungen

​Besonders hervorzuheben sind folgende Funktionen, die den Desktop-Alltag effizienter gestalten:

  • Optimierte Energie-Modi: Die Energieverwaltung wurde deutlich verfeinert. Nutzer können nun noch einfacher zwischen den Profilen Leistung, Ausgeglichen und Energie sparen wählen, um die Akkulaufzeit oder die Systemperformance gezielt auf die aktuelle Aufgabe abzustimmen.
  • Autostart-Management: Software kann nun direkt nach dem Systemstart automatisch ausgeführt werden. Besonders für Kiosk-Szenarien ist dies ein echter Gewinn: So lässt sich beispielsweise festlegen, dass direkt nach dem Booten automatisch der Browser im Vollbild startet.
  • Individuelle Skalierung: Endlich lassen sich angeschlossene Monitore unabhängig voneinander skalieren – ein Segen für Setups mit unterschiedlichen Pixeldichten.
  • Moderner Dokumentenbetrachter: PDFs können jetzt nativ mit Kommentaren, Texten und handschriftlichen Notizen versehen werden, was Drittanbieter-Tools für einfache Korrekturen überflüssig macht.
  • System-Werkzeuge: Mit Sysprof (Benchmark-Tool) und Ressourcen (ein moderner, einsteigerfreundlicher Taskmanager) ziehen mächtige Analyse-Tools ein, die nicht nur schick aussehen, sondern auch intuitiv bedienbar sind.
  • Neues Terminal (Ptyxis): Das neue Standard-Terminal speichert Bearbeitungsstände und erlaubt mehrere Sitzungen in einem einzigen Fenster.
  • Sicherheitszentrum: Hier können App-Berechtigungen (ähnlich wie unter Android) nachträglich verwaltet, erteilt oder entzogen werden.
  • Systempflege: Das Tool Anwendungen & Aktualisierungen weicht einer Verschlankung der Systemsteuerung. Während Einsteiger nun eine übersichtlichere Oberfläche im neuen App-Center (vormals Anwendungszentrum) vorfinden, werden komplexe Repository-Einstellungen künftig – wie bei Profis ohnehin üblich – direkt über das Terminal verwaltet.

​Das Upgrade

Wichtig: Bevor man das Upgrade wagt, ist ein vollständiges Backup des Systems und der persönlichen Daten unabdingbar!

​Offiziell wird das Upgrade von älteren Versionen meist erst mit dem ersten Point-Release (26.04.1) angeboten. Ungeduldige können den Prozess jedoch vorab manuell erzwingen.

Tipp: Während der Aktualisierung wird man oft gefragt, ob bestehende Konfigurationsdateien ersetzt werden sollen. Hierzu wählt man im Zweifel das Beibehalten der alten Dateien, um individuelle Anpassungen nicht zu verlieren.

sudo apt install ubuntu-release-upgrader-core
sudo do-release-upgrade -d
Systemdetails – Systeminformationen Ubuntu 26.04
Systeminformationen Ubuntu 26.04

Fazit

​Nach dem ersten Reboot lohnt es sich, das Dash kurz aufzuräumen und verwaiste Icons zu entfernen. Ein kurzer Check der Paketquellen unter /etc/apt/sources.list.d stellt zudem sicher, dass alle Drittanbieter-Repositorys korrekt auf die neue Version umgestellt oder bei Bedarf modernisiert wurden.

​Nutzer von Ubuntu 24.04 werden sich sofort heimisch fühlen, da die gewohnte Bedienung trotz der vielen technischen Neuerungen unter der Haube erhalten bleibt. Das Upgrade lohnt sich besonders für User, die von der verbesserten Hardware-Unterstützung und den neuen Sicherheits-Features profitieren wollen.

Ubuntu 26.04 LTS wird fünf Jahre unterstützt – Ubuntu Pro erweitert den Support auf zehn Jahre.

Der Beitrag Upgrade auf Ubuntu 26.04 für Ungeduldige erschien zuerst auf intux.de.

  •  

SkySend: Teile Dateien, Notizen und Passwörter Ende-zu-Ende verschlüsselt

Ein neuer adminForge Service kann ab sofort genutzt werden.

Ein Screenshot der Hauptseite von SkySend. Man erkennt ein Upload-Feld für Dateien.

Mit SkySend kannst du Dateien, Notizen, Passwörter, Code und SSH-Keys mit anderen per Link teilen. Deine Daten sind dabei Ende-zu-Ende verschlüsselt und nur für dich und dem Empfänger sichtbar.

https://share.adminforge.de

Features:

  • Teilen von Dateien, Notizen, Passwörter, Code und SSH-Keys
  • Upload von einzelnen Dateien oder ganzen Verzeichnissen
  • Automatische Löschung nach einem ausgewählten Zeitraum oder Anzahl der Downloads
  • Zero knowledge Ende-zu-Ende-Verschlüsselung. Auch der Server sieht nichts
  • CLI-Tool für automatische Workflows

Software: SkySend

 

Euer adminForge Team

UnterstützenDas Betreiben der Dienste, Webseite und Server machen wir gerne, kostet aber leider auch Geld.
Unterstütze unsere Arbeit mit einer Spende und diskutiere in unserem Chat mit.

by adminForge.

  •  

FitTrackee: Tracke deine Aktivitäten

Ein neuer adminForge Service kann ab sofort genutzt werden.

FitTrackee ermöglicht das Hochladen von Tracks aus Outdoor-Aktivitäten und die Anzeige von Statistiken. Workouts können gefiltert und auf einer Karte dargestellt werden.

FitTrackee ermöglicht das Hochladen von Tracks aus Outdoor-Aktivitäten und die Anzeige von Statistiken. Workouts können gefiltert und auf einer Karte dargestellt werden.

https://fit.adminforge.de

Features:

  • Import von Aktivitäten über GPX-Dateien, alternativ auch per ZIP mit mehreren GPX-Dateien.
  • Manuelle Erstellung von Workouts ohne GPX-Datei durch Eingabe von Datum, Zeit, Dauer und Distanz.
  • Unterstützung für mehrere Sportarten, darunter unter anderem Radfahren, Laufen, Wandern, Schwimmen, Skifahren, Trail und Gehen.
  • Dashboard mit Monatskalender, der Workouts und Rekorde anzeigt.
  • Kalenderansicht mit einstellbarem Wochenstart, Sonntag oder Montag.
  • Kartenansicht für Aktivitäten mit GPX-Daten auf OpenStreetMap-Basis.
  • Diagramme für Geschwindigkeit und Höhe bei GPX-Aktivitäten.
  • Wetteranzeige in den Aktivitätsdetails, wenn ein passender API-Schlüssel hinterlegt ist.
  • Anzeige von Wind inklusive Richtungshinweis.
  • Anzeige von Segmenten innerhalb einer Aktivität.
  • Zuweisung von Ausrüstung zu einer Aktivität.
  • Download der GPX-Datei einer Aktivität.
  • Bearbeiten und Löschen von Aktivitäten.
  • Notizen zu Aktivitäten.
  • Statistiken nach Woche, Monat und Jahr, jeweils pro Sportart.
  • Kennzahlen wie Distanz, Dauer, Anzahl der Workouts, Aufstieg, Abstieg und durchschnittliche Geschwindigkeit.
  • Persönliche Rekorde nach Sportart, etwa höchste Geschwindigkeit, längste Distanz, längste Dauer und größter Aufstieg.
  • Filterfunktionen für Aktivitäten, etwa nach Datum, Sportart, Ausrüstung, Titel, Notizen und Distanz.

Software: FitTrackee

Euer adminForge Team

UnterstützenDas Betreiben der Dienste, Webseite und Server machen wir gerne, kostet aber leider auch Geld.
Unterstütze unsere Arbeit mit einer Spende und diskutiere in unserem Chat mit.

by adminForge.

  •  

Mini QR: Der minimalistische QR-Code-Generator

Ein neuer adminForge Service kann ab sofort genutzt werden.

Eine App zum Erstellen schöner QR-Codes und zum Scannen verschiedener QR-Code-Typen.

 

Eine App zum Erstellen schöner QR-Codes und zum Scannen verschiedener QR-Code-Typen.

https://qr.adminforge.de

Features:

  • ✅ Barrierefrei: mindestens WCAG-A-konform
  • 🎨 Anpassbare Farben und Stile
  • 🖼️ Export als PNG, JPG & SVG
  • 📋 In die Zwischenablage kopieren
  • 🌓 Umschalten zwischen Hell-/Dunkel-/Systemmodus
  • 🎲 Zufälligen Stil generieren
  • 🌐 Verfügbar in über 30 Sprachen
  • 💾 QR-Code-Konfiguration speichern & laden
  • 🖼️ Eigenes Bild als Logo hochladen
  • 🎭 Vorlagen: Vorgefertigte QR-Code-Stile
  • 🖌️ Rahmen-Anpassung: Textlabels hinzufügen und den Rahmen um deinen QR-Code gestalten
  • 🛡️ Fehlerkorrekturstufe: Beeinflusst die Größe des QR-Codes und des Logos. Für größere Datenmengen niedrigere Korrekturstufen verwenden, damit der Code lesbar bleibt.
  • 📱 QR-Code-Scanner: Codes mit der Kamera oder per Bild-Upload scannen, mit intelligenter Erkennung für URLs, E-Mails, Telefonnummern, WLAN-Zugangsdaten und mehr
  • 📦 Stapel-Export: CSV-Datei mit mehreren Datensätzen importieren und alle QR-Codes gleichzeitig exportieren. Vorlagen findest du unter public/batch_export_templates/
  • 📲 PWA-Unterstützung: MiniQR als Desktop- oder Mobile-App installieren
  • 📝 Datenvorlagen: Unterstützung für verschiedene Datentypen wie Text, URLs, E-Mails, Telefonnummern, SMS, WLAN-Zugangsdaten, vCards, Standorte und Kalenderereignisse

Software: mini-qr

 

Euer adminForge Team

UnterstützenDas Betreiben der Dienste, Webseite und Server machen wir gerne, kostet aber leider auch Geld.
Unterstütze unsere Arbeit mit einer Spende und diskutiere in unserem Chat mit.

by adminForge.

  •  

Linux-Sicherheit prüfen: Mobile Devices & Apps

Sicherheit für Linux-basierte Mobile-Devices und App-Umgebungen prüfen

Linux bildet die Grundlage für zahlreiche mobile Betriebssysteme und App-Umgebungen, darunter Android und eine wachsende Zahl spezialisierter Embedded-Plattformen. Wer Linux-Sicherheit prüfen möchte, steht vor einer komplexen Aufgabe: Der Kernel selbst, darüber liegende Middleware-Schichten, App-Laufzeitumgebungen und das Mobile-Device-Management greifen ineinander und schaffen ein breites Angriffspotenzial. Schwachstellen entstehen nicht nur im Code, sondern auch durch Fehlkonfigurationen, unsichere Kommunikationskanäle und mangelhafte Berechtigungskonzepte. Gerade in professionellen Umgebungen, in denen mobile Geräte sensible Unternehmensdaten verarbeiten, kann eine unentdeckte Lücke weitreichende Folgen haben. Dieser Artikel erläutert, welche Bereiche bei einer sicherheitstechnischen Prüfung Linux-basierter Mobilgeräte und App-Umgebungen besonders relevant sind, welche Methoden sich bewährt haben und worauf Sicherheitsteams bei der Planung und Durchführung achten sollten.

Die Angriffsfläche Linux-basierter mobiler Systeme verstehen

Kernel und Systemarchitektur als Ausgangspunkt

Der Linux-Kernel ist das Fundament jedes Android-Geräts und vieler spezialisierter mobiler Plattformen. Seine Sicherheitsmerkmale, darunter Mandatory Access Control (MAC) über SELinux oder AppArmor, Namespace-Isolation und Seccomp-Filter, bieten eine solide Basis. Dennoch entstehen Risiken, wenn Geräte mit veralteten Kernel-Versionen betrieben werden oder Hersteller eigene Patches einpflegen, ohne diese ausreichend zu testen.

Besonders kritisch sind Treiber-Schnittstellen: Proprietäre Hardwaretreiber werden häufig ohne denselben Qualitätssicherungsprozess entwickelt wie der mainline Kernel. Angreifer nutzen gezielt Schwachstellen in GPU-, Kamera- oder Modem-Treibern, um Privilegien zu eskalieren. Eine vollständige Sicherheitsprüfung muss daher auch diese Schicht einschließen.

Middleware, Laufzeitumgebungen und App-Isolation

Zwischen Kernel und Anwendung liegen Laufzeitumgebungen wie die Android Runtime (ART) sowie zahlreiche Systemdienste. Fehler in diesen Komponenten können dazu führen, dass Apps auf Ressourcen zugreifen, für die sie keine Berechtigung haben. Inter-Process-Communication-Mechanismen (IPC), etwa über Binder, sind ein klassisches Angriffsziel, da sie Schnittstellen zwischen privilegierten und unprivilegierten Prozessen schaffen.

App-Isolation funktioniert nur dann zuverlässig, wenn das Berechtigungsmodell konsequent umgesetzt wird. In der Praxis finden Sicherheitsteams regelmäßig Apps, die unnötig weitreichende Berechtigungen anfordern oder Systemschnittstellen nutzen, die eigentlich nur für Systemdienste vorgesehen sind.

Methoden zur Prüfung der Linux-Sicherheit in mobilen Umgebungen

Statische Analyse von App-Code und Konfigurationsdateien

Die statische Analyse untersucht App-Binaries, Konfigurationsdateien und Manifest-Dateien, ohne die Anwendung tatsächlich auszuführen. Dabei werden unter anderem folgende Aspekte geprüft:

  • Hardcodierte Zugangsdaten oder API-Schlüssel im Quellcode
  • Unsichere kryptografische Algorithmen oder veraltete Bibliotheken
  • Fehlkonfigurierte Berechtigungen im Android-Manifest
  • Exportierte Komponenten (Activities, Services, Broadcast Receiver), die ohne Authentifizierung erreichbar sind

Werkzeuge wie MobSF (Mobile Security Framework) automatisieren einen Teil dieser Analyse, ersetzen aber keine manuelle Prüfung durch erfahrene Tester.

Dynamische Analyse und Laufzeitinspektion

Bei der dynamischen Analyse wird die Anwendung in einer kontrollierten Umgebung ausgeführt. Netzwerkverkehr wird mitgeschnitten und auf unsichere Verbindungen, fehlende Zertifikatsprüfungen oder übermäßige Datenweitergabe untersucht. Laufzeitverhalten lässt sich mit Frameworks wie Frida instrumentieren, um Funktionen zu hooken, Verschlüsselungsroutinen zu inspizieren oder Sicherheitsmechanismen wie SSL-Pinning temporär zu umgehen.

Gerade in Linux-basierten Umgebungen ist die dynamische Analyse aufschlussreich, da viele Schwachstellen erst im Zusammenspiel verschiedener Systemkomponenten sichtbar werden. Root-Erkennungsmechanismen, Tamper-Protection und Debugger-Abwehr lassen sich hier ebenfalls auf ihre Wirksamkeit prüfen.

Penetrationstests auf Systemebene

Neben der App-Analyse umfasst eine vollständige Sicherheitsprüfung auch Tests auf Systemebene. Dabei werden Netzwerkdienste gescannt, offene Ports identifiziert und Exploits gegen bekannte Schwachstellen in Systemdiensten geprüft. Für Geräte, die in Unternehmensumgebungen eingesetzt werden, ist die Analyse des Mobile-Device-Managements (MDM) besonders relevant: Fehlkonfigurierte MDM-Profile können Geräterichtlinien aushebeln oder unberechtigten Zugriff auf verwaltete Ressourcen ermöglichen.

Wer den Sicherheitsstatus mobiler Anwendungen systematisch bewerten möchte, kann dafür einen strukturierten mobile App Pentest beauftragen, der App-Analyse, Systemprüfung und MDM-Bewertung kombiniert.

Typische Schwachstellen in Linux-basierten App-Umgebungen

Unsichere Datenspeicherung und Dateirechte

Einer der häufigsten Befunde bei der Prüfung mobiler Linux-Umgebungen ist die unsichere Datenspeicherung. Apps legen sensible Informationen in SharedPreferences, SQLite-Datenbanken oder einfachen Textdateien ab, ohne diese zu verschlüsseln. Auf gerooteten Geräten sind solche Daten für andere Prozesse lesbar. Dateiberechtigungen spielen dabei eine zentrale Rolle: world-readable Dateien oder Verzeichnisse mit zu offenen Rechten sind ein klassisches Einfallstor.

Darüber hinaus hinterlassen Apps häufig Spuren in temporären Dateien, Log-Ausgaben oder Cache-Verzeichnissen, die vertrauliche Daten enthalten. Ein sorgfältiger Test prüft systematisch alle Speicherorte, auf die eine App schreibt.

Schwachstellen in der Netzwerkkommunikation

Fehlende oder fehlerhafte Implementierungen von TLS sind in mobilen App-Umgebungen weit verbreitet. Besonders problematisch sind:

  • Deaktivierte Zertifikatsprüfungen in Entwicklungsversionen, die versehentlich in Produktionsbuilds übernommen werden
  • Fehlende Certificate-Pinning-Implementierungen bei sicherheitskritischen Apps
  • Unverschlüsselte Kommunikation über HTTP für bestimmte Endpunkte
  • Schwache oder selbst signierte Zertifikate in Unternehmensumgebungen

Linux-basierte Geräte sind hier nicht grundsätzlich unsicherer als andere Plattformen, aber die Vielfalt der eingesetzten Bibliotheken und Frameworks erhöht die Wahrscheinlichkeit inkonsistenter Implementierungen.

Privilege Escalation und Kernel-Exploits

Auf System- und Kernel-Ebene sind Privilege-Escalation-Angriffe besonders folgenreich. Angreifer, die eine App-Sandbox durchbrechen, können über ungepatchte Kernel-Schwachstellen Root-Rechte erlangen und damit sämtliche Sicherheitsmechanismen des Geräts aushebeln. SELinux-Policies, die zu permissiv konfiguriert sind, bieten dann keinen ausreichenden Schutz mehr.

Regelmäßige Kernel-Updates und die Prüfung aktiver SELinux-Kontexte sind grundlegende Maßnahmen, um dieses Risiko zu begrenzen.

Mobile-Device-Management und Linux-Sicherheit prüfen

MDM-Konfigurationen als Sicherheitsschicht

Mobile-Device-Management-Systeme verwalten Geräterichtlinien, App-Verteilung und Zugriffskontrolle in Unternehmensumgebungen. Sicherheitsteams, die Linux-Sicherheit prüfen, dürfen diesen Bereich nicht vernachlässigen: Ein schwach konfiguriertes MDM kann als Einstiegspunkt dienen oder den Schutz korrekt konfigurierter Geräte untergraben.

Typische Prüfpunkte bei MDM-Systemen sind die Durchsetzung von Passwortrichtlinien, die Verschlüsselung verwalteter Daten, die Kontrolle installierbarer Apps sowie die Möglichkeit zur Remote-Wipe-Funktion. Enrollment-Prozesse sollten gegen unbefugte Geräteanmeldungen abgesichert sein.

Geräte-Compliance und Sicherheitsrichtlinien

Neben der technischen Konfiguration ist die Durchsetzung von Compliance-Anforderungen relevant. Kann ein Gerät, das gerootet wurde oder eine veraltete Systemversion verwendet, weiterhin auf Unternehmensressourcen zugreifen? Sind Integritätsprüfungen wie Android Attestation in den Enrollment-Prozess integriert? Diese Fragen lassen sich nur durch eine kombinierte Prüfung aus technischer Analyse und Prozessbewertung beantworten.

Praktische Empfehlungen für Sicherheitsteams

Sicherheitsteams, die Linux-Sicherheit prüfen möchten, profitieren von einem strukturierten Vorgehen:

Zunächst sollte eine vollständige Inventarisierung aller eingesetzten mobilen Geräte, Betriebssysteme und App-Versionen erfolgen. Ohne diesen Überblick lassen sich Priorisierungen nicht sinnvoll treffen. Besonderes Augenmerk gilt dabei Geräten, die nicht mehr mit Sicherheitsupdates versorgt werden.

Im nächsten Schritt empfiehlt sich eine Bedrohungsmodellierung: Welche Daten verarbeiten die eingesetzten Apps? Welche Angreifer sind realistischerweise relevant? Diese Analyse bestimmt, welche Testtiefe und welche Methoden angemessen sind.

Die eigentliche technische Prüfung sollte statische und dynamische Analyse kombinieren und Systemebene sowie Netzwerkkommunikation einschließen. Ergebnisse sollten priorisiert und mit konkreten Maßnahmen verknüpft werden, damit Entwicklungs- und Betriebsteams direkt handeln können.

Schließlich ist Sicherheit kein einmaliges Projekt. Regelmäßige Wiederholungstests, idealerweise nach jedem größeren App-Release oder Systemupdate, stellen sicher, dass neu eingeführte Schwachstellen frühzeitig erkannt werden.

Häufig gestellte Fragen

Was umfasst die Prüfung der Linux-Sicherheit für mobile Geräte?

Die Prüfung der Linux-Sicherheit für mobile Geräte umfasst mehrere Ebenen: den Linux-Kernel und seine Konfiguration, Middleware und Systemdienste, App-Laufzeitumgebungen sowie die Netzwerkkommunikation. Hinzu kommen die Analyse von App-Code, die Bewertung von Datenspeicherpraktiken und die Prüfung des Mobile-Device-Managements. Eine vollständige Prüfung kombiniert statische Analyse, dynamisches Testen und manuelle Expertenprüfung.

Wie unterscheidet sich ein Linux-Sicherheitstest von einem Standard-Android-Pentest?

Android basiert auf Linux, aber ein Linux-fokussierter Sicherheitstest geht tiefer: Er berücksichtigt Kernel-Konfigurationen, SELinux-Policies, Treiber-Schnittstellen und systemnahe Dienste, die bei einem reinen App-Test häufig ausgeblendet bleiben. Besonders bei Embedded-Geräten oder Custom-Android-Builds ist diese erweiterte Perspektive entscheidend, da Hersteller oft eigene Anpassungen vornehmen, die neue Angriffsvektoren einführen.

Wie häufig sollte die Sicherheit Linux-basierter mobiler Systeme geprüft werden?

Eine vollständige Sicherheitsprüfung empfiehlt sich mindestens einmal jährlich sowie nach wesentlichen System- oder App-Updates. Bei sicherheitskritischen Anwendungen, etwa in der Gesundheitsversorgung oder im Finanzbereich, sind häufigere Tests und ein kontinuierliches Monitoring sinnvoll. Patch-Management und die Überwachung neu veröffentlichter Schwachstellen sollten unabhängig davon dauerhaft etabliert sein.

Der Beitrag Linux-Sicherheit prüfen: Mobile Devices & Apps erschien zuerst auf intux.de.

  •  

adminForge Mail: Sicheres E-Mail Hosting für Privatsphäre-Enthusiasten

Ein neuer adminForge Service kann ab sofort genutzt werden.

adminForge Mail: Deine E-Mail. Deine Freiheit. Professionelles Mail-Hosting ohne Tracking. 100% werbefrei, sicher und mit Standort in Deutschland.

 

Deine E-Mail. Deine Freiheit. Professionelles Mail-Hosting ohne Tracking. 100% werbefrei, sicher und mit Standort in Deutschland.

https://mail.adminforge.de

Aufbau:

  • Portal zur Registrierung eines Kontos mit Domainauswahl
  • Jede Domain hat seinen eigenen mailcow-Server
  • mailcow Stable-Version (Docker)
  • Als mailcow-Storage wird ein 3-fach redundanter RustFS S3 Storage eingesetzt.
  • RustFS hat 3x Storage Box von Hetzner mit jeweils (zu Beginn) 1 TB Speicher. Das macht netto 2 TB.
  • Als Dateisystem wird JuiceFS eingesetzt, dies spricht direkt RustFS an und ermöglicht den Erhalt der mailcow-Verzeichnisstruktur.
  • Serverseitige Mail-Verschlüsselung durch mailcow-Cryptmodul.
  • Tägliche snapshot-basierte Sicherung der Storage Boxen.
  • Tägliche Sicherung der mailcow Mails, Datenbank und Konfiguration.

Features:

  • Privatsphäre & Sicherheit: Keine Analyse deiner Mails, kein Tracking. Deine Daten gehören dir. Alle E-Mails werden auf der Festplatte verschlüsselt abgelegt.
  • Kalender & Kontakte: Verwaltung deiner Termine und Adressbücher via CalDAV, CardDAV und Exchange ActiveSync (EAS) auf allen Geräten.
  • 100% Werbefrei: Genieße ein sauberes Postfach mit 1 GB Speicher und ohne lästige Werbebanner. Voller Fokus auf deine Korrespondenz.
  • Standort Deutschland: Serverstandorte ausschließlich in Deutschland bei Hetzner Online. DSGVO-konform und sicher.

Software: mailcow

 

Euer adminForge Team

UnterstützenDas Betreiben der Dienste, Webseite und Server machen wir gerne, kostet aber leider auch Geld.
Unterstütze unsere Arbeit mit einer Spende und diskutiere in unserem Chat mit.

by adminForge.

  •  

Versteckte CLI-Optionen in Open-Source-Projekten: Fluch oder Segen?

Transparenzhinweis: Der Entwurf dieses Artikels wurde mithilfe der Mistral-KI Le Chat erstellt und von mir redigiert.

Versteckte CLI-Optionen: Warum Entwickler sie nutzen – und warum das umstritten ist

In der Welt der Open-Source-Software gibt es eine Praxis, die immer wieder für Diskussionen sorgt: das Verstecken von CLI-Optionen (Command Line Interface). Diese Optionen sind oft nicht in der offiziellen Dokumentation aufgeführt, werden aber dennoch im Code implementiert – sei es für Debugging-Zwecke, als Notlösung für spezielle Anwendungsfälle oder als „Geheimtipp“ für erfahrene Nutzer.

Ein Beispiel ist der Commit im xfsprogs-Projekt, der die Erstellung von XFS-Dateisystemen kleiner als 300 MB standardmäßig blockiert. Gleichzeitig wurde eine undokumentierte Option (--unsupported) eingeführt, um diese Beschränkung zu umgehen – allerdings ohne Hinweis in der Manpage mkfs.xfs(8) oder Hilfeausgabe.

Doch warum tun Entwickler das? Und welche Vor- und Nachteile hat diese Praxis für Nutzer, Maintainer und die Community?


Warum versteckte CLI-Optionen existieren

1. Flexibilität für Entwickler und Tester

  • Debugging & Testing: Versteckte Optionen ermöglichen es Entwicklern, spezielle Testumgebungen zu simulieren oder Fehler zu reproduzieren, ohne die Stabilität der Software für Endnutzer zu gefährden.
  • Beispiel: Im xfsprogs-Commit wird die 300-MB-Beschränkung für automatisierte Tests (fstests) deaktiviert, wenn bestimmte Umgebungsvariablen gesetzt sind. Das verhindert, dass Hunderte von Tests angepasst werden müssen.

2. Schnelle Lösungen für Nischenprobleme

  • Manchmal gibt es seltene Anwendungsfälle, die so selten sind, dass eine offizielle Unterstützung nicht sinnvoll erscheint.
  • Beispiel: Die Option --unsupported für mkfs.xfs, da diese im Normalbetrieb gefährliche Folgen, wie den Verlust von Leistung und Redundanz, haben können.

3. Vermeidung von Missbrauch

  • Manche Optionen sind potenziell gefährlich (z. B. das Umgehen von Sicherheitsprüfungen). Durch das Verstecken sollen nur Nutzer mit entsprechendem Wissen darauf zugreifen.

Die Kehrseite der Medaille: Warum versteckte Optionen problematisch sind

1. Mangelnde Transparenz

  • Open Source lebt von Transparenz und Gemeinschaft. Versteckte Optionen widersprechen diesem Prinzip: Nutzer wissen nicht, welche Möglichkeiten es gibt, und können die Software nicht voll ausschöpfen und damit nicht uneingeschränkt nutzen.
  • Frage: Wenn eine Option (nur in seltenen Ausnahmefällen) nützlich ist, warum sollte sie nicht dokumentiert werden?

2. Wartungsaufwand und „Technical Debt“

  • Undokumentierte Features werden schnell zu „Technical Debt“: Neue Entwickler kennen sie nicht, Nutzer stoßen zufällig darauf und die Optionen werden nie offiziell unterstützt, obwohl sie vielleicht weit verbreitet sind.
  • Beispiel: Im Linux-Kernel gibt es zahlreiche obskure Kernel-Parameter, die nur in Mailinglisten oder alten Foren erwähnt werden.

3. Frustration für Nutzer

  • Nutzer, die auf ein Problem stoßen, finden keine Lösung in der Dokumentation, obwohl diese vielleicht existiert. Das führt zu unnötigen Support-Anfragen oder Workarounds.
  • Beispiel: „Für eigene Tests möchte ich XFS-Dateisysteme kleiner 300 MB erstellen. Bis ich die Option --unsupported im Quelltext gefunden habe, war mir dies nicht möglich, ohne eine veraltete Version von xfsprogs zu nutzen.“

Deine Meinung zählt: Sollten versteckte CLI-Optionen abgeschafft werden?

Die Diskussion um versteckte Optionen ist auch eine Frage der Philosophie: Sollte Open-Source-Software maximale Freiheit bieten – auch auf Kosten von Komplexität? Oder sollte sie benutzerfreundlich sein und nur offizielle, getestete Features anbieten?

Was denkst du?

  • Hast du schon einmal von einer versteckten CLI-Option profitiert oder dich über das Fehlen einer Dokumentation geärgert?
  • Sollten Projekte wie xfsprogs alle Optionen offenlegen, selbst wenn sie offiziell nicht unterstützt und im IT-Betrieb gefährlich sind?
  • Oder ist es in Ordnung, wenn Entwickler „Hintertüren“ für spezielle Fälle einbauen?

Teile deine Erfahrung in den Kommentaren!

  •  

Signal: MollySocket-Datenbank Reset

Per Mail und im Forum kamen immer mehr Hinweise auf verzögerte Push-Benachrichtigungen rein. Ich selbst habe es ebenfalls bemerkt und wollte nun einmal handeln.

  1. Um eine IP-Sperre auszuschließen habe ich den MollySocket Dienst erstmal umgezogen auf einen anderen Server, es brachte keine Besserung.
  2. Nach ein paar Anpassungen im NGINX sind die Warnungen im Log nicht verschwunden: WARN mollysocket::ws::websocket_connection] Did not receive the last keepalive: aborting.
  3. Ein bisschen Recherche und KI-Chat brachten mir die Idee die MollySocket eigene Datenbank zu leeren und quasi bei Null anzufangen.
  4. Ein Test wie im Forum beschrieben unter neuer Subdomain mit den gleichen Einstellungen brachte gute Ergebnisse, Push-Benachrichtigungen kamen wieder direkt an.

Was muss ich machen?

Die MollySocket-Datenbank habe ich jetzt resettet.

Es sollte automatisch gehen, aber zur Sicherheit scannt bitte den QR-Code neu ein: https://molly.adminforge.de

Was ist Molly und MollySocket?

Molly ist ein unabhängiger Signal-Fork für Android mit verbesserten Features.

MollySocket ermöglicht es, Signal-Benachrichtigungen über UnifiedPush zu erhalten.

Euer adminForge Team

UnterstützenDas Betreiben der Dienste, Webseite und Server machen wir gerne, kostet aber leider auch Geld.
Unterstütze unsere Arbeit mit einer Spende und diskutiere in unserem Chat mit.

by adminForge.

  •  

PHP 8.4 FPM für Nextcloud 33

Wer meinem Blog folgt und, wie im Artikel „PHP 7.4 FPM auf PHP 8.1 FPM für Nextcloud“, die externe PHP-Quelle von https://deb.sury.org/ eingebaut hat und später der Anleitung „PHP 8.2 FPM für Nextcloud 28“ gefolgt ist, könnte noch auf PHP 8.2 FPM hängen geblieben sein. Da sich diese Version im Status Security fixes only befindet, ist ein Wechsel auf eine höhere Version absolut empfehlenswert. Diese PHP-Version lässt sich recht einfach auf PHP 8.4 FPM umstellen. Unter dem Raspberry Pi OS ist das mit wenigen Befehlen erledigt. In diesem Beitrag zeige ich kurz, wie man PHP 8.2 deaktiviert, PHP 8.4 installiert und Nextcloud anschließend mit der neuen Version betreibt.

Vor der Umstellung empfiehlt es sich, ein Backup der Installation und der Datenbank anzulegen. Außerdem sollte geprüft werden, ob die eingesetzten Apps bereits mit Nextcloud 33 und PHP 8.4 kompatibel sind.

Diagramm der momentan unterstützten PHP-Versionen
Quelle: https://www.php.net/supported-versions.php

Installierte PHP-Version prüfen

Das System sollte zunächst auf den aktuellen Stand gebracht werden:

sudo apt update && sudo apt upgrade

Jetzt prüfen, welche PHP-Version aktuell aktiv ist:

php -v

Falls Apache mit PHP-FPM genutzt wird, lohnt sich auch ein Blick auf die aktiven Module und Konfigurationen.

PHP 8.4 und benötigte Module installieren

Wer von PHP 8.2 auf PHP 8.4 wechselt, installiert zunächst die neue Version samt der für Nextcloud üblichen Erweiterungen:

sudo apt update
sudo apt install php8.4 php8.4-mbstring php8.4-gd php8.4-curl php8.4-imagick php8.4-intl php8.4-bcmath php8.4-gmp php8.4-mysql php8.4-zip php8.4-xml php8.4-apcu libapache2-mod-php8.4 php8.4-bz2 php8.4-redis

PHP 8.2 deaktivieren und PHP 8.4 aktivieren

Nun wird PHP 8.2 deaktiviert und PHP 8.4 aktiviert:

sudo update-alternatives --config php
sudo update-alternatives --config php
Es gibt 7 Auswahlmöglichkeiten für die Alternative php (welche /usr/bin/php bereitstellen).

  Auswahl      Pfad                  Priorität Status
------------------------------------------------------------
  0            /usr/bin/php.default   100       automatischer Modus
  1            /usr/bin/php.default   100       manueller Modus
  2            /usr/bin/php7.4        74        manueller Modus
  3            /usr/bin/php8.1        81        manueller Modus
* 4            /usr/bin/php8.2        82        manueller Modus
  5            /usr/bin/php8.3        83        manueller Modus
  6            /usr/bin/php8.4        84        manueller Modus
  7            /usr/bin/php8.5        85        manueller Modus

Hier die entsprechende Nummer eingeben – in diesem Fall die 6 für PHP 8.4:

sudo update-alternatives --config php
Es gibt 7 Auswahlmöglichkeiten für die Alternative php (welche /usr/bin/php bereitstellen).

  Auswahl      Pfad                  Priorität Status
------------------------------------------------------------
  0            /usr/bin/php.default   100       automatischer Modus
  1            /usr/bin/php.default   100       manueller Modus
  2            /usr/bin/php7.4        74        manueller Modus
  3            /usr/bin/php8.1        81        manueller Modus
  4            /usr/bin/php8.2        82        manueller Modus
  5            /usr/bin/php8.3        83        manueller Modus
* 6            /usr/bin/php8.4        84        manueller Modus
  7            /usr/bin/php8.5        85        manueller Modus

Die Abfrage der Version zeigt, ob die Umstellung auf PHP 8.4 angenommen wurde.

php -v

PHP 8.4 FPM starten und Apache neu laden

Anschließend wird der neue FPM-Dienst aktiviert und gestartet:

sudo a2disconf php8.2-fpm
sudo apt install php8.4-fpm
sudo a2enconf php8.4-fpm

Der Neustart des Webservers aktiviert nun die aktuelle PHP-Version:

sudo service apache2 restart

Nextcloud-Konfiguration

Sollten in Nextcloud anschließend wieder die bekannten Fehlermeldungen erscheinen, sind diese am besten Schritt für Schritt abzuarbeiten. Dazu werden zunächst die neue php.ini geöffnet:

sudo nano /etc/php/8.4/fpm/php.ini

und anschließend die Werte für memory_limit sowie session.gc_maxlifetime gemäß den Empfehlungen angepasst:

memory_limit = 512M
session.gc_maxlifetime = 3600

Am Ende der php.ini werden außerdem noch die Einstellungen für den Zwischenspeicher OPcache ergänzt:

opcache.enable=1
opcache.interned_strings_buffer=64
opcache.max_accelerated_files=10000
opcache.memory_consumption=256
opcache.save_comments=1
opcache.revalidate_freq=1

Zur Optimierung von PHP 8.4 FPM können speziell auf einem Raspberry Pi 5 mit 8 GB RAM in der Datei www.conf

sudo nano /etc/php/8.4/fpm/pool.d/www.conf

die folgenden Werte angepasst werden. Standardmäßig stehen dort in der Regel:

pm = dynamic
pm.max_children = 5
pm.start_servers = 2
pm.min_spare_servers = 1
pm.max_spare_servers = 3

Diese werden dann auf folgende Werte geändert:

pm = dynamic
pm.max_children = 200
pm.start_servers = 20
pm.min_spare_servers = 10
pm.max_spare_servers = 30

Anschließend wird der Dienst neu gestartet:

sudo service php8.4-fpm restart

Danach muss in der apcu.ini noch das Command Line Interface (CLI) des PHP-Caches aktiviert werden. Dazu die Datei öffnen:

sudo nano /etc/php/8.4/mods-available/apcu.ini

und am Ende folgende Zeile ergänzen:

apc.enable_cli=1

Ist dies geschehen, wird der Webserver ein letztes Mal neu gestartet:

sudo service apache2 restart

Nextcloud prüfen

Danach sollte die Nextcloud-Instanz im Browser aufgerufen werden. Unter Administrationseinstellungen / System lässt sich kontrollieren, ob die neue PHP-Version erkannt wurde.

Zur Sicherheit zusätzlich die Logdateien von Apache, PHP-FPM und Nextcloud prüfen.

Fazit

Die Umstellung von PHP 8.2 auf PHP 8.4-fpm für Nextcloud 32 ist unter Raspberry Pi OS schnell erledigt. Wichtig ist vor allem, die benötigten PHP-Module zu installieren und anschließend die alte FPM-Konfiguration sauber durch die neue zu ersetzen.

Der Beitrag PHP 8.4 FPM für Nextcloud 33 erschien zuerst auf intux.de.

  •  

Chatmail: E-Mail-Relay für Delta Chat

Ein neuer adminForge Service kann ab sofort genutzt werden.

Ein sicherer, schneller und minimalistischer E-Mail-Relay speziell optimiert für Delta Chat.

 

Ein sicherer, schneller und minimalistischer E-Mail-Relay speziell optimiert für Delta Chat.

https://chat.adminforge.de

Features:

  • Dezentrale Architektur auf Basis von E‑Mail‑Servern (IMAP/SMTP).
  • Ende‑zu‑Ende‑Verschlüsselung für Chats und Gruppenchats.
  • Keine Telefonnummer nötig; Einrichtung nur mit E‑Mail‑Adresse.
  • Mehrere Profile und mehrere Geräte gleichzeitig nutzbar.
  • Quellcode offen (FOSS) für Client und Server‑Komponenten.
  • Chat‑Ansicht ähnlich wie WhatsApp (Chatliste, Avatare, grüner Akzent).
  • Textnachrichten, Bilder, Videos, Dateianhänge, Kontakte und Reaktionen möglich.
  • Sprach‑ und Videoanrufe sind möglich.
  • Interaktive Web‑Apps in Chats (z. B. Spiele, Umfragen, Kalender, Einkaufslisten; Konfetti‑Regen, To‑do‑Listen, Zeichnungen, Taschenrechner etc.).
  • Einladungslinks und QR‑Codes, um neue Kontakte sicher zu verbinden.

Software: Chatmail

 

Euer adminForge Team

UnterstützenDas Betreiben der Dienste, Webseite und Server machen wir gerne, kostet aber leider auch Geld.
Unterstütze unsere Arbeit mit einer Spende und diskutiere in unserem Chat mit.

by adminForge.

  •  

Raspberry Pi OS Bookworm -> Trixie

Anfang Oktober 2025 hat das Raspberry Pi OS ein Upgrade auf Version 13 mit dem Codenamen Trixie erhalten. Dies setzt die Serverbetreiber wieder einmal mächtig unter Druck, obwohl Bookworm noch weitere Jahre unterstützt wird. Die Entwickler empfehlen eine Neuinstallation. Es ist immer von Vorteil, ein Betriebssystem wie im Falle von Trixie neu und somit sauber aufzusetzen. Da ich aber seit Jahren eine gut funktionierende Nextcloud-Instanz auf meinem Raspberry Pi pflege, die ich in meinem Alltag produktiv einsetze, wäre es zu schade, noch einmal ganz von vorn anfangen zu müssen. Aus diesem Grund war ich auf der Suche nach einem funktionierenden Tutorial für das anstehende OS-Upgrade. Schon beim Umstieg auf Bookworm war der Blog von Sascha Syring sehr hilfreich. Also hoffte ich auch dieses Mal, wieder hier fündig zu werden. Der Artikel „Raspberry Pi OS – Update von Bookworm (12) auf Trixie (13)“ von Sascha beschreibt einmal mehr die genaue Vorgehensweise.

Ich konnte somit alles 1:1 mit meinem System umsetzen. Hier nun alle Schritte mit den entsprechenden Erläuterungen.

Bevor es jedoch losgeht, noch ein wichtiger Hinweis:

Denkt bitte daran, vorher ein Backup zu erstellen! Das Upgrade birgt nicht zu unterschätzende Gefahren.

Upgrade auf Trixie

Zuerst sollte man dafür sorgen, das System inklusive Kernel und aller Abhängigkeiten auf den neuesten Stand zu bringen. Hierzu führt man folgenden Befehl aus:

sudo apt update && sudo apt full-upgrade

Vorbereitend wurde in meinem Fall die alte PHP-Fremd-Quelle deaktiviert.

Hierzu setzt man eine Raute (#) vor den Eintrag, öffnet dazu die php.list mit einem Editor

sudo nano /etc/apt/sources.list.d/php.list

und kommentiert die Zeile entsprechend aus:

#deb https://packages.sury.org/php/ bullseye main

Danach werden die hauseigenen Quellen des Raspberry Pi OS auf Trixie umgestellt:

sudo nano /etc/apt/sources.list

Hierzu wird in allen Quellen wie folgt bookworm durch trixie ersetzt:

deb http://deb.debian.org/debian trixie main contrib non-free non-free-firmware
deb http://security.debian.org/debian-security trixie-security main contrib non-free non-free-firmware
deb http://deb.debian.org/debian trixie-updates main contrib non-free non-free-firmware

Das Gleiche führt man analog hier durch:

sudo nano /etc/apt/sources.list.d/raspi.list
deb http://archive.raspberrypi.org/debian/ trixie main

Da beim ersten Versuch des Upgrades noch einiges schieflief, möchte ich an dieser Stelle darauf hinweisen, dass das Entfernen folgender Pakete für das Gelingen extrem wichtig ist!

sudo apt purge -y raspberrypi-ui-mods
sudo apt purge -y lxplug-batt
sudo apt purge -y lxplug-cpu

Ist dies erledigt, startet man via

sudo apt update && sudo apt full-upgrade

das eigentliche Upgrade. Hierzu ist noch zu erwähnen, dass bei den Abfragen zu alten Konfigurationen diese erhalten bleiben sollen. An diesen Stellen also bitte immer die Vorgabe (N) während der Installation wählen.

Die Pakete rpd-wayland-all und rpd-x-all werden noch nachinstalliert:

sudo apt install rpd-wayland-all rpd-x-all

Aufgeräumt wird mit:

sudo apt autoremove
sudo apt clean

und das System wird neu gestartet:

sudo reboot now

Überprüfung

Nach dem Neustart sollte der Befehl

sudo cat /etc/os-release

nun Folgendes ausgeben:

PRETTY_NAME="Debian GNU/Linux 13 (trixie)"
NAME="Debian GNU/Linux"
VERSION_ID="13"
VERSION="13 (trixie)"
VERSION_CODENAME=trixie
DEBIAN_VERSION_FULL=13.4
ID=debian
HOME_URL="https://www.debian.org/"
SUPPORT_URL="https://www.debian.org/support"
BUG_REPORT_URL="https://bugs.debian.org/"

Feintuning

Da der NetworkManager nach dem Neustart noch nicht arbeitet, sollte er mit

sudo systemctl enable NetworkManager && sudo systemctl start NetworkManager

aktiviert und gestartet werden.

PHP-Quelle wieder einbinden

Am Anfang der Anleitung hatte ich die PHP-Quelle auskommentiert. Das machen wir nun wieder rückgängig. Erscheint nun nach einem Update der Hinweis, dass der zugehörige Schlüssel abgelaufen ist, löscht man diesen, lädt den aktuellen herunter und liest ihn neu ein.

sudo rm -f /usr/share/keyrings/deb.sury.org-php.gpg
sudo curl -sSLo /etc/apt/trusted.gpg.d/sury-php.gpg https://packages.sury.org/php/apt.gpg

Die Paketquellen werden nun abermals eingelesen und das System aktualisiert:

sudo apt update && sudo apt upgrade

Da die PHP-Quelle allerdings noch nicht für Trixie optimiert ist, ersetzt man auch hier bookworm bzw. bullseye durch trixie:

sudo nano /etc/apt/sources.list.d/php.list
#deb https://packages.sury.org/php/ bullseye main

Ein weiteres Mal werden die Paketquellen eingelesen und das System aktualisiert:

sudo apt update && sudo apt upgrade

Ist dies geschehen, ist das Upgrade von Raspberry Pi OS Version 12 auf 13 abgeschlossen.

Viel Erfolg bei der Umsetzung!

Der Beitrag Raspberry Pi OS Bookworm -> Trixie erschien zuerst auf intux.de.

  •  

Passwortanzeige in sudo unter Ubuntu 26.04 LTS

sudo-rs hat sich zum Ziel gesetzt, einen Ersatz für das klassische sudo bereitzustellen. Dabei setzt das Projekt auf Rust, um eine "safety oriented and memory safe implementation" zu realisieren.

Hintergrund

Kurz zum Hintergrund: sudo unterscheidet sich von normalen Kommandos dadurch, dass das setuid-Flag der Binary gesetzt ist und das Programm beim Aufruf direkt mit Root-Rechten gestartet wird. Die Privilege Escalation ist wiederum die Voraussetzung dafür, dass ein Nutzer nach erfolgreicher Authentifizierung Root-Rechte annehmen kann. Sind jedoch im sudo-Programm selbst Bugs vorhanden, wird die Rechteerweiterung zum Sicherheitsrisiko. Wichtig an dieser Stelle: Privilege Escalation bezeichnet zunächst nur die Technik. Sie tritt häufig als Folge von Sicherheitslücken auf, hat aber auch legitime Einsatzszenarien.

Die gesamte Sicherheit hängt also von den Werkzeugen ab, die über setuid-Privilegien verfügen. Genau hier möchte sudo-rs ansetzen und eine Implementierung anbieten, die vom Speichersicherheitsmodell von Rust profitiert, um das Risiko bisher unentdeckter Sicherheitslücken in der Speicherverwaltung zu reduzieren.

Neue Darstellung von Passwörtern

Dass sudo-rs kein vollständiges Drop-in-Replacement wird, zeigt die Änderung, dass Passwörter nun standardmäßig in der Konsole maskiert angezeigt werden. Bisher hat sudo jegliche Ausgabe unterdrückt.

Administratoren, die dieses Verhalten abstellen wollen, können Defaults !pwfeedback in die sudoers-Datei einfügen. Das ist insbesondere dann relevant, wenn andere Programme davon abhängen, z. B. in Unit-Tests.

Die spannende Frage, die sich hierbei natürlich stellt, betrifft die Sicherheit. Natürlich ergibt sich ein neuer Seitenkanal, da ein Angreifer, der auf den Bildschirm schauen kann, die Länge des Passworts erfährt. Dabei sollte man allerdings im Hinterkopf behalten, dass bereits vor 25 Jahren demonstriert wurde, dass aus SSH-Sitzungen anhand der Paket-Timings während der Tastenanschläge Passwörter rekonstruiert werden können. Für einen Angreifer mit Fähigkeiten zur Massenüberwachung ergeben sich demnach keine grundlegend neuen Informationen.

Mit Ubuntu 26.04 LTS dabei

sudo-rs wurde bereits in Ubuntu 25.10 eingeführt. Ubuntu 26.04 wird damit der erste LTS-Release sein, der das neue Tooling nutzt.

  •  

Die offizielle App für adminForge

Ab heute könnt ihr euch die offizielle Android-App für adminForge installieren.

Screenshots

Features

  • Service-Verzeichnis: Schneller Zugriff auf alle adminForge-Dienste (DNS, Metasuche, Cloud, Messenger u.v.m.).
  • News-Feed: Aktuelle Neuigkeiten direkt vom adminForge-Blog.
  • System-Status: Echtzeit-Monitoring aller adminForge-Infrastrukturen.
  • Native Experience: Modernes Design mit OLED-Schwarz-Modus und intuitiver Navigation.
  • Benachrichtigungen: Support für UnifiedPush (z.B. via ntfy) und zuverlässiges Background-Polling.
  • Updates: Integrierte Update-Funktion für die neuesten Features.

Installation

Lade die aktuellste Version direkt von unserem Git-Repository herunter:
👉 git.adminforge.de/adminforge/android-app/releases/latest

Technologien

  • Sprache: Kotlin
  • Architektur: Modernes Android mit WorkManager, Coroutines und Material Design.
  • Push: UnifiedPush Integration.
  • Privacy: Kein Tracking, keine Werbung, keine Google Play Services Abhängigkeit.

Warum ist die App nicht im Google Play Store?

Uns ist Open Source wichtig und wir möchten dies nicht unterstützen! Mehr unter Keep Android Open.

Im August 2025 hat Google angekündigt ↗, dass es ab September 2026 nicht mehr möglich sein wird, Anwendungen für die Android-Plattform zu entwickeln, ohne sich zuvor bei Google registriert zu haben.

Ab September 2026 müssen alle Android-Apps von bestätigten Entwicklern registriert werden, damit sie auf zertifizierten Android-Geräten installiert werden können.

Feedback

Wünsche und Änderungsvorschläge kannst du im Chat hinterlassen.

Source

Besuche unser Git-Repository https://git.adminforge.de/adminforge/android-app.

Betrieben mit ❤️ und erstellt mit 🤖 !

Euer adminForge Team

UnterstützenDas Betreiben der Dienste, Webseite und Server machen wir gerne, kostet aber leider auch Geld.
Unterstütze unsere Arbeit mit einer Spende und diskutiere in unserem Chat mit.

by adminForge.

  •  

Übergroßer Cursor in Kali Linux unter VMware Fusion 25H2

Die Lösung ist die Eigenschaften der Virtuellen Maschine aufzurufen, hier die Volle Auflösung des Retina Display verwenden zu aktivieren und nach dem Anmelden im Kali Linux Desktop Kali HiDPI Mode zu wählen. Nach einem Restart sollte alles beim alten sein. Nach dem aus sicherheitsupdategründen erzwungenen Upgrade auf macOS 26.3 mit einem anschließenden Update auf VMware ... Weiterlesen

Der Beitrag Übergroßer Cursor in Kali Linux unter VMware Fusion 25H2 erschien zuerst auf Got tty.

  •  

Gesundheit der Festplatte überprüfen

Es ist grundsätzlich sinnvoll, den Gesundheitszustand einer Festplatte im Blick zu behalten. Wie man fehlerhafte Sektoren erkennt, habe ich im Artikel „Überprüfung auf fehlerhafte Sektoren“ erläutert. Eine weitere Möglichkeit bietet die Self-Monitoring, Analysis and Reporting Technology, kurz S.M.A.R.T., die es ermöglicht, HDDs und SSDs zu überwachen. Diese Daten können je nach Ausstattung der Festplatten und des Betriebssystems ausgelesen werden.

Hierfür wird auf Linux-Systemen das Tool smartmontools benötigt. Die ausgelesenen Daten liefern wertvolle Hinweise auf mögliche Probleme mit dem Medium – bevor es zu einem Ausfall kommt.

Installation

Unter Debian-basierten Systemen ist smartmontools in den Paketquellen enthalten und schnell installiert:

sudo apt install smartmontools

S.M.A.R.T.-Werte abfragen

Um die aktuellen Werte eines Laufwerks auszulesen, genügt folgender Befehl:

sudo smartctl -a /dev/sdX

/dev/sdX steht dabei stellvertretend für das jeweilige Laufwerk, etwa /dev/sda oder /dev/nvme0n1 für NVMe-SSDs. Die Option -a sorgt dafür, dass alle verfügbaren Informationen ausgegeben werden.

Wichtig: sdX ist ein Platzhalter und muss durch die tatsächliche Bezeichnung des zu prüfenden Laufwerks ersetzt werden.

Was die Ausgabe verrät

Die Ausgabe von smartctl ist recht umfangreich und auf den ersten Blick etwas unübersichtlich. Neben allgemeinen Informationen wie Modell, Firmware-Version und Seriennummer finden sich dort auch die sogenannten S.M.A.R.T.-Attribute. Diese zeigen unter anderem wichtige Messwerte wie:

  • den allgemeinen Gesundheitszustand (SMART overall-health self-assessment test result)
  • die Temperatur des Laufwerks (Temperature)
  • die Verfügbare Reserve (Available Spare)
  • den Reserve-Schwellenwert (Available Spare Threshold)
  • die verbrauchte Lebensdauer (Percentage Used)
  • die gelesenen Dateneinheiten (Data Units Read)
  • die geschriebenen Dateneinheiten (Data Units Written)

Ein Beispiel:

sudo smartctl -a /dev/nvme0n1
...
SMART overall-health self-assessment test result: PASSED
Temperature: 45 Celsius
Available Spare: 100%
Available Spare Threshold: 50%
Percentage Used: 4%
Data Units Read: 37.885.790 [19,3 TB]
Data Units Written: 28.019.142 [14,3 TB]
...

Für eine kurze Abfrage des Gesundheitszustands reicht hingegen:

sudo smartctl -H /dev/sdX

Ein Beispiel:

sudo smartctl -H /dev/nvme0
...
SMART overall-health self-assessment test result: PASSED
...

Fazit

Mit smartctl hat man unter Linux ein mächtiges Werkzeug zur Hand, um die Gesundheit von Laufwerken zu prüfen. Gerade bei älteren Festplatten lohnt sich ein regelmäßiger Blick auf die S.M.A.R.T.-Werte. Im Ernstfall können sie vor Datenverlust warnen – und geben den entscheidenden Anstoß, ein Backup nicht weiter aufzuschieben.

Der Beitrag Gesundheit der Festplatte überprüfen erschien zuerst auf intux.de.

  •  

Tube Archivist HTTP Error 403: Forbidden

Hier haben wir wieder ein „Henne und Ei“-Problem.Zwar sind die Cookies richtig kopiert worden und auch die Dateien sind zugänglich, sie lassen sich ja via Browser aufrufen, aber leider ist ytdlp veraltet. Bis ein neues Image für Tube Archivist erscheint, muss man sich mit der Variable TA_AUTO_UPDATE_YTDLP helfen. Mit dieser Variable in der Compose-Datei und ... Weiterlesen

Der Beitrag Tube Archivist HTTP Error 403: Forbidden erschien zuerst auf Got tty.

  •  

KitchenOwl: Rezepte, Einkaufsliste und Finanzen

Ein neuer adminForge Service kann ab sofort genutzt werden.

Mit KitchenOwl kannst du deine selbst kreierten Rezepte abspeichern, damit du sie nicht mehr vergisst. Teile die Rezepte mit anderen oder erstelle eine Einkaufsliste für dein nächstes Dinner. Außerdem kannst du deine Einkaufskosten hinterlegen, um eine monatliche Bilanz zu erhalten.

https://kitchen.adminforge.de

Features:

  • Erstelle deine eigenen Rezepte und teile sie mit anderen
  • Erstelle deine Einkaufsliste
  • Hinterlege die Einkaufskosten, um eine monatliche Bilanz zu erhalten

Software: KitchenOwl

Apps:

Euer adminForge Team

UnterstützenDas Betreiben der Dienste, Webseite und Server machen wir gerne, kostet aber leider auch Geld.
Unterstütze unsere Arbeit mit einer Spende und diskutiere in unserem Chat mit.

by adminForge.

  •  

AdventureLog: Halte deine Abenteuer fest

Ein neuer adminForge Service kann ab sofort genutzt werden.

Halte deine Abenteuer als persönliche, mit GPS-Daten angereicherte Tour- und Reiselogbücher fest.

 

Halte deine Abenteuer als persönliche, mit GPS-Daten angereicherte Tour- und Reiselogbücher fest.

https://adventure.adminforge.de

Features:

  • Halte deine Abenteuer in einem Reiselogbuch fest
  • Planen deine nächsten Reisen
  • Teile deine Erfahrungen mit Anderen

Software: AdventureLog

 

Euer adminForge Team

UnterstützenDas Betreiben der Dienste, Webseite und Server machen wir gerne, kostet aber leider auch Geld.
Unterstütze unsere Arbeit mit einer Spende und diskutiere in unserem Chat mit.

by adminForge.

  •  

Wanderer: Plane deine Wanderwege und Touren

Ein neuer adminForge Service kann ab sofort genutzt werden.

Plane deine Wanderwege und Touren, lade deine aufgezeichnete GPS-Tracks hoch.

Plane deine Wanderwege und Touren, lade deine aufgezeichnete GPS-Tracks hoch.

https://wanderer.adminforge.de

Features:

  • Plane deine Wanderwege oder Fahrradtouren
  • Importiere Routen von Anbietern wie komoot und STRAVA
  • Gemeinsam entdecken, teile deine Routen und folge Anderen

Software: Wanderer

Euer adminForge Team

UnterstützenDas Betreiben der Dienste, Webseite und Server machen wir gerne, kostet aber leider auch Geld.
Unterstütze unsere Arbeit mit einer Spende und diskutiere in unserem Chat mit.

by adminForge.

  •  

Überprüfung auf fehlerhafte Sektoren

Festplatten unterliegen einem natürlichen Verschleiß. Mit der Zeit können sogenannte Bad Sektoren entstehen – fehlerhafte Speicherbereiche, die nicht mehr zuverlässig gelesen oder beschrieben werden können. Eine regelmäßige Überprüfung kann helfen, Datenverlust frühzeitig zu erkennen und entsprechende Maßnahmen einzuleiten.

Was sind Bad Sektoren?

Bad Sektoren sind physisch oder logisch beschädigte Bereiche auf einem Datenträger. Physische Defekte entstehen durch Abnutzung, mechanische Schäden oder Produktionsfehler. Logische Bad Sektoren hingegen resultieren meist aus Softwareproblemen oder Stromausfällen und lassen sich mitunter korrigieren.

Analysewerkzeuge unter Linux

Linux bietet verschiedene Werkzeuge zur Analyse und Erkennung defekter Sektoren. Eines der bekanntesten Tools ist badblocks.

Ein einfacher Check lässt sich wie folgt durchführen:

sudo badblocks -vsn /dev/sdX

Ersetzt man dabei /dev/sdX durch das entsprechende Gerät, erhält man einen Überblick über den Zustand der Sektoren. Hierbei sucht badblocks gezielt nach defekten Blöcken der Festplatte.

Dabei sollte beachtet werden, dass dieser Vorgang – je nach Größe des Datenträgers – einige Zeit in Anspruch nehmen kann.

Fazit

Die regelmäßige Analyse auf Bad Sektoren ist ein wichtiger Bestandteil der Systempflege. Frühzeitig erkannte Fehler ermöglichen rechtzeitige Backups und gegebenenfalls den Austausch der betroffenen Hardware. Open-Source-Werkzeuge wie badblocks bieten unter Linux zuverlässige Möglichkeiten zur Diagnose – ganz ohne proprietäre Software.

Der Beitrag Überprüfung auf fehlerhafte Sektoren erschien zuerst auf intux.de.

  •  

Metadaten aus Fotos entfernen

Manch ein Leser kennt das vielleicht: Das CMS WordPress, mit dem man sich eigentlich gut auskennt, verhält sich plötzlich ganz anders als gewohnt. Meist hat das natürlich einen Grund.

Neulich bin ich auf ein solches Verhalten gestoßen, als ich Bilder, die mir von einem Fotografen übergeben wurden, in WordPress zur Weiterverarbeitung hochladen wollte. Zuvor hatte ich die Größen der Dateien in einer Stapelverarbeitung über das Terminal angepasst. Danach habe ich die Dateinamen nach bestimmten Vorgaben umbenannt.

Nachdem das erledigt war, habe ich das Bildmaterial in die Mediathek der Webseite hochgeladen. Dabei fiel mir auf, dass die Bezeichnungen der Bilder nicht den neuen Dateinamen entsprachen. Stattdessen trugen sie die Bezeichnung der Veranstaltung, bei der sie aufgenommen wurden. Ein Löschen und erneutes Hochladen der Fotos konnte das Problem nicht beheben.

Schnell lag der Verdacht nahe, dass in den Bilddateien selbst noch Informationen gespeichert waren, die von WordPress beim Hochladen automatisch übernommen wurden. Im konkreten Fall handelte es sich um Metadaten in der IPTC-Kopfzeile. Bei knapp 100 Bildern wäre es sehr aufwendig gewesen, diese Angaben manuell zu entfernen. Eine Lösung über eine Stapelverarbeitung war daher naheliegend, am besten direkt über das Terminal unter Ubuntu.

Glücklicherweise gibt es eine einfache Möglichkeit, solche eingebetteten Informationen automatisch aus den Dateien zu entfernen.

Zuvor muss allerdings das Paket libimage-exiftool-perl installiert werden.

sudo apt install libimage-exiftool-perl

Danach wird folgender Befehl im Verzeichnis, in dem die zu bearbeitenden Bilder liegen, ausgeführt:

exiftool -all= *.jpg

Dieser sorgt dafür, dass die Dateiendungen der Originalbilder in .jpg_original geändert und die Metadaten aus den eigentlichen Bilddateien entfernt werden.

Beim anschließenden Upload in WordPress wurden die Bildbezeichnungen wie gewünscht angezeigt – also die neuen Dateinamen mit passender Nummerierung.

Der Beitrag Metadaten aus Fotos entfernen erschien zuerst auf intux.de.

  •  

Trixie ohne SSH

Die im Oktober 2025 erschienene Neuauflage des Raspberry Pi OS, basierend auf Debian 13 „Trixie“, dürfte einige Nutzer überrascht haben. In den Medien wurde darüber nur wenig berichtet – auch an mir war die Veröffentlichung zunächst vorbeigegangen.

Trotzdem habe ich nicht gezögert, das neue System mithilfe des Raspberry Pi Imager auf eine microSD-Karte zu schreiben. Ziel war es wie gewohnt, eine sogenannte headless-Installation vorzubereiten – also ohne Monitor und Tastatur. Die weitere Einrichtung sollte anschließend bequem per SSH (Secure Shell) erfolgen.

Der Vorgang wurde auf einem Notebook mit Ubuntu 24.04 LTS und dem über die Paketverwaltung installierten Raspberry Pi Imager (Version 1.8.5) durchgeführt. Nach dem Flashen wurden die Karte in den Raspberry Pi eingesetzt und das System gestartet. Doch eine Verbindung per SSH war danach nicht möglich.

Ursache und Lösung

Die Ursache für dieses Verhalten war schnell gefunden: Raspberry Pi OS 13 erfordert für die korrekte Vorkonfiguration den Raspberry Pi Imager in Version 2.0 oder höher. Und genau hier beginnt das Problem – zumindest für Linux-Nutzer.

Während Windows-Nutzer den neuen Imager bereits komfortabel nutzen können, hinkt die Linux-Unterstützung deutlich hinterher. Bislang steht weder ein aktuelles .deb-Paket noch eine Snap-Version zur Verfügung. Das sorgt in der Linux-Community verständlicherweise für Kopfschütteln – gerade bei einem Projekt wie dem Raspberry Pi, das tief in der Open-Source-Welt verwurzelt ist.

AppImage als Ausweg

Glücklicherweise bietet der Entwickler ein AppImage des neuen Imagers an. Dieses lässt sich unter Ubuntu und anderen Distributionen unkompliziert starten – ganz ohne Installation. Damit ist es wie gewohnt möglich, WLAN-Zugangsdaten und SSH vor dem ersten Start zu konfigurieren.

Fazit

Wer Raspberry Pi OS 13 „Trixie“ headless nutzen möchte, sollte sicherstellen, dass der Imager in Version 2.0 oder neuer verwendet wird. Für Linux-Nutzer führt der Weg aktuell nur über das bereitgestellte AppImage. Es bleibt zu hoffen, dass die offizielle Paketunterstützung für Linux bald nachgereicht wird.

Der Beitrag Trixie ohne SSH erschien zuerst auf intux.de.

  •  

Warn-App: FOSS Public Alert Server

Ein neuer adminForge Service kann ab sofort genutzt werden.

Der FOSS Public Alert Server ermöglicht es dir über UnifiedPush, PushBenachrichtigungen zu Notfallund Wetterwarnungen weltweit zu empfangen.

https://alerts.adminforge.de

So geht’s:

  • Android App herunterladen: FOSS Warn App
  • Gehe in die Einstellungen und stelle den FOSS Public Alert Server https://alerts.adminforge.de ein
  • Wähle als Push-Dienst ntfy aus (ntfy installieren)
  • Unter Meine Orte kannst du deine Stadt hinzufügen
  • Nun erhältst du Warnungen zu deinen Orten

 

Euer adminForge Team

UnterstützenDas Betreiben der Dienste, Webseite und Server machen wir gerne, kostet aber leider auch Geld.
Unterstütze unsere Arbeit mit einer Spende und diskutiere in unserem Chat mit.

by adminForge.

  •  

Hacking & Security: Das umfassende Handbuch

Hacking & Security: Das umfassende Handbuch“ von Michael Kofler, Roland Aigner, Klaus Gebeshuber, Thomas Hackner, Stefan Kania, Frank Neugebauer, Peter Kloep, Tobias Scheible, Aaron Siller, Matthias Wübbeling, Paul Zenker und André Zingsheim ist 2025 in der 4., aktualisierten und erweiterten Auflage im Rheinwerk Verlag erschienen und umfasst 1271 Seiten.

Ein Buchtitel, der bereits im Namen zwei gegensätzliche Extreme vereint: Hacking und Security. Dieser Lesestoff richtet sich nicht an ein breites Publikum, wohl aber an all jene, die Wert auf digitale Sicherheit legen – sei es im Internet, auf Servern, PCs, Notebooks oder mobilen Endgeräten. Gleichzeitig kann dieses umfassende Nachschlagewerk auch als Einstieg in eine Karriere im Bereich Ethical Hacking dienen.

Das Buch ist in drei inhaltlich spannende und klar strukturierte Teile gegliedert.

TEIL I – Einführung und Tools erläutert, warum es unerlässlich ist, sich sowohl mit Hacking als auch mit Security auseinanderzusetzen. Nur wer versteht, wie Angreifer vorgehen, kann seine Systeme gezielt absichern und Sicherheitsmaßnahmen umsetzen, die potenzielle Angriffe wirksam abwehren.

Behandelt werden unter anderem praxisnahe Übungsmöglichkeiten sowie Penetrationstests auf speziell dafür eingerichteten Testsystemen. Ziel ist es, typische Angriffsabläufe nachzuvollziehen und daraus wirksame Schutzkonzepte abzuleiten. Einen zentralen Stellenwert nimmt dabei das speziell für Sicherheitsanalysen entwickelte Betriebssystem Kali Linux ein, das in diesem Zusammenhang ausführlich vorgestellt wird.

Kali Linux – Simulation eines erfolgreichen Angriffs auf SSH
Kali Linux – Simulation eines erfolgreichen Angriffs auf SSH

TEIL II – Hacking und Absicherung widmet sich intensiv den beiden zentralen Themenbereichen Hacking und Security. Es werden unterschiedliche Angriffsszenarien analysiert und typische Schwachstellen aufgezeigt. Besonders hervorgehoben wird dabei die Bedeutung der Festplattenverschlüsselung, um den unbefugten Zugriff auf sensible Daten zu verhindern.

Auch der Einsatz starker Passwörter in Kombination mit Zwei-Faktor-Authentifizierung (2FA) gehört heute zum Sicherheitsstandard. Dennoch lauern Gefahren im Alltag: Wird ein Rechner unbeaufsichtigt gelassen oder eine Sitzung nicht ordnungsgemäß beendet, kann etwa ein präparierter USB-Stick mit Schadsoftware gravierende Schäden verursachen.

Server-Betreiber stehen zudem unter permanentem Druck durch neue Bedrohungen aus dem Internet. Das Buch bietet praxisnahe Anleitungen zur Härtung von Windows- und Linux-Servern – beispielsweise durch den Einsatz von Tools wie Fail2Ban, das automatisiert Brute-Force-Angriffe erkennt und unterbindet.

Ein weiteres Kernthema ist die Verschlüsselung von Webverbindungen. Moderne Browser weisen inzwischen deutlich auf unsichere HTTP-Verbindungen hin. Die Übertragung sensibler Daten ohne HTTPS birgt erhebliche Risiken – etwa durch Man-in-the-Middle-Angriffe, bei denen Informationen abgefangen oder manipuliert werden können.

Man-in-the-Middle-Angriff

Abgerundet wird das Kapitel durch eine ausführliche Betrachtung von Angriffsmöglichkeiten auf weit verbreitete Content-Management-Systeme (CMS) wie WordPress, inklusive praxisnaher Hinweise zur Absicherung.

TEIL III – Cloud, Smartphones, IoT widmet sich der Sicherheit von Cloud-Systemen, mobilen Endgeräten und dem Internet of Things (IoT). Unter dem Leitsatz „Die Cloud ist der Computer eines anderen“ wird aufgezeigt, wie stark Nutzerinnen und Nutzer bei der Verwendung externer Dienste tatsächlich abhängig sind. Besonders bei Cloud-Angeboten amerikanischer Anbieter werden bestehende geopolitische Risiken oft unterschätzt – obwohl sie spätestens seit den Enthüllungen von Edward Snowden nicht mehr zu ignorieren sind.

Selbst wenn Rechenzentren innerhalb Europas genutzt werden, ist das kein Garant für Datenschutz. Der Zugriff durch Dritte – etwa durch Geheimdienste – bleibt unter bestimmten Umständen möglich. Als datenschutzfreundliche Alternative wird in diesem Kapitel Nextcloud vorgestellt: ein in Deutschland entwickeltes Cloud-System, das sich auf eigenen Servern betreiben lässt. Hinweise zur Installation und Konfiguration unterstützen den Einstieg in die selbstbestimmte Datenverwaltung.

Wer sich für mehr digitale Souveränität entscheidet, übernimmt zugleich Verantwortung – ein Aspekt, dem im Buch besondere Aufmerksamkeit gewidmet wird. Ergänzend werden praxisnahe Empfehlungen zur Absicherung durch Zwei- oder Multi-Faktor-Authentifizierung (2FA/MFA) gegeben.

Ein weiteres Thema sind Sicherheitsrisiken bei mobilen Geräten und IoT-Anwendungen. Besonders kritisch: schlecht gewartete IoT-Server, die oft im Ausland betrieben werden und ein hohes Angriffspotenzial aufweisen. Auch hier werden konkrete Gefahren und Schutzmaßnahmen anschaulich dargestellt.

Das Buch umfasst insgesamt 24 Kapitel.

  • Einführung
  • Kali Linux
  • Hacking-Tools
  • Hacking lernen
  • Bug-Bounty-Programme
  • Offline Hacking
  • Passwörter
  • IT-Forensik
  • WLAN, Bluetooth und SDR
  • Angriffsvektor USB-Schnittstelle
  • Externe Sicherheitsüberprüfungen
  • Penetration-Testing
  • Windows Server absichern
  • Active Directory
  • Linux absichern
  • Sicherheit bei Samba-Fileservern
  • Sicherheit von Webanwendungen
  • Intrusion-Detection-Systeme
  • Software-Exploitation
  • Sichere KI-Anwendungen
  • Sicherheit in der Cloud
  • Microsoft 365 sicher betreiben
  • Mobile Security
  • IoT-Sicherheit

Leseprobe

Fazit

Das Buch bietet einen fundierten und praxisnahen Einstieg in die Welt von IT-Sicherheit und Hacking. Es richtet sich gleichermaßen an interessierte Einsteiger als auch an fortgeschrittene Anwender, die ihre Kenntnisse vertiefen möchten. Besonders gelungen ist die Verbindung technischer Grundlagen mit konkreten Anwendungsszenarien – vom Einsatz sicherer Tools über das Absichern von Servern bis hin zur datenschutzfreundlichen Cloud-Lösung.

Wer sich ernsthaft mit Sicherheitsaspekten in der digitalen Welt auseinandersetzen möchte, findet in diesem Werk einen gut strukturierten Leitfaden, der nicht nur Wissen vermittelt, sondern auch zum eigenständigen Handeln motiviert. Ein empfehlenswertes Nachschlagewerk für alle, die digitale Souveränität nicht dem Zufall überlassen wollen.

Der Beitrag Hacking & Security: Das umfassende Handbuch erschien zuerst auf intux.de.

  •  

KVM-Konflikte mit VirtualBox unter Ubuntu 24.04 dauerhaft lösen

Seit einiger Zeit treten unter Ubuntu 24.04 LTS Probleme beim Ausführen von VirtualBox auf. Diese lassen sich zwar temporär durch das Entladen eines KVM-Moduls beheben, tauchen jedoch nach einem Neustart wieder auf.

KVM steht für Kernel-based Virtual Machine und ist eine Virtualisierungstechnologie für Linux auf x86-Hardware.

Temporäre Lösung

Abhängig vom verwendeten Prozessor kann das jeweilige KVM-Modul aus dem laufenden Kernel mit folgendem Befehl entfernt werden:

sudo modprobe -r kvm_intel

bei AMD-Systemen:

sudo modprobe -r kvm_amd

Diese Methode ist jedoch nicht dauerhaft, da das Modul nach einem Neustart wieder geladen wird.

Bei der Recherche zu diesem Thema bin ich auf zwei Lösungsansätze gestoßen, die das Problem dauerhaft beheben sollten. Zum einen geht es um das Hinzufügen einer Boot-Option in GRUB, zum anderen um die Erstellung einer Blacklist der entsprechenden KVM-Module für VirtualBox.

1. Ansatz – Eingriff in den Bootloader (GRUB)

In der Datei /etc/default/grub wird der Eintrag

GRUB_CMDLINE_LINUX=

um folgenden Parameter (siehe Screenshot) ergänzt:

"kvm.enable_virt_at_load=0"

Anschließend muss die GRUB-Konfiguration aktualisiert werden:

sudo update-grub

⚠ Wichtiger Hinweis:
Ein fehlerhafter Eintrag in der GRUB-Konfiguration kann dazu führen, dass das System nicht mehr startet. Unerfahrene Nutzer könnten in eine schwierige Situation geraten. Daher ist ein vollständiges System-Backup vor dem Eingriff unbedingt empfehlenswert.

GRUB-Konfiguration (Entleerung des KVM-Moduls)
GRUB-Konfiguration

2. Ansatz – Blacklisting des KVM-Moduls

Ein sichererer und eleganterer Weg ist das Blacklisting des Moduls. Dazu wird eine neue Konfigurationsdatei angelegt:

sudo nano /etc/modprobe.d/blacklist-kvm.conf

Dort fügt man folgende Zeilen hinzu:

blacklist kvm
blacklist kvm_intel

Nach einem Neustart des Systems wird das jeweilige KVM-Modul nicht mehr geladen und VirtualBox sollte wie gewohnt funktionieren.

Fazit

Die zweite Methode ist risikoärmer und benutzerfreundlicher. Dennoch empfiehlt es sich, vor jeder Änderung am System ein Backup anzulegen.

Viel Erfolg beim Virtualisieren!

Der Beitrag KVM-Konflikte mit VirtualBox unter Ubuntu 24.04 dauerhaft lösen erschien zuerst auf intux.de.

  •  
❌