Neuer Wayland Compositor für Xfce
Das Xfce-Team hat mitgeteilt, dass es Spendengelder aus der Community entschieden verwenden will, um den langjährigen Xfce-Kernentwickler Brian Tarricone mit der Entwicklung von „xfwl4“ zu…
Das Xfce-Team hat mitgeteilt, dass es Spendengelder aus der Community entschieden verwenden will, um den langjährigen Xfce-Kernentwickler Brian Tarricone mit der Entwicklung von „xfwl4“ zu…
Ein neuer adminForge Service kann ab sofort genutzt werden. Mit KitchenOwl kannst du deine selbst kreierten Rezepte abspeichern, damit du sie nicht mehr vergisst. Teile die Rezepte mit anderen oder erstelle eine Einkaufsliste für...
by adminForge.
Wer sich dafür interessiert, Sprachmodelle lokal auszuführen, landen unweigerlich bei Ollama. Dieses Open-Source-Projekt macht es zum Kinderspiel, lokale Sprachmodelle herunterzuladen und auszuführen. Die macOS- und Windows-Version haben sogar eine Oberfläche, unter Linux müssen Sie sich mit dem Terminal-Betrieb oder der API begnügen.
Zuletzt hatte ich mit Ollama allerdings mehr Ärger als Freude. Auf gleich zwei Rechnern mit AMD-CPU/GPU wollte Ollama pardout die GPU nicht nutzen. Auch die neue Umgebungsvariable OLLAMA_VULKAN=1 funktionierte nicht wie versprochen, sondern reduzierte die Geschwindigkeit noch weiter.
Kurz und gut, ich hatte die Nase voll, suchte nach Alternativen und landete bei LM Studio. Ich bin begeistert. Kurz zusammengefasst: LM Studio unterstützt meine Hardware perfekt und auf Anhieb (auch unter Linux), bietet eine Benutzeroberfläche mit schier unendlich viel Einstellmöglichkeiten (wieder: auch unter Linux) und viel mehr Funktionen als Ollama. Was gibt es auszusetzen? Das Programm richtet sich nur bedingt an LLM-Einsteiger, und sein Code untersteht keiner Open-Source-Lizenz. Das Programm darf zwar kostenlos genutzt werden (seit Mitte 2025 auch in Firmen), aber das kann sich in Zukunft ändern.
Kostenlose Downloads für LM Studio finden Sie unter https://lmstudio.ai. Die Linux-Version wird als sogenanntes AppImage angeboten. Das ist ein spezielles Paketformat, das grundsätzlich eine direkte Ausführung der heruntergeladenen Datei ohne explizite Installation erlaubt. Das funktioniert leider nur im Zusammenspiel mit wenigen Linux-Distributionen auf Anhieb. Bei den meisten Distributionen müssen Sie die Datei nach dem Download explizit als »ausführbar« kennzeichnen. Je nach Distribution müssen Sie außerdem die FUSE-Bibliotheken installieren. (FUSE steht für Filesystem in Userspace und erlaubt die Nutzung von Dateisystem-Images ohne root-Rechte oder sudo.)
Unter Fedora funktioniert es wie folgt:
sudo dnf install fuse-libs # FUSE-Bibliothek installieren
chmod +x Downloads/*.AppImage # execute-Bit setzen
Downloads/LM-Studio-<n.n>.AppImage # LM Studio ausführen
Nach dnf install fuse-libs und chmod +x können Sie LM Studio per Doppelklick im Dateimanager starten.
Nach dem ersten Start fordert LM Studio Sie auf, ein KI-Modell herunterzuladen. Es macht gleich einen geeigneten Vorschlag. In der Folge laden Sie dieses Modell und können dann in einem Chat-Bereich Prompts eingeben. Die Eingabe und die Darstellung der Ergebnisse sieht ganz ähnlich wie bei populären Weboberflächen aus (also ChatGPT, Claude etc.).
Nachdem Sie sich vergewissert haben, dass LM Studio prinzipiell funktioniert, ist es an der Zeit, die Oberfläche genauer zu erkunden. Grundsätzlich können Sie zwischen drei Erscheinungsformen wählen, die sich an unterschiedliche Benutzergruppen wenden: User, Power User und Developer.
In den letzteren beiden Modi präsentiert sich die Benutzeroberfläche in all ihren Optionen. Es gibt
vier prinzipielle Ansichten, die durch vier Icons in der linken Seitenleiste geöffnet werden:
Sofern Sie mehrere Sprachmodelle heruntergeladen haben, wählen Sie das gewünschte Modell über ein Listenfeld oberhalb des Chatbereichs aus. Bevor der Ladevorgang beginnt, können Sie diverse Optionen einstellen (aktivieren Sie bei Bedarf Show advanced settings). Besonders wichtig sind die Parameter Context Length und GPU Offload.
Die Kontextlänge limitiert die Größe des Kontextspeichers. Bei vielen Modellen gilt hier ein viel zu niedriger Defaultwert von 4000 Token. Das spart Speicherplatz und erhöht die Geschwindigkeit des Modells. Für anspruchsvolle Coding-Aufgaben brauchen Sie aber einen viel größeren Kontext!
Der GPU Offload bestimmt, wie viele Ebenen (Layer) des Modells von der GPU verarbeitet werden sollen. Für die restlichen Ebenen ist die CPU zuständig, die diese Aufgabe aber wesentlich langsamer erledigt. Sofern die GPU über genug Speicher verfügt (VRAM oder Shared Memory), sollten Sie diesen Regler immer ganz nach rechts schieben! LM Studio ist nicht immer in der Lage, die Größe des Shared Memory korrekt abzuschätzen und wählt deswegen mitunter einen zu kleinen GPU Offload.


In der Ansicht Developer können Sie Logging-Ausgaben lesen. LM Studio verwendet wie Ollama und die meisten anderen KI-Oberflächen das Programm llama.cpp zur Ausführung der lokalen Modelle. Allerdings gibt es von diesem Programm unterschiedliche Versionen für den CPU-Betrieb (langsam) sowie für diverse GPU-Bibliotheken.
In dieser Ansicht können Sie den in LM Studio integrierten REST-Server aktivieren. Damit können Sie z.B. mit eigenen Python-Programmen oder mit dem VS-Code-Plugin Continue Prompts an LM Studio senden und dessen Antwort verarbeiten. Standardmäßig kommt dabei der Port 1234 um Einsatz, wobei der Zugriff auf den lokalen Rechner limitiert ist. In den Server Settings können Sie davon abweichende Einstellungen vornehmen.


Auf meinem neuen Framework Desktop mit 128 GiB RAM habe ich nun diverse Modelle ausprobiert. Die folgende Tabelle zeigt die erzielte Output-Geschwindigkeit in Token/s. Beachten Sie, dass die Geschwindigkeit spürbar sinkt wenn viel Kontext im Spiel ist (größere Code-Dateien, längerer Chat-Verlauf).
Sprachmodell MoE Parameter Quant. Token/s
------------- ----- ---------- --------- --------
deepseek-r1-distill-qwen-14b nein 14 Mrd. Q4_K_S 22
devstral-small-2-2512 nein 25 Mrd. Q4_K_M 13
glm-4.5-air ja 110 Mrd. Q3_K_L 25
gpt-oss-20b ja 20 Mrd. MXFP4 65
gpt-oss-120b ja 120 Mrd. MXFP4 48
nouscoder-14b nein 14 Mrd. Q4_K_S 22
qwen3-30b-a3b ja 30 Mrd. Q4_K_M 70
qwen3-next-80b-83b ja 80 Mrd. Q4_K_XL 40
seed-oss-36b nein 36 Mrd. Q4_K_M 10
Normalerweise gilt: je größer das Sprachmodell, desto besser die Qualität, aber desto kleiner die Geschwindigkeit. Ein neuer Ansatz durchbricht dieses Muster. Bei Mixture of Expert-Modellen (MoE-LLMs) gibt es Parameterblöcke für bestimmte Aufgaben. Bei der Berechnung der Ergebnis-Token entscheidet das Modell, welche »Experten« für den jeweiligen Denkschritt am besten geeignet sind, und berücksichtigt nur deren Parameter.
Ein populäres Beispiel ist das freie Modell GPT-OSS-120B. Es umfasst 117 Milliarden Parameter, die in 36 Ebenen (Layer) zu je 128 Experten organisiert sind. Bei der Berechnung jedes Output Tokens sind in jeder Ebene immer nur vier Experten aktiv. Laut der Modelldokumentation sind bei der Token Generation immer nur maximal 5,1 Milliarden Parameter aktiv. Das beschleunigt die Token Generation um mehr als das zwanzigfache:
Welches ist nun das beste Modell? Auf meinem Rechner habe ich mit dem gerade erwähnten Modell GPT-OSS-120B sehr gute Erfahrungen gemacht. Für Coding-Aufgaben funktionieren auch qwen3-next-80b-83b und glm-4.5-air gut, wobei letzteres für den praktischen Einsatz schon ziemlich langsam ist.
Mit dem GNU Taler entsteht ein freies Bezahlsystem, bei dem private Anwender:innen anonym bleiben. Im letzten Teil dieser Serie, geht es um offene Fragen und das Fazit.


Lennart Poettering gießt seine Ideen, wie Distributionen künftig gebaut werden sollen, in eine eigene Firma Amutable, deren Gründung er mit Chris Kühl und Christian Brauner bekannt gab.
Das InfinityBook Max erweitert die InfinityBook-Pro-Reihe von TUXEDO um grafisch leistungsstarke, leichte und mobile Businessnotebooks. Jetzt kommt das TUXEDO InfinityBook Max 15 Intel hinzu.
Mozilla hat Firefox 147.0.2 veröffentlicht und behebt damit mehrere Probleme der Vorgängerversion. Auch Sicherheitslücken wurden behoben.
Download Mozilla Firefox 147.0.2
Mozilla hat Firefox 147.0.2 für Windows, macOS und Linux veröffentlicht und behebt damit mehrere Sicherheitslücken, diverse potenzielle Absturzursachen sowie mehrere Webkompatibilitätsprobleme, darunter eines, welches unerwartete WebAuthn-Anfragen verursachen konnte.
Websites konnten vom SafeBrowsing-Schutz unter Umständen fälschlicherweise als schädlich erkannt werden.
Mehrere Probleme wurden auch in Zusammenhang mit der Unterstützung für die XDG Base Directory-Spezifikation unter Linux behoben.
Außerdem zeigten Zertifikats-Fehlerseiten in manchen Fällen den Port doppelt an.
Der Beitrag Mozilla veröffentlicht Sicherheits-Update Firefox 147.0.2 erschien zuerst auf soeren-hentzschel.at.
Die Server-Distribution DietPi fordert in der neuen Major-Version mindestens Debian 12 „Bookworm“ als Unterbau.
Die Server-Distribution DietPi fordert in der neuen Major-Version mindestens Debian 12 „Bookworm“ als Unterbau.
Loopex Digital, ein Anbieter von SEO-Lösungen, hat den Traffic des Chatbots ChatGPT vor und nach dem Update des Konkurrenten Google auf Gemini 3.0 geschätzt und verzeichnet teils erhebliche…
Eine Veröffentlichung des Science Policy Forum, an der auch die Direktorin des Max-Planck-Instituts für Sicherheit und Privatsphäre, Prof.
Curl-Hauptentwickler Daniel Stenberg hat angekündigt, das Bug-Bounty-Programm von Curl wegen zu vielen KI-Schrottmeldungen Ende Januar zu beenden. Das Programm war 2019 an den Start gegangen.
Mit dem GNU Taler entsteht ein freies Bezahlsystem, bei dem private Anwender:innen anonym bleiben. Im dritten Teil dieser Serie, betrachten wir das Bezahlsystem aus der Händler-Perspektive.


Die neue Version von Bottles setzt einen deutlichen Schwerpunkt auf mehr Transparenz. Das Projekt erweitert seine Umgebung für Windows Programme auf Linux um ein Werkzeug, das Nutzern vor dem Start einer Datei wichtige Hinweise liefert. Das neue Analysewerkzeug Eagle untersucht ausgewählte Dateien sehr genau. Das Tool erkennt typische Installer und öffnet deren Inhalt in einer […]
Der Beitrag Bottles 61 bringt mit Eagle ein mächtiges Analysewerkzeug erschien zuerst auf fosstopia.
Dieser Artikel fasst die Veröffentlichungstermine für Firefox und Firefox ESR im Jahr 2026 übersichtlich zusammen.
Neue Major-Releases von Firefox erscheinen in der Regel alle vier Wochen. Auf diese Weise erreichen Neuerungen schneller den Endnutzer und man muss nicht viele Monate auf bereits implementierte Funktionen warten. Dies sind die Veröffentlichungstermine von Firefox für das Jahr 2026.
Firefox 147, Firefox ESR 140.7, Firefox ESR 115.32
13. Januar 2026 (5 Wochen nach Firefox 146)
Firefox 148, Firefox ESR 140.8, Firefox ESR 115.33
24. Februar 2026 (6 Wochen nach Firefox 147)
Firefox 149, Firefox ESR 140.9
24. März 2026 (4 Wochen nach Firefox 148)
Firefox 150, Firefox ESR 140.10
21. April 2026 (4 Wochen nach Firefox 149)
Firefox 151, Firefox ESR 140.11
19. Mai 2026 (4 Wochen nach Firefox 150)
Firefox 152, Firefox ESR 140.12
16. Juni 2026 (4 Wochen nach Firefox 151)
Firefox 153, Firefox ESR 153.0, Firefox ESR 140.13
21. Juli 2026 (5 Wochen nach Firefox 152)
Firefox 154, Firefox ESR 153.1, Firefox ESR 140.14
18. August 2026 (4 Wochen nach Firefox 153)
Firefox 155, Firefox ESR 153.2, Firefox ESR 140.15
15. September 2026 (4 Wochen nach Firefox 154)
Firefox 156, Firefox ESR 153.3
13. Oktober 2026 (4 Wochen nach Firefox 155)
Firefox 157, Firefox ESR 153.4
10. November 2026 (4 Wochen nach Firefox 156)
Firefox 158, Firefox ESR 153.5
8. Dezember 2026 (4 Wochen nach Firefox 157)
Firefox 159, Firefox ESR 153.6
19. Januar 2027 (6 Wochen nach Firefox 158)
Der Beitrag Firefox: Release-Termine 2026 erschien zuerst auf soeren-hentzschel.at.
Was passiert, wenn Linus Torvalds ausfällt und niemand seinen Posten als Entwicklungschef einnehmen möchte? Dann soll ähnlich zur Papstwahl ein Konkalve einen Ersatz bestimmen.
Was passiert, wenn Linus Torvalds ausfällt und niemand seinen Posten als Entwicklungschef einnehmen möchte? Dann soll ähnlich zur Papstwahl ein Konkalve einen Ersatz bestimmen.
In seinem ersten Release des Jahres verbessert die geschwindigkeitsoptimierte Distribution CachyOS den Installationsassistenten.
Sowohl die Linux-Distribution GNU Guix als auch der gleichnamige Paketmanager liegen in der Version 1.5.0 vor. Beide fassen alle in den letzten drei Jahren aufgelaufenen Änderungen zusammen.
Das Land Berlin hat seine Open Source Strategie veröffentlicht und will damit die “Innovationskraft und digitale Souveränität nachhaltig stärken.” Die Strategie enthält einige konkrete Maßnahmen, die mit Zeitplänen versehen den Erfolg der Strategie messbar machen. Bis 2032 zum Beispiel sollen beispielsweise 70 Prozent des Software-Stacks an den Verwaltungsarbeitsplätzen Open Source sein. Die Zielsetzung: Abhängigkeiten von […]