y0o.de · GNU/Linux Nachrichten u.Ä.

🔒
❌ Über y0o.de
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Ältere BeiträgeHaupt-Feeds

Koalitionsvertrag: Berlin setzt auf Open Source

01. Dezember 2021 um 10:50

Die neue Berliner Landesregierung hält Open Source für “unverzichtbar”. Offener Code soll priorisiert und OSS-Communitys gefördert werden.

Zu Beginn der Woche haben SPD, Grüne und Linke ihren Koalitionsvertrag (PDF) für Berlin vorgestellt. Die Landesregierung will sich in der kommenden Legislaturperiode demnach verstärkt für Open-Source-Software sowie offene Standards einsetzen, denn diese seien für “eine digital souveräne Stadt (…) unverzichtbar”.

Der künftige Berliner Senat will deshalb “bei jeder Softwarebeschaffung nach Open-Source-Alternativen suchen und speziell für die Verwaltung erarbeitete Software unter freien Lizenzen der Allgemeinheit zur Verfügung stellen”. Ganz ähnlich hatte sich vor kurzem auch die neue kommende Bundesregierung aus SPD, Grünen und FDP positioniert. Im Berliner Koalitionsvertrag heißt es weiter konkret, dass auch Förderprogramme für IT-Projekte diesem Open-Source-Ansatz folgen sollen.

Beim landeseigenen IT-Dienstleister, dem ITDZ Berlin, will die Koalition außerdem ein “Kompetenzzentrum Open Source” erstellen und auf “Synergiepotenziale in länderübergreifenden und internationalen IT-Kooperationen” zurückgreifen. Ein Beispiel dieser Kooperationen könnte ein einheitlicher IT-Arbeitsplatz in der Verwaltung werden, worauf sich Bund und Länder vor einigen Wochen verständigt haben. Berlin war daran jedoch noch nicht beteiligt.

Laut dem neuen Koalitionsvertrag in Berlin strebt das Land aber ebenfalls einen standardisierten Arbeitsplatz an, der als “BerlinPC Open Source (…) als Referenz für alle entsprechenden Ausschreibungen dienen” soll. Darüber hinaus will die kommenden Berliner Regierung auch einen “Open Source Fonds zur Finanzierung von Entwicklungs-Communities” einrichten, “die das Land Berlin braucht, um Anwendungen zu pflegen und weiterzuentwickeln”. Darüber könnten jene Open-Source-Anwendungen gepflegt und finanziert werden, für die es etwa keine direkten Support-Verträge vonseiten des Herstellers gibt.

Der Beitrag Koalitionsvertrag: Berlin setzt auf Open Source erschien zuerst auf Linux-Magazin.

Nvidia Cuda und AMD Hip: Blender wird massiv beschleunigt

29. November 2021 um 10:23

Die Arbeiten an dem neuen Cycles-X-Renderer in Blender zahlen sich wohl deutlich aus. Das zeigen erste Benchmarks der Community. Das Entwicklungsteam der freien 3D-Grafiksuite Blender berichtet in seinem Blog über den aktuellen Zustand der Arbeiten an dem Cycles-X-Projekt. Dabei handelt es sich um einen grundsätzlich neuen Ansatz für den GPU-Renderer, der mit der kommenden Version 3.0 veröffentlicht werden soll. Erste Benchmarks zeigen dabei eine deutliche Beschleunigung im Vergleich zur bisherigen Lösung sowohl auf Nvidia- als auch auf AMD-GPUs.

Cycles ist für das sogenannte Physically Based Rendering (PBR) vorgesehen und ermöglicht in Blender damit etwa fotorealistische Darstellungen. Für den neuen Ansatz von Cycles X verzichtet das Team unter anderem vollständig auf den offenen Standard OpenCL. Die Gründe dafür seien schlicht eine Kombination verschiedener Probleme und Unzulänglichkeiten mit OpenCL, wie es zur Ankündigung hieß.

Zur GPU-Beschleunigung des Renderings hat Blender für Nvidia-Karten darüber hinaus zwar bisher schon dessen proprietäre Cuda- und Optix-Schnittstellen gesetzt. Doch auch hier habe das Team mit Cycles X teils eine Beschleunigung um das 3- bis 5-Fache erreicht, etwa beim Volume-Rendering, wie es in dem Blogeintrag schreibt. Hinzu kämen einen Vielzahl schrittweise umgesetzter Verbesserungen, die sich nun offenbar deutlich auszahlten.

Die umgesetzten Verbesserungen wirken sich dabei wohl auch spürbar auf das Rendering auf AMD-Grafikkarten aus, wie die Benchmarks zeigen. Für diese setzte Blender bisher auf OpenCL, stattdessen kommt nun das eigene Hip (Heterogeneous-computing Interface for Portability) zum Einsatz. Hip soll dabei auch eine einfache Migration von Cuda-Code ermöglichen, was sich dank der Verbesserungen an Cuda und Optix auch direkt auf die AMD-Leistung auswirkt.

In dem Blogpost geht das Team ebenfalls auf Detailverbesserungen ein, etwa zum Rendering von Haaren und Fell, dem sogenannten Micro-Jittering, zu der Umgebungsverdeckung (Ambient Occlusion) oder auch zum Denoising. Das Team schreibt darüber hinaus, dass mit der Version 3.0 nun die grundlegende Architektur von Cycles X fertiggestellt ist und es damit künftig einfacher wird, weitere Funktionen hinzuzufügen.

Der Beitrag Nvidia Cuda und AMD Hip: Blender wird massiv beschleunigt erschien zuerst auf Linux-Magazin.

PHP Foundation soll unabhängige Entwicklung sicherstellen

24. November 2021 um 12:38

Die Programmiersprache PHP bekommt eine unabhängige Dachorganisation, um einige Kernentwickler anzustellen. Mit dabei sind große Unternehmen.

Einer der bisherigen Hauptentwickler der Programmiersprache PHP, Nikita Popov, verlässt offenbar das Projekt und wendet sich professionell dem LLVM-Projekt zu. Das schreibt Popovs Arbeitgeber Jetbrains, der deshalb in seinem Blog über den sogenannten Bus-Faktor für die Sprache PHP nachdenkt. Vorläufiges Ende dieser Überlegung ist nun offenbar die Gründung der PHP Foundation.

Die unabhängige und gemeinnützige PHP Foundation soll vor allem dafür sorgen, dass einige der Kern-Entwickler von PHP selbst in Vollzeit oder Teilzeit an dem Projekt weiterarbeiten können, wie Jetbrains schreibt. Der Grund dafür sei recht einfach: Bisher hätten die Beteiligten die Fortentwicklung von PHP eher als “gemächliches” statt als kritisches Problem wahrgenommen.

Der Fortgang von Popov habe diesen Blick aber verändert, denn es versetze die Sprache, die “78 Prozent des Webs antreibt”, in eine zerbrechliche Lage. Darüber hinaus steige dadurch der Druck auf die verbliebenen Maintainer im PHP-Projekt. Derartige Belastungen führten aber in der gesamten Open-Source-Szene immer wieder zum Burnout Einzelner.

Um all diese beschriebenen Probleme anzugehen, soll mit der PHP Foundation das Projekt sowie die Sprache und deren Betreuer mehr Stabilität erhalten. Jetbrains selbst werde dafür rund 100.000 US-Dollar jährlich spenden. Insgesamt sollen mindestens 300.000 US-Dollar im Jahr für die PHP-Foundation zusammenkommen.

Unterstützt wird das Projekt dabei unter anderem noch von den WordPress-Machern Automattic, den PHP-Spezialisten Zend sowie zahlreichen weiteren Unternehmen, die Produkte und Frameworks auf Basis von PHP erstellen, wie etwa Symfony, Laraval oder Tideways. Auch andere sollen sich einfach an der PHP Foundation beteiligen können. Um dies zu vereinfachen, wird die PHP Foundation zunächst über Open Collective organisiert.

Weitere Details wie eine dauerhafte Führung oder Regeln für die PHP Foundation soll eine temporäre Arbeitsgruppe erarbeiten, an der namhafte PHP-Entwickler beteiligt sind, darunter auch Popov. An den bisherigen Regeln und Prozessen zur tatsächlichen Weiterentwicklung von PHP soll sich aber nichts ändern.

Der Beitrag PHP Foundation soll unabhängige Entwicklung sicherstellen erschien zuerst auf Linux-Magazin.

Asahi: Linux startet auf dem M1 Pro

04. November 2021 um 13:11

Nur wenige Tage hat es die Hacker von Asahi-Linux gekostet, einen funktionsfähigen Port auf die neuen Apple-Silicon-CPUs zu erstellen.

Das freie Betriebssystem Linux startet auf den neuen Macbook Pro mit M1-Pro-CPU. Das berichtet der für den Port verantwortliche Entwickler Hector Martin, der für die Arbeiten nur wenige Tage benötigt hat. Das System startet demnach bis in eine Shell-Umgebung, wie auch ein von Martin veröffentlichtes Foto zeigt.

Wie Martin weiter schreibt, seien darüber hinaus die USB-Ports nutzbar, USB Power Delivery werde unterstützt, ebenso wie SMP, IRQs, IPIs, DART, I2C, GPIO sowie die Framebuffer-Konsole. Als nächstes werde sich Martin dem PCIe-Support zuwenden, der vor allem für das WLAN sowie für den SD-Karten-Leser wichtig ist.

Wie Martin in einem weiteren Tweet offenbar unter Bezugnahme auf Reaktionen zu seiner Ankündigung schreibt, überrasche es ihn, “wie weit die Vorstellung vieler Menschen über die Einführung von Hardware-Unterstützung von dem tatsächlichen Aufwand entfernt ist”. Viele erwarteten hier wohl schlicht das Bild von einem Linux-Desktop auf einem neuen Gerät. Martin und seinen Mitstreitern seien aber eine solide Treiberbasis für alle Gerätebestandteile wichtiger, was immerhin für den M1-Chip bereits fast vollständig umgesetzt sei. Und auch mit dem M1 Pro scheinen Martin und das Asahi-Linux-Team nur wenig Probleme zu haben.

In Bezug auf die Arbeiten am M1 Pro schreibt Martin, dass der für den neuen Chip notwendige Code am Bootloader bereits eingepflegt sei. Darüber hinaus umfassen die Unterschiede zum M1 für den Linux-Kernel-Code bisher nur rund 1.300 Zeilen, wovon rund die Hälfte der neue Device-Tree sei. Der Rest sei Support-Code für den neuen Interrupt-Controller sowie das Iommu Page-Table-Format. Martin geht davon aus, dass der Code mit Linux 5.17 im Hauptzweig des Kernels veröffentlicht werden könnte.

Der Beitrag Asahi: Linux startet auf dem M1 Pro erschien zuerst auf Linux-Magazin.

Erste stabile X-Server-Veröffentlichung seit drei Jahren

29. Oktober 2021 um 13:33

Schon lange wird darüber diskutiert, dass der X.org X-Server kaum noch weiterentwickelt und gepflegt wird. Nun gib es eine neue Version.

Der X.org X-Server ist in der Version 21.1 erschienen. Dabei handelt es sich um die erste offiziell stabile Veröffentlichung seit etwa dreieinhalb Jahren. Für die neue Version hat das Team unter anderem das Versionsschema der Veröffentlichung geändert. Die vorhergehende Version ist 1.20 und die nun erschiene Version wurde zunächst als 1.21 entwickelt.

Mit der aktuellen Serie spalten die Zuständigen außerdem die Entwicklung von XWayland offiziell ab. Diese Kompatibilitätsschicht zur neueren Displaytechnik Wayland wird nun unabhängig weiterentwickelt.

Nicht mehr Teil der Veröffentlichung ist darüber hinaus der Gerätetreiber (DDX) für Distributed Multihead X (DMX). Mit Hilfe von DMX war es möglich, die Anzeigen mehrerer X-Server zur einer einheitlichen Oberfläche zusammenzuführen. Der Code dazu funktioniert aber nicht mehr mit OpenGL und ist wohl seit bereits 14 Jahren kaputt.

Neu zu dem X.org X-Server hinzugekommen ist Glamor-Support für Xvfb und Unterstützung für Variable Refresh Rates (VRR) im generischen Modesetting-Treiber. Der X-Server meldet nun außerdem die Auflösung (DPI) in vielen Fällen korrekt, was vor allem bei HI-DPI-Displays helfen soll. Als Build-System nutzt das Projekt Meson, was vollständig einsetzbar sein soll. Die älteren Autotools können aber weiter zum Bauen genutzt werden.

Die für die Version selbst wohl wichtigste Neuerung ist die Integration von XInput 2.4 mit Touchpad-Gesten. Wie der für die aktuelle Version zuständige Entwickler Povilas Kanapickas bei Hackernews schreibt, sei das der eigentliche Grund für die Veröffentlichung gewesen. Ohne die Anstrengungen und die Finanzierung für besseren Touchpad-Support wäre die Version wohl nie erschienen, schreibt Kanapickas.

Tatsächlich wurde der X.org X-Server bisher kaum noch gepflegt. Laut dem Entwickler Daniel Vetter liegt das daran, dass “jeder Entwickler, der lange genug daran gearbeitet hat, um das gesamte Biest zu verstehen und zu pflegen, schreiend weggelaufen ist”. Auch die meisten großen Linux-Distributionen setzen inzwischen auf Wayland. Vetter bezeichnete den X-Server deshalb im vergangenen Jahr als “Abandonware”.

Der Beitrag Erste stabile X-Server-Veröffentlichung seit drei Jahren erschien zuerst auf Linux-Magazin.

Intel will mehr Open Source wagen

26. Oktober 2021 um 12:02

Der Intel-CEO Pat Gelsinger stimmt den Konzern auf mehr Kollaboration und Offenheit ein. Wichtig seien auch “Wahlmöglichkeiten und Vertrauen”.

Vor seinem Intel Innovation Event, das als Nachfolger des Intel Developer Forums gilt, hat der Intel-CEO Pat Gelsinger einen “offenen Brief an ein offenes Ökosystem” veröffentlicht, wie Gelsinger dies selbst nennt. Gelsinger ist erst Anfang dieses Jahres zu Intel zurückgekehrt, um die Stelle des CEO zu übernehmen und die Probleme des Konzerns zu lösen.

Und die Zukunft des Unternehmens und seiner Tätigkeit soll unter der neuen Führung offenbar noch mehr als jetzt auf Open-Source-Prinzipien basieren. Gelsinger schreibt dazu: “Aus diesem Grund glaube ich grundsätzlich an einen Open-Source-Bias, der die softwaredefinierte Infrastruktur antreibt, die das moderne Rechenzentrum verändert und das datenzentrierte Zeitalter eingeläutet hat”. Auf dem Innovation Event werde Gelsinger unter anderem über die “Bedeutung von Offenheit, Wahlmöglichkeiten und Vertrauen” für Intel sprechen.

Als bisher erfolgreiche Umsetzungen der offenen Strategien von Intel verweist Gelsinger auf USB, WLAN und Bluetooth. Hinzu kämen vielen weitere Industrie-Standards und APIs, um jene zu nutzen. Gelsinger schreibt: “Ich glaube daran, allen Endbenutzern, Entwicklern, Partnern und Unternehmen den Erfolg zu ermöglichen, weil dies zu neuer Begeisterung für Forschung und Entwicklung führt.”

Was das im Detail für die künftige Ausrichtung des Unternehmens Intel bedeutet, wird sich wohl erst auf dem Intel Innovation Event zeigen. Gelsinger verspricht aber bereits, mehr in Intel OneAPI zu investieren, die “Wahlmöglichkeiten von Entwicklern durch Zusammenarbeit mit einem breiten Ökosystem” zu stärken oder intensiver mit Industriepartnern zusammenzuarbeiten, um systemische Schwierigkeiten etwa im Bereich der Sicherheit zu überwinden. Auch für kommende Technologie wie etwa Quanten-Computing soll Intel offen mit Wissenschaft und Entwicklern zusammenarbeiten.

Der Beitrag Intel will mehr Open Source wagen erschien zuerst auf Linux-Magazin.

Linux: Vom einfachen Speicherfehler zur Systemübernahme

21. Oktober 2021 um 10:56

Ein häufig vorkommender Fehler in C-Code hat einen Google-Entwickler motiviert, über Gegenmaßnahmen nachzudenken.

Der Google-Entwickler Jann Horn beschreibt in einem langem Blogpost für Googles Project Zero detailliert die Ausnutzung einer Lücke im Linux-Kernel. Bei dem eigentlichen Fehler handelt es sich um eine sogenannte Use-After-Free-Lücke, die “relativ normal” sei und zum Beispiel bei C-Code zu den typischen Fehlern gehört.

Horn gelang es, auf Grundlage des Fehlers vollen Systemzugriff zu erlangen. Er schreibt dazu: “Ich hoffe, dass das Durchlaufen eines solchen Exploits und die Weitergabe dieses gesammelten Wissens an die breitere Sicherheitsgemeinschaft dazu beitragen kann, den relativen Nutzen verschiedener Gegenmaßnahmen zu erörtern.”

Zu der sehr ausführlichen und mit expliziten Code-Beispielen versehenen Beschreibung zum Ausnutzen der Lücke schreibt Horn darüber hinaus: “Es handelte sich im Wesentlichen um einen langweiligen Locking-Fehler in einem zufälligen Kernel-Subsystem, der, wenn es sich nicht um einen Speicherfehler handeln würde, eigentlich keine große Bedeutung für die Systemsicherheit haben sollte. Ich habe einen ziemlich einfachen, unaufregenden (und zugegebenermaßen unzuverlässigen) Exploit für diesen Fehler geschrieben; und die wahrscheinlich größte Herausforderung, auf die ich bei dem Versuch, ihn unter Debian auszunutzen, gestoßen bin, war, richtig zu verstehen, wie der SLUB-Allokator funktioniert.”

Der Sicherheitsforscher beschreibt damit ein inzwischen typisches Bild für die Einordnung von C-Code und damit verbundenen Speicherfehlern, die von vielen in der IT-Industrie vermehrt als sehr großes Sicherheitsproblem gesehen werden. Doch Horn führt aus, dass etwa die inzwischen für Compiler wie Clang umgesetzten Werkzeuge mit rein praktischen Schwierigkeiten konfrontiert seien.

Für die Thread-Analyse brauche es etwa Annotationen, die von der Community betreut werden müssten. Eine globale statische Analyse finde außerdem nur einen Teilmenge bestimmter Fehler und sei möglicherweise nicht geeignet, die Korrektheit von sicheren Speicherzugriffen zu beweisen. Auch Techniken wie Control-Flow Integrity hätten auf den von Horn entwickelten Exploit keinerlei Auswirkung, da dieser komplett auf einer Datenmanipulation basiert, nicht auf der Manipulation von Zeigern oder Ähnlichem. 

Horn schreibt außerdem, dass die aktuelle Situation der Software-Sicherheit “dramatisch verbessert” werden könne. Kurzfristig seien hier jedoch nur einige Notlösungen denkbar. “Langfristig denke ich, muss sich an der Programmiersprache etwas ändern – schlichtes C ist einfach zu fehleranfällig.” Ob das inzwischen oft als C-Ersatz gepriesene Rust die richtige Antwort ist, kann Horn aber auch nicht sagen.

Der Beitrag Linux: Vom einfachen Speicherfehler zur Systemübernahme erschien zuerst auf Linux-Magazin.

Linux-Bootfehler wegen AMDs RAM-Verschlüsselung

20. Oktober 2021 um 10:57

Auf einigen Ryzen-Systemen sorgen Linux-Treiber für teils schwerwiegende Probleme. Die RAM-Verschlüsselung wird deshalb vorerst deaktiviert.

Die bisher standardmäßig aktivierte RAM-Verschlüsselung (SME) auf AMD-Systemen unter Linux ist mit einem als “dringend” bezeichneten Patch für den Linux-Kernel wieder deaktiviert worden. Der Patch wurde in den Hauptzweig sowie auch bereits in den Stable-Zweig eingepflegt, so dass die Änderung demnächst als Update bereitstehen sollte. Der Grund dafür sind wohl einige gravierende Fehler im Zusammenhang mit der SME-Funktion.

Berichte des Kernel-Teams von Debian zufolge hat die Funktion zuvor für Bootfehler auf Systemen mit AMDs Raven Ridge gesorgt. Die Maschinen konnten nicht mehr gestartet werden. Auf einem weiteren System mit AMDs Ryzen 3 2200G sowie einem MSI-Motherboard führte die Nutzung der Technik wohl dazu, dass der AMD-Grafiktreiber zwar geladen, aber nicht genutzt wird. Auf weiteren Systemen bleibt das Display wohl einfach schwarz und es findet keine Grafikausgabe mehr statt.

Der für den Linux-Grafiktreiber von AMD zuständige Entwickler Alex Deucher vermutet, dass die eigentliche Ursache für den Fehler im Zusammenhang mit der IOMMU liegt, die für die SME-Funktion zwingende Voraussetzung ist. Darüber hinaus schreibt Deucher, dass es wohl OEM-Systeme gibt, die die IOMMU deaktivieren und dies aber auch nicht mehr in den Firmware-Einstellungen verändert werden könnte. Deucher schlägt deshalb vor, dass die Nutzung von SME im Linux-Kernel eine IOMMU voraussetzen sollte.

Mit der sogenannten Secure Memory Encryption (SME) bietet Hardware-Hersteller AMD eine Möglichkeit, einzelne Seiten einer Seitentabelle als verschlüsselt zu markieren. Wird dann etwas in den DRAM geschrieben, wird dies verschlüsselt und beim Lesen entsprechend wieder entschlüsselt. Das soll die DRAM-Inhalte vor physischen Angriffen auf das System schützen.

Der Beitrag Linux-Bootfehler wegen AMDs RAM-Verschlüsselung erschien zuerst auf Linux-Magazin.

Das WSL kommt als Store-App mit schnelleren Updates

13. Oktober 2021 um 11:56

Bisher war das Windows Subsystem für Linux (WSL) eine Systemkomponente. Als Store-App kann die Technik aber unabhängig aktualisiert werden.

Das Windows Subsystem für Linux (WSL) steht nun als Vorschau für Interessierte zum Installieren als App über den Microsoft Store bereit. Das kündigt das Team in seinem Windows-Command-Line-Blog an. Dazu verspricht Microsoft: “Wenn Sie WSL über den Store installieren, erhalten Sie die neuesten WSL-Updates und -Funktionen schneller und ohne dass Sie Ihre Windows-Version ändern müssen”.

Bisher ist das WSL eine feste Kernkomponente des Windows-Betriebssystems und kann dementsprechend auch nur über ein Windows-Update selbst aktualisiert werden. Mit der Verfügbarkeit im Store soll dies aber überwunden werden. Technisch soll es dabei keine größeren Unterschiede zur bisherigen Lösung geben. Zuvor hatte Microsoft immerhin schon den genutzten Linux-Kernel aus dem Image gelöst, wenigstens diesen unabhängig aktualisieren zu können.

Mit der neuen Form des Vertriebs wanderten die Binärdateien des WSL laut dem Blog lediglich aus dem Windows-Image in eine App, die über den Store installiert wird. Damit werde das WSL selbst letztlich von der genutzten Windows-Version entkoppelt und so könnten die Nutzer schneller neue Funktionen erreichen. Dazu zählt das Blog etwa den GUI- und GPU-Support oder die Möglichkeit, Linux-Dateisysteme einfach einzuhängen.

Derartige Neuerungen könne das Team künftig dann veröffentlichen, wenn diese getestet und für stabil befunden wurden, statt auf das nächste Windows-Update warten zu müssen. Langfristig plant das Team, die neue Store-App des WSL zur Standardmethode der Installation zu machen. Ebenso sollen die Nutzer von der Betriebssystemkomponente auf die Store-App migriert werden. Noch gibt es dafür aber keine konkreteren Pläne und laut Microsoft soll die bisherige Variante weiter in Windows 11 unterstützt werden. Zur Nutzung der App muss Windows 11 verwendet werden.

Der Beitrag Das WSL kommt als Store-App mit schnelleren Updates erschien zuerst auf Linux-Magazin.

Futex2: Linux-Kernel bekommt neue Thread-Synchronisation

12. Oktober 2021 um 10:00

Die Futex-API des Linux-Kernels ist nach jahrelanger Arbeit nun kurz vor der Veröffentlichung einer Neufassung. Ausgangspunkt waren Valve und Wine.

Die Umarbeitung und komplette Neugestaltung der Futex-Schnittstelle des Linux-Kernels ist als Futex2 in einen wichtigen Kernel-Zweig aufgenommen worden. Es ist damit davon auszugehen, dass Futex2 in Linux-Kernel 5.16 aufgenommen wird, der Anfang kommenden Jahres erscheinen dürfte. Die Futex-Technik (Fast Userspace Mutex) bietet bereits seit langem eine Kernel-Technik zur Thread-Synchronisation, die Technik sollte aber grundsätzlich erweitert werden.

Beginn der Arbeiten vor etwa zwei Jahren war die Idee von Valve für seine Spielplattform Steam, mit Fsync eine neue experimentelle Technik für Linux einzuführen. Mit dieser sollte die Synchronisation von Threads auch unter Linux so ähnlich funktionieren, wie dies bei Windows umgesetzt wird. Ziel waren Geschwindigkeitsvorteile beim Ausführen von Windows-Spielen unter Linux.

Technisches Ziel war und ist es dabei, einerseits die Thread-Synchronisation im Userspace umzusetzen und dies andererseits so zu gestalten, dass Threads gleichzeitig den Zustand mehrerer Objekte erfragen können. Letzteres ist unter Linux aber bisher nicht ohne Weiteres möglich gewesen. In der Erklärung zu den aktuellen Patches von Collabora-Entwickler André Almeida, mit denen dies nun umgesetzt wird, heißt es dazu: “Dies ist besonders nützlich, um Waitformultipleobjects von Windows zu emulieren.”

Darüber hinaus beschreibt Almeida, dass die Umarbeitung und Nutzung der neuen Futex-Schnittstelle im Vergleich zu der vor zwei Jahren verwendeten Technik die CPU-Last in Spielen reduziere und teils sogar die Bildwiederholrate steigern könnte. Immerhin nutzen einige Spiele laut Almeida mehr als 40.000 Futex-Aufrufe pro Sekunde.

Weitere Details zu dem neuen Futex-Aufruf liefert die Dokumentation sowie ein Vortrag von Almeida auf der diesjährigen Linux Plumbers Conference. Außerdem berichtet der Valve-Entwickler Pierre-Loup Griffais auf Twitter, dass die Beteiligten daran arbeiten, die Vorteile der neuen Schnittstelle für native Game-Engines und weitere Linux-Anwendungen bereitzustellen. Dafür arbeitet das Team etwa an einer Glibc-Umsetzung.

Der Beitrag Futex2: Linux-Kernel bekommt neue Thread-Synchronisation erschien zuerst auf Linux-Magazin.

Firefox zeigt Vorschläge und Werbung in der URL-Leiste

17. September 2021 um 09:45

Beim Tippen in der URL-Leiste soll der Firefox-Browser künftig relevante Ergebnisse zeigen. Darunter kann auch Werbung sein.

Der Browserhersteller Mozilla hat eine neue Funktion in Firefox vorgestellt, die Suggest genannt wird. Dabei handelt es sich laut Mozilla um eine weitere Möglichkeit zum Entdecken von Inhalten. Dazu heißt es: “Firefox Suggest fungiert als vertrauenswürdiger Leitfaden für ein besseres Web und stellt relevante Informationen und Websites zur Verfügung, die den Menschen helfen, ihre Ziele zu erreichen”. Möglich machen soll das die sogenannte Awesome Bar, also die funktional erweiterte URL-Zeile.

Schon jetzt ermöglicht der Browser darüber etwa eine einfache und direkte Suche in verschiedenen Suchmaschinen. Ebenso können darüber die geöffneten Tabs oder die Browserhistorie durchsucht werden. Das erweitert Mozilla nun um Vorschläge aus verschiedenen Quellen, die relevante Antworten auf den jeweils eingegebenen Suchbegriff geben sollen.

Als mögliche Quellen für die Vorschläge nennt die Ankündigung etwa Wikipedia-Einträge, Texte aus dem zu Mozilla gehörenden Dienst Pocket oder Testberichte. Darüber hinaus soll es aber auch “glaubwürdige Inhalte von gesponserten, geprüften Partnern und vertrauenswürdigen Organisationen” geben, also Werbeinhalte. Mozilla nennt hier als Beispiel etwa einen Link auf Ebay bei der Suche nach einer bestimmten Schuhmarke. Mozilla verspricht außerdem, dass dafür keinerlei neue Daten erhoben werden.

Zunächst in den USA testet Mozilla darüber hinaus kontextbasierte Vorschläge für die Ergebnisse, wobei weitergehende Informationen etwa über die Suchanfrage selbst oder der ungefähre Standort des Nutzers an Mozilla gesendet wird, um die Ergebnisse zu verbessern. Dieser Verwendung muss durch die Firefox-Nutzer per Opt-in zugestimmt werden. Details zur Datenverwendung, dem dahinterliegenden Dienst und Ähnliches fasst Mozilla in einem Supportdokument zusammen.

Firefox Suggest ist dabei nicht der erste Versuch von Mozilla, Werbeplätze in seinem Browser zu schaffen, die die Privatsphäre der Nutzer respektieren, und darüber Geld zu verdienen. Getestet wurden dabei gesponserte Inhalte auf der Startseite oder bereits vor mehr als sieben Jahren in den sogenannten Directory Tiles der Neue-Tab-Ansicht.

Der Beitrag Firefox zeigt Vorschläge und Werbung in der URL-Leiste erschien zuerst auf Linux-Magazin.

Bittorrent-Client: Transmission wechselt von C auf C++

13. September 2021 um 13:26

Das Open-Source-Projekt Transmission will künftig C++ nutzen, da die Sprache inzwischen sinnvoller einsetzbar ist als das ältere C.

Der freie Bittorrent-Client Transmission wird, zumindest in weiten Teilen, von der bisher genutzten Programmiersprache C auf C++ portiert. Das gilt zunächst für die zugrundeliegende Bibliothek Libtransmission. Als Grund dafür gibt der dafür zuständige Entwickler Charles Kerr an, dass die Werkzeuge aus der Standardbibliothek von C++ nützlicher sind als die vielen Eigenentwicklungen, die sich in dem eigenen C-Code befinden.

Darüber hinaus schreibt Kerr in dem Beitrag: “Fast jedes Mal, wenn ich etwas in Libtransmission korrigiere oder ändere, stelle ich fest, dass ich ein C++-Tool vermisse, das ich bei der Arbeit in anderem Code als selbstverständlich angesehen habe, entweder um das Rad nicht neu erfinden zu müssen (z. B. mit std::partial_sort statt tr_quickfindFirstK oder std::vector statt tr_ptrArray) oder die bessere Typüberprüfung (zB std::sort statt qsort)”.

Der vollständige Wechsel der Programmiersprache eines Softwareprojekts ist ein eher ungewöhnlicher Schritt, der vor allem mit viel Aufwand verbunden sein wird. Da sich C und C++ aber in sehr vielen Grundlagen weiter ähneln, ist dies aber offenbar für das Transmission-Team zunächst keine allzu große Aufgabe. So umfasst der erste Code-Beitrag etwa 1.000 Zeilen Code, in denen meist nur leichte und kleine Anpassungen vorgenommen werden, um Build-Fehler des C++-Compilers zu beheben.

Kerr weist außerdem darauf hin, dass der Code von Transmission seit 15 Jahren in C geschrieben wird, das Beseitigen aller C-Eigenheiten sei deshalb “so gut wie unmöglich”. Das einzig weitere Vorgehen seien hier “inkrementelle Schritte”. Patches zum Modernisieren des Codes seien aber natürlich ebenso willkommen.

Der Beitrag Bittorrent-Client: Transmission wechselt von C auf C++ erschien zuerst auf Linux-Magazin.

Kernel-Community erringt Kompromiss zu Kompilierfehlern

10. September 2021 um 11:50

Eigentlich wollte Linux-Kernel-Chef Torvalds, dass alle Warnungen des Compilers als Fehler behandelt werden. Die Community konnte intervenieren.

Zu Beginn der Woche pflegte der Chefentwickler des Linux-Kernels, Linus Torvalds, eine für viele Community-Mitglieder überraschende Änderung in den Hauptzweig ein: Eine neue Konfigurationsoption sorgte dafür, dass sämtliche Warnungen des Compilers als Fehler behandelt wurden (-Werror). So gab es jedoch schnell Probleme und zahlreiche kaputte Builds, so dass sich die Community nach tagelanger Diskussion nun auf einen Kompromiss einigen konnte.

Zu der ursprünglichen Änderung schrieb Torvalds noch: “Wir sollten wirklich immer einen sauberen Build haben”. Die Umsetzung über eine Konfigurationsoption sowie die Möglichkeit, neue oder überspezifische Warnungen doch noch ignorieren zu können, sah Torvalds dabei zunächst noch als ausreichend an, um mit eventuellen Problemen umzugehen, die sich aus der Änderung ergeben.

Die Probleme waren aber wohl doch größer als erwartet. So schrieb etwa der Kernel-Entwickler Guenter Roeck sarkastisch: “Ich denke, die gute Nachricht ist, dass einige Builds immer noch durchlaufen”. Für 64 von 153, also für mehr als ein Drittel der getesteten Builds, galt das jedoch nicht. Auch viele weitere Entwickler beschrieben zahlreiche Probleme mit ihren Builds, insbesondere in CI-Systemen, wie etwa Google-Entwickler Nick Desaulniers berichtet.

Torvalds wollte sich zunächst aber nicht von seiner Idee abbringen lassen, da über diesen Schritt seit Jahren diskutiert worden sei und die kaputten Builds eben auch gewollt seien. Immerhin sollte die Community die Warnungen ernst nehmen und entsprechend beheben.

Auch Google-Entwickler Marco Elver bezeichnet das mit der Änderung verbundene Verhalten als nicht angemessen, da dies unter Umständen viele Probleme verursache, die etwa andere Tests zur Laufzeit erschwerten. Ein im Zuge dessen von Elver formulierter Patch zur Anpassung des Verhaltens wurde dann aber auch letztlich von Torvalds in den Hauptzweig aufgenommen. Damit wird die Option -Werror künftig nur noch standardmäßig im Zusammenhang mit der Compile-Test-Option des Kernels genutzt und nicht mehr für alle Builds.

Der Beitrag Kernel-Community erringt Kompromiss zu Kompilierfehlern erschien zuerst auf Linux-Magazin.

 Code of Conduct: Perl-Community zerstreitet sich über Umgangsregeln

17. August 2021 um 10:37

Die Führung der Perl-Community ist uneins über die Durchsetzung bestimmter Umgangsregeln, was zu Rücktritten zahlreicher Mitglieder führt.

Die rechtliche Vertretung der Community der Programmiersprache Perl, die Perl Foundation, sowie einige weitere wichtige Gremien der Gemeinschaft haben derzeit mit Rücktritten wichtiger Mitglieder zu kämpfen. Auslöser dabei sind offenbar die bereits seit Monaten anhaltenden Streits über Umgangsregeln sowie deren Durchsetzung innerhalb der Perl-Community.

Begonnen hat die Auseinandersetzung dem Magazin The Register zufolge wohl mit dem Versuch, ein Mitglied der Community auf Grund von “inakzeptablem” Verhalten dauerhaft aus der Perl-Community auszuschließen. Dieser Bann ist von einem noch vergleichsweise neuen Community Affairs Team (CAT) ausgesprochen worden.

Das CAT sollte mit Hilfe von Moderatoren für einen besseren Umgang innerhalb der Community sorgen und hier entsprechende Regeln durchsetzen. Der ausgesprochene Bann wurde zunächst auf ein Jahr reduziert. Die Arbeit des CAT ist vor einigen Wochen jedoch unterbrochen und dessen Transparenzberichte sind zuvor mehrfach zurückgezogen oder auch verändert worden.

Zu den inzwischen zurückgetretenen Personen gehört unter anderem die bisherige Vorsitzende des CAT, Samantha McVey. Hinzu kommen Elizabeth Mattijsen, Mitglied im Grant Committee der Perl Foundation, der Suse-Angestellte und Perl-Entwickler Sebastian Riedel und ein Mitglied des Perl Steering Committees, Sawyer X. Eine chronologische Übersicht zu den Rücktritten bietet das Magazin Ars Technica.

Zuletzt von seinem Posten abgetreten ist auch ein Vorstandsmitglied der Perl Foundation, Curtis “Ovid” Poe. Zwar habe sich dieser Rücktritt bereits länger angedeutet, so Poe, der dafür mehrere Gründe anführte. Den letztlichen Entschluss habe jedoch das monatelange Hin und Her rund um das CAT gegeben. Darüber hinaus zeigt sich Poe in seinem Blogeintrag enttäuscht über das Verhalten der gesamten Perl-Community.

Die beschriebenen Probleme innerhalb der Perl-Community reihen sich dabei in eine lange Liste ähnlicher Auseinandersetzungen anderer Open-Source-Communitys um einen besseren Umgang oder auch um die Einführung strikter Verhaltensregeln wie etwa eines Code of Conduct ein. Wie sich bereits in anderen Communitys gezeigt hat, können derartige Diskussionen ein Projekt unter Umständen auch über mehrere Jahre hinweg begleiten. Ein konkreter Ausgang für die Perl-Community ist deshalb derzeit nicht abzusehen.

Der Beitrag  Code of Conduct: Perl-Community zerstreitet sich über Umgangsregeln erschien zuerst auf Linux-Magazin.

Google fordert bessere Mitarbeit am Linux-Kernel

09. August 2021 um 11:35

Viele Probleme des Linux-Kernels, auch mit der Sicherheit, ließen sich durch mehr Upstream-Arbeit lösen, glaubt Kernel-Hacker Kees Cook von Google und fordert andere dazu auf.

Der bei Google angestellte und langjährige Linux-Kernel-Entwickler Kees Cook hat im Security-Blog des Unternehmens eine längere Analyse zur Sicherheit des Linux-Kernels veröffentlicht. Cook, der seit Jahren Sicherheitsinitiativen für den Linux-Kernel initiiert und betreut, betrachtet dabei vor allem das bisher typische Entwicklungsmodell verschiedener Firmen, die sich hier seiner Meinung nach umstellen müssen.

Cook erklärt, alle wollten einen sicheren Kernel nutzen, nur seien eben viele Nutzer dazu überhaupt nicht in der Lage. So hätten etwa die Entwickler, die Fehler im Hauptzweig beheben, keine Kontrolle darüber, wie andere Hersteller diesen Code nutzen. Ebenso hätten viele Endkunden keine Kontrolle darüber, welche Kernel-Version eingesetzt werde oder welche Fehler im einzelnen durch den Produkthersteller behoben würden.

Der Sicherheitsspezialist verweist damit auf das langanhaltende Problem der Frage, welche Bugfixes aus dem Hauptzweig in eigene stabile Zweige mit Langzeitpflege übernommen werden sollten. Das Problem wird noch größer, wenn Hersteller oder sogenannte Downstream-Entwickler ihre komplett eigenen Versionen unabhängig von den stabilen Zweigen der Kernel-Community pflegen. So hat selbst Google deshalb sogar schon mal einen kritischen Bugfix in seinem Android-Kernel übersehen.

Aber vor allem die Pflege der verschiedenen Versionen sei oft redundante Arbeit, da etwa ein Backport mehrfach von unterschiedlichen Entwicklern durchgeführt werde statt nur einmal, sagt Cook. Diese Arbeitszeit sei an anderer Stelle aber viel besser aufgehoben. So steige die Zahl der automatisch gefundenen Fehler im Kernel kontinuierlich. Ebenso fehlten derzeit Entwickler für Code Reviews wie auch für das Erstellen und Pflegen von Testinfrastruktur.

Um zumindest einen Teil dieser Arbeit umzusetzen, fordert Google-Entwickler Cook andere Unternehmen dazu auf, sich verstärkt direkt auf die Arbeit im Hauptzweig zu konzentrieren, so wie Google dies etwa für ChromeOS und Android umsetze. Derzeit fehlen dem Kernel und seinen Werkzeugen laut Cook schätzungsweise 100 Vollzeitentwickler. Diese müssten aber Upstream arbeiten. Nur so könne die Sicherheit des Kernels dauerhaft gewahrt bleiben, erklärt der Entwickler.

Der Beitrag Google fordert bessere Mitarbeit am Linux-Kernel erschien zuerst auf Linux-Magazin.

Firefox verliert 20 Prozent Nutzer in zweieinhalb Jahren

03. August 2021 um 14:01

Die offiziellen Nutzer-Statistiken des Firefox-Browsers sehen für Mozilla nicht gut aus. Immerhin wird der Browser intensiver genutzt.

Der Firefox-Browser von Mozilla verliert offenbar immer weiter massiv an Nutzern. Das geht aus den dazu öffentlich einsehbaren Statistiken von Hersteller Mozilla hervor, auf den ein Thread bei Hacker News verweist. Demnach hatte der Browser noch Anfang des Jahres 2019 rund 250 Millionen aktive Nutzer monatlich. Inzwischen sind es jedoch nur noch rund 200 Millionen mit weiter absteigender Tendenz.

Innerhalb von nur etwa zweieinhalb Jahren hat der einst dominierende Browser also etwa 20 Prozent seiner gesamten aktiven Nutzer verloren. Jedoch haben die verbliebenen Nutzer in dem betrachteten Zeitraum wohl täglich mehr Zeit im Firefox-Browser verbracht. Das könnte mit der Covid-19-Pandemie sowie der damit vermehrt auftretenden Remote-Arbeit zusammenhängen.

Sollte sich dieser Trend der fallenden Nutzerzahlen jedoch weiter so gravierend fortsetzen wie bisher, könnte Hersteller Mozilla in immer größere Bedrängnis geraten, ein wirtschaftliches Finanzierungsmodell für den Browser umzusetzen.

Immerhin stammt ein Großteil der Einnahmen von Mozilla weiterhin aus Verträgen mit Suchmaschinenanbietern für einen Platz im Browser. Je weniger relevant der Browser jedoch weltweit wird, umso weniger lukrativ dürfte sich eben dieser Platz künftig verkaufen lassen. In den Geschäftsberichten der vergangenen Jahre weist Mozilla mit Blick auf die Zahlen immer wieder auf das hohe Risiko der Konzentration seiner Einnahmen hin.

Zwar scheinen die Geschäftszahlen bei Mozilla in den vergangenen Jahren noch stabil, doch die Verträge mit dem Suchmaschinenanbieter liefen Ende November 2020 aus und mussten neu verhandelt werden. Das Ergebnis dieser Verhandlungen ist zwar noch nicht bekannt. Allerdings hat das Unternehmen im vergangenen Sommer 250 Beschäftigen gekündigt und damit rund einem Viertel seiner gesamten Belegschaft.

Mozilla versucht, seine Einkommensquellen seit einigen Jahren zu verbreitern. Dazu gehören etwa Einnahmen mit dem Dienst Pocket und eventueller Werbung in der neuen Tab-Ansicht. Hinzugekommen ist das Geschäft mit dem eigenen VPN-Dienst. Dieser Bereich wächst offenbar aber nicht so stark, wie notwendig wäre.

Der Beitrag Firefox verliert 20 Prozent Nutzer in zweieinhalb Jahren erschien zuerst auf Linux-Magazin.

OpenAI baut einfachen und freien Cuda-Ersatz

29. Juli 2021 um 13:21

Mit Triton haben die KI-Spezialisten von OpenAI eine eigene freie Sprache samt Compiler erstellt, die für Deep Learning gedacht ist.

Das Team von OpenAI hat das Open-Source-Projekt Triton veröffentlicht. Dabei handelt es sich laut Ankündigung um eine an Python angelehnte Programmiersprache, die explizit dazu gedacht ist, jenen Entwicklern, die keine Erfahrung mit Nvidias Cuda haben, Technik an die Hand zu geben, mit der sehr effizienter GPU-Code erstellt werden kann. Triton ermögliche dabei Code, der so gut sei wie jener, der von Experten erstellt worden sei, heißt es.

Ziel von Triton ist es, komplexe und nur schwer effizient zu implementierende Berechnungen möglichst einfach umzusetzen. In der Ankündigung nennt das Team, das etwa für die Sprachmodelle GPT-2 und GPT-3 bekannt ist, als Beispiele Kernel zur Matrixmultiplikation von Gleitkommazahlen mit halber Genauigkeit (FP16). Dafür seien mit Triton lediglich 25 Zeilen Code notwendig, die Leistung erreiche aber jene der CuBLAS-Bibliothek von Nvidia.

Die Idee für Triton stammt aus der Erkenntnis, dass zur Umsetzung neuer Deep-Learning-Forschungsideen oft zahlreiche Tensoren erstellt werden müssen, was deutliche Leistungseinbußen bringen kann. Umgangen werden könne das zwar durch das Erstellen von GPU-Kerneln, sei oft aber sehr schwierig, da dafür eine direkt GPU-Programmierung notwendig sei.

Diese Vereinfachung im Vergleich zu bestehenden Techniken wie Cuda soll vor allem dadurch erreicht werden, dass Triton über seine Compiler Dinge umsetzt, die sonst händisch umgesetzt werden müssten. Dazu gehört das sogenannte Memory Coalescing, also das Zusammenführen von Speicherzugriffen, die eigentliche Speicherverwaltung sowie das Scheduling von Aufgaben auf einzelne Stream-Processor.

Die Triton-Technik steht als Open Source unter einer freizügigen Lizenz zum Download auf Github bereit. Der für Triton genutzte Compiler basiert dabei auf dem LLVM-Framework und nutzt ein eigene speziell erstellte Zwischenschicht (IR).

Der Beitrag OpenAI baut einfachen und freien Cuda-Ersatz erschien zuerst auf Linux-Magazin.

Audacity-Macher überarbeiten strittige Datenschutzrichtlinie

27. Juli 2021 um 09:59

Die erste Version der Datenschutzrichtlinie der Audacity-Macher sei missverständlich gewesen. Nun gibt es eine Entschuldigung und neue Regeln.

Die neuen Eigner des freien Audio-Editors Audacity, die Muse Group, haben ihre Datenschutzrichtlinie erneut überarbeitet. Damit reagieren die Verantwortlichen direkt auf die zahlreich geäußerte Kritik zu einer vorhergehenden Version, die das Team erst vor wenigen Wochen veröffentlicht hatte. Viele Community-Mitglieder lehnten die neue Richtlinie als viel zu weitgehend ab, was nun geändert wurde.

So war ursprünglich vorgesehen, persönliche Daten der Nutzer, insbesondere die genutzten IP-Adressen, zu sammeln – auch, damit diese Informationen an Dritte verkauft werden könnten. Laut der angekündigten Änderung sollen diese künftig weder gespeichert noch mit anderen geteilt werden.

Technisch will das Team außerdem dafür sorgen, dass die IP-Adressen der Nutzer entweder erst verkürzt und dann als Hash vorgehalten oder direkt wieder gelöscht werden, nachdem sie für eine technische Kommunikation genutzt worden sind.

Darüber hinaus bekräftigt das Team nun, dass keinerlei zusätzliche Informationen gesammelt werden sollen, insbesondere nicht zu Zwecken der Strafverfolgung. Den zuvor genutzten Passus in der Richtlinie hat das Team entfernt, um “Verwirrung” zu vermeiden. 

Ebenso wird aber darauf hingewiesen, dass der Anbieter der Software – wie alle Unternehmen – unter Umständen von Gerichten dazu gezwungen werden könnte, mit Strafverfolgungsbehörden zusammenarbeiten zu müssen. Die von Audacity eingesetzte Anonymisierung und der weitgehende Verzicht auf eine Datenerhebung führe jedoch diesbezüglich ohnehin dazu, dass die Daten nur von sehr geringem Nutzen seien, betonen die Verantwortlichen.

Außerdem hat das Team eine Regel entfernt, die Kinder unter 13 Jahren davon abhalten sollte, Audacity zu nutzen. Diese sei nur aus Versehen in der ersten Version der Richtlinien gelandet und nach Rücksprache mit den eigenen Anwälten für nicht mehr notwendig befunden worden.

Im Gegensatz zu einigen vorhergehenden Änderungen und Ankündigungen durch die Muse Group für Audacity, die zahlreiche negative Kommentare der Community verursacht haben, sind die Reaktion zu der nun überarbeiteten Datenschutzrichtlinie eher gemischt und verhalten. Dem Team wird unter anderem vorgeworfen, für die Änderungen schlicht zu lange gebraucht zu haben.

Der Beitrag Audacity-Macher überarbeiten strittige Datenschutzrichtlinie erschien zuerst auf Linux-Magazin.

Torvalds will neuen NTFS-Treiber im Kernel

19. Juli 2021 um 12:27

Der Linux-Kernel könnte einen komplett neuen NTFS-Treiber bekommen. Hersteller Paragon muss diesen aber noch offiziell einreichen.

In einer Diskussion um Dateisystem-Patches für die aktuell in Entwicklung befindliche Version 5.14 des Linux-Kernels äußert sich Chefentwickler Linus Torvalds wohlwollend über einen neuen NTFS-Treiber für das Projekt. Da die Abläufe für das Hinzufügen neuer Dateisysteme zum Linux-Kernel eher unüblich sind und dies meist direkt über Torvalds selbst läuft, fordert dieser nun den Hersteller Paragon dazu auf, dessen neuen NTFS-Treiber zur Aufnahme einzureichen.

Erstmals angekündigt hatte der unter anderem auf Dateisysteme spezialisierte Hersteller Paragon seine Arbeiten im August 2020. Ziel ist es demnach, den eigenen NTFS-Treiber für Linux mit Lese- und Schreibfähigkeiten in den Hauptzweig des Linux-Kernels einzupflegen. Der Treiber unterstütze Version 3.1 des Windows-Dateisystems und dessen Journal-Funktionen. Das Unternehmen hat außerdem versprochen, den eigenen Treiber langfristig pflegen zu wollen.

Von einigen Entwicklern und frühen Testern wurden die Arbeiten an einem neuen NTFS-Treiber trotz einiger Probleme mit dem Code positiv aufgenommen. Das liegt vor allem an der aktuell eher schlechten Supportsituation für NTFS unter Linux. So unterstützt der aktuelle Linux-Kernel-Treiber lediglich einen Lesezugriff und nicht alle neuen Funktionen des Dateisystems. Der per Fuse im Userspace umgesetzte Treiber NTFS-3g wiederum wird seit Jahren kaum noch sinnvoll gepflegt.

In der aktuellen Diskussion schreibt Torvalds nun zu dem NTFS3 genannten Treiber von Paragon: “Wenn der neue NTFS-Code Unterstützung von Leuten erhält – und es klingt, als hätte er sie bekommen – und von Paragon die Betreuung übernimmt, dann sollte Paragon meiner Meinung nach einfach ein Git-Pull-Request dafür stellen”. Torvalds ist dann als Hauptentwickler letztlich dafür zuständig, den Code selbst einzupflegen, was den Äußerungen zufolge dann wohl auch geschehen dürfte.

Torvalds schreibt darüber hinaus, dass die Aussage, der Paragon-Code sei in einem besseren Zustand als der aktuelle NTFS-Treiber, zwar kein besonders starkes technisches Argument sei. Dies sei dennoch ein starkes Argument dafür, den neuen Code aufzunehmen. Außerdem habe es keine großen Beschwerden dagegen gegeben und es sei auch keine Hilfe, wenn der Code weiter außerhalb des Mainline-Zweigs erstellt werde. Möglicherweise erscheint der neue NTFS-Treiber damit dann schon mit Version 5.14 oder 5.15.

Der Beitrag Torvalds will neuen NTFS-Treiber im Kernel erschien zuerst auf Linux-Magazin.

Open Power: Erster freier Power-Chip geht in Produktion

13. Juli 2021 um 10:43

Nach der Offenlegung der Power-Architektur geht nun erstmals ein SoC in Produktion, das nicht von IBM stammt.

Das zuständige Forschungs- und Entwicklungsteam von Libre-SoC hat den gleichnamigen Chip zur Produktion im 180-nm-Verfahren bei TSMC gegeben. Das berichtet die Open Power Foundation in ihrem Blog. Der Libre-SoC ist ein komplett freier Chip auf Grundlage des inzwischen offengelegten Power-Befehlssatzes. Ziel des Projekts ist es, eigenen Angaben zufolge einen CPU/GPU-Hybriden zu schaffen.

Der Chip entsteht in Kooperation der Chips4Makers-Community mit Forschern der Sorbonne-Universität. Dabei soll aber nicht nur ein freier Befehlssatz verwendet werden. Vielmehr wurde der Quellcode und damit das Design des Chips vollständig frei verfügbar und zudem mit freien Werkzeugen erstellt.

Die Open Power Foundation schreibt zu dem Libre-SoC: “Dies macht es zum ersten ASIC seiner Art, und viele weitere werden folgen – jeder kommt einer attraktiven offenen Hardware-Alternative zu aktuellen proprietären Angeboten näher”. Finanziell unterstützt werden die Arbeiten von der NLNet Foundation im Rahmen ihrer Next Generation Internet Initiative.

Interessant an dem Libre-SoC ist aber nicht nur seine Offenheit, sondern auch der Fakt, dass es sich dabei um den ersten Power-Chip seit über einem Jahrzehnt handelt, der nicht direkt von IBM oder seinen Industriekooperationen stammt. Mit Microwatt erstellt IBM zudem selbst eine freie Implementierung der Power-Architektur. Der Chip ist ebenfalls in Testproduktion und soll nun als Referenz für Benchmarks und zur Verifizierung des Libre-SoC dienen.

BM hatte im Herbst 2019 angekündigt, den Power-Befehlssatz als Open Source bereitzustellen.  Zusätzlich zu den bereits erwähnten Libre-SoC und Microwatt erstellt eine Arbeitsgruppe der Open Power Foundation derzeit mit LibreBMC auch noch einen freien Baseboard Management Controller (BMC) auf Grundlage von Power.

Der Beitrag Open Power: Erster freier Power-Chip geht in Produktion erschien zuerst auf Linux-Magazin.

RPM prüft Signaturen nicht richtig

02. Juli 2021 um 13:09

Eigentlich werden RPM-Pakte unter Linux signiert. Viele wichtige Teile der Signaturprüfung sind bisher aber gar nicht implementiert.

Die unter anderem von Red Hat und Suse in ihren Enterprise-Distributionen genutzte Paketverwaltung RPM geht offenbar nicht so mit digitalen Signaturen für Pakete um, wie das eigentlich zu erwarten wäre. So gibt es in der Software bisher keine Unterstützung für zurückgezogene oder auch abgelaufene Schlüssel. Damit signierte Pakete werden weiter mit einer gültigen Signatur akzeptiert, obwohl dies eigentlich nicht der Fall sein sollte.

Das geht aus einem entsprechenden Bug-Report auf Github hervor. Das Problem entdeckt hat demnach Dmitry Antipov, ein Linux-Entwickler bei Cloudlinux, die mit Alma Linux an einer Alternativen zum klassischen CentOS arbeiten und damit ebenfalls auf die RPM-Paketverwaltung setzen. Das Magazin ZDNet hatte zuerst über den Fehler berichtet.

Wichtigste Grundannahme für digitale Signaturen ist, dass den dafür genutzten privaten Schlüsseln vertraut wird. Da dies aber nicht dauerhaft gegeben sein muss, können die Schlüssel zurückgezogen werden, etwa weil Angreifer diese entwendet haben könnten. Ebenso kann das Vertrauen für die Schlüssel automatisch nach einer bestimmten Zeit ablaufen. In beiden Fällen sollen aber auch die entsprechenden Signaturen nicht mehr akzeptiert werden, was bei RPM aber nicht passiert.

Der Red-Hat-Angestellte und RPM-Entwickler Panu Matilainen schreibt dazu: “Das Zurückziehen ist eines der vielen nicht implementierten Dinge bei der OpenPGP-Unterstützung von RPM. Mit anderen Worten, es handelt sich als solches nicht um einen Fehler, es ist einfach überhaupt nicht implementiert, ähnlich wie das Ablaufen auch nicht.” Das ist allerdings eine klare Verletzung der üblichen Erwartungen an das OpenPGP-System, in dem diese Vorgänge ja explizit vorgesehen und umgesetzt sind.

Der Entwickler Antipov hat einen Patch für RPM erstellt, der die bisher fehlenden Funktionen umsetzt. Noch ist dieser aber nicht in den Hauptzweig von RPM aufgenommen worden. Ob dies letztlich auch passiert, ist derzeit noch nicht absehbar. Um dem Nachdruck zu verleihen, überlegen die Beteiligten, für die fehlende Signaturprüfung auch eine CVE-Nummer zu beantragen und dies damit explizit als Sicherheitslücke zu kennzeichnen.

Der Beitrag RPM prüft Signaturen nicht richtig erschien zuerst auf Linux-Magazin.

Glibc will Rechteübertragung an FSF beenden

17. Juni 2021 um 12:28

Nach der GCC-Community könnte sich nun auch das Team der Glibc offiziell von GNU und der FSF lossagen. Die Community unterstützt das.

Die Projektbetreuer (Stewards) der Standard-C-Bibliothek des GNU-Projekts Glibc möchten den Zwang zur Rechteübertragung an die Free Software Foundation (FSF) für Code-Beiträge beenden. Die Beteiligten bitten die Glibc-Community und Beitragenden auf der Mailingliste des Projekts nun um Stellungnahmen zu dem Plan.

Vor wenigen Wochen hatte bereits die GCC-Community solch eine Änderung umgesetzt. Das ist insofern ein eher ungewöhnlicher Schritt, als die Bedingung zur Rechteübertragung an die FSF grundsätzlich für alle GNU-Projekte gilt. Die Glibc-Stewards begründen ihren Plan nun aber auch analog zu GCC damit, dass das eigene Projekt inzwischen unabhängig operiere und damit nicht mehr an die formalen Regeln des GNU-Projekts gebunden ist.

Für Community-Mitglieder, die eine entsprechende Vereinbarung mit der FSF getroffen haben, soll sich nichts ändern müssen. Alle anderen können künftig das sogenannte Developer Certificate of Origin (DCO) verwenden. Die Idee dahinter ist, dass damit das Projekt und auch dessen Lizenz nicht von einem einzigen zentralen Unternehmen oder Verein kontrolliert werden kann. Letzteres ist aber genau die Idee der Rechteübertragung, denn so könnten mögliche Urheberrechte deutlich einfacher durchgesetzt werden.

Besonders positiv bewertet wird der Vorschlag von Entwicklern, die wegen der zwingenden Rechteübertragung bisher kaum sinnvoll oder nur sehr mühsam zur Glibc beitragen konnten. Dazu gehört etwa der Betreuer und Hauptautor der Musl-C-Bibliothek Rich Felker. Den Plan nicht umzusetzen, könnte die Möglichkeiten für künftige Beiträge von Felker einschränken, wie er schreibt.

Der Beitrag Glibc will Rechteübertragung an FSF beenden erschien zuerst auf Linux-Magazin.

Blender will auf OpenCL verzichten

Für seinen Cycles-Renderer will Blender komplett auf OpenCL verzichten. Die neue Technik könnte dann vorerst nur auf Nvidia-Karten laufen.

Das Entwicklungsteam der freien 3D-Grafiksuite Blender will seinen Cycles-Renderer grundlegend überarbeiten. Cycles dient für das sogenannte Physically Based Rendering (PBR) und ermöglicht in Blender damit etwa photorealistische Darstellungen. Für den neuen Ansatz für Cycles, der unter dem Projektnamen Cycles X läuft, will das Team künftig aber auch vollständig auf den offenen Standard OpenCL verzichten.

Die Gründe dafür seien schlicht eine Kombination verschiedener Probleme und Unzulänglichkeiten mit OpenCL. Das gehöre etwa, dass die eigene Unterstützung für sogenannte Split-Kernel nur unzureichend sei. Hinzu kommen laut der Ankündigung Treiber-Fehler und die Tatsache, dass die Entwicklung des OpenCL-Standards “feststeckt”. All das trage zu einem Pflegeaufwand bei, der nun als “zu kompliziert” beschrieben wird.

Bisher unterstützt Cycles zur GPU-Beschleunigung des Renderings für Nvidia-Grafikkarten dessen proprietäre Cuda- und Optix-Schnittstellen. OpenCL wird für AMD- und Intel-Grafikchips genutzt. Daraus ergibt sich mit dem Verzicht auf OpenCL nun also das Problem für Blender, dass der neue Cycles-X-Renderer nicht plattformübergreifend genutzt werden kann. Die bisher dafür erstellte Technik unterstützt lediglich die Nvidia-Schnittstellen.

Das Team arbeitet zwar bereits mit AMD und Intel daran, die neue Cycles-Technik auch auf deren neuere APIs zu portieren wie etwa CYCL, HIP oder auch das von Apple präferierte Metal. “Dies wird nicht unbedingt für die erste Version bereitstehen, die Implementierung muss eine höhere Qualität erreichen als jetzt”, schreibt das Team dazu. Die Unterstützung aller großen GPU-Hersteller bleibe aber weiter klares Ziel der Blender-Macher, bekräftigt das Team.

Der Beitrag Blender will auf OpenCL verzichten erschien zuerst auf Linux-Magazin.

Opensearch: Amazon und Red Hat starten Elasticsearch-Fork

13. April 2021 um 12:37

Nach dem Lizenzwechsel bei Elasticsearch hilft sich die Open-Source-Community nun selbst und startet wie erwartet einen eigenen Fork.

Wie bereits Anfang dieses Jahres von Amazon Web Services (AWS) angekündigt, werden die Softwareprojekte Elasticsearch und Kibana künftig mit Unterstützung des Cloud-Hosters in einem eigenen Fork weitergeführt. Der Code für das Opensearch-Projekt, so der Name des Forks, steht wie Elasticsearch bisher auch weiter unter Apache-Lizenz. Für den Fork kooperiert AWS unter anderem mit den Open-Source-Spezialisten von Red Hat, mit SAP, dem Finanzdienstleister Capital One sowie mit Logz.io, das zuerst die Idee eines kollaborativen Elasticsearch-Forks angekündigt hatte.

Hintergrund des Forks ist der Lizenzwechsel bei Elasticsearch. Elastic, der bisherige Hauptsponsor und Entwickler der Software, hatte zu Jahresbeginn einen Lizenzwechsel auf die SSPL angekündigt, wodurch die Projekte keine Open-Source-Software mehr sind. Elastic folgt damit einer Strategie zur Finanzierung seiner Software, die zuvor schon für andere, besonders in der Cloud beliebte Open-Source-Software umgesetzt wurde. Dazu gehören neben Elasticsearch auch MongoDB, Redis oder Sentry.

Konkret umfasst das neue Projekt Opensearch, abgeleitet von Elasticsearch 7.10.2, und Opensearch Dashboards, abgeleitet von Kibana 7.10.2. Hinzu kommen zahlreiche Zusatzfunktionen für den Enterprise-Einsatz, die AWS bisher schon mit der sogenannten Open Distro for Elasticsearch gepflegt hatte. Diese Zusatzfunktionen sollen nun also auch in Opensearch integriert werden. Der Code des Elasticsearch-Forks steht auf Github bereit. Ein CLA wird nicht zum Beitragen benötigt, AWS kann den Code damit langfristig auch nicht selbst kontrollieren oder etwa selbstständig die Lizenz wechseln. AWS will zudem gemeinsam mit der Community eine geeignete Führungsstruktur für das Opensearch-Projekt finden und aufbauen.

Laut Ankündigung soll das Beitragen zu Opensearch so einfach wie möglich für Einzelpersonen wie auch für Unternehmen werden. Alle, die bisher Produkte oder Dienste auf Grundlage von Elasticsearch anbieten, seien in dem neuen Projekt willkommen. Betont wird außerdem, dass der Code zu jedem Zweck genutzt werden kann, insbesondere um diesen zu monetarisieren oder anderweitig weiterzuverkaufen sowie Elasticsearch natürlich auch als Cloud-Dienst anzubieten. Die Markenrechtslizenz des Opensearch-Projekts sei ebenso besonders freizügig gewählt, um eigene Dienste und Produkte damit bewerben zu können.

Zwar steht der Code nun bereit, AWS weist aber darauf hin, dass die Software des Projekts noch als Alpha-Status betrachtet werden soll. Es sei weder vollständig, ausgiebig getestet noch bereit für den produktiven Einsatz. Letzteres soll im Frühsommer erreicht werden, hofft AWS.

Der Beitrag Opensearch: Amazon und Red Hat starten Elasticsearch-Fork erschien zuerst auf Linux-Magazin.

❌