y0o.de · GNU/Linux Nachrichten u.Ä.

🔒
❌ Über y0o.de
Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Gestern — 17. Juni 2021[Mer]Curius

Fördern wir Betriebssystem-Kompetenz oder Distributions-Kompetenz?

17. Juni 2021 um 10:57
Von: Gerrit

Im berühmten Artikel „Linux ist nicht Windows“ wird thematisiert, dass Windows-Kompetenz keine allgemeine IT-Kompetenz ist und nicht einfach 1:1 auf Linux übertragen werden kann. Aber fördern wir überhaupt IT- oder wenigstens allgemeine Linux-Kompetenz oder nicht eher Distributions-Kompetenz?

Ich habe einen ziemlich distanzierten Blick auf Distributionen und Desktopumgebungen. Beides wird maßlos überbewertet. Bevor jetzt ein wütender Kommentar kommt, bitte weiterlesen.

Meiner Meinung nach kochen alle Linux-Distributionen letztlich nur mit Wasser. Das bedeutet, sie können letztlich nur paketieren, was Upstream da ist und die zunehmende Komplexität der Systeme und vielfältige Kooperationen haben in den letzten 15 Jahren eine hohe Standardisierung erzeugt. Eigenentwicklungen und wirklich individuelle Lösungen kann man an einer Hand abzählen. Und selbst die funktionieren oft ähnlich, weil sie die gleichen Aufgaben erfüllen sollen. Das ist wie in der Evolution. Unterschiedliche Arten auf dem Globus, die eine ähnliche ökologische Nische besetzen, prägen vollkommen unabhängig voneinander ähnliche Merkmale aus.

Das Gleiche gilt für Desktopumgebungen. Letztlich haben doch alle ähnliche Konzepte. Es gibt Fenster, in denen Programme laufen. Irgendwo gibt es eine Übersicht der aktuell laufenden Programme (Dock, Fensterleiste o.ä.) und einen Starter (Startmenü, Launchpad etc.). Dazu noch ein bisschen „Gedöns“ für Benachrichtigungen, Systemdienste, Einstellungen. Wir haben dieses Konzept mit Anpassungen inzwischen sogar auf Smartphones und Tablets übertragen. Ob das ein objektiv gutes Konzept für die Bedienung ist oder wir uns einfach kollektiv daran gewöhnt haben, darüber kann man sicher trefflich streiten.

Das so rational herunter zu brechen, beruht auf abstrakter IT- oder Linux-Kompetenz – dazu muss man bei weitem kein Informatik-Studium hinter sich haben. Wenn man mit vielen Distributionen parallel arbeitet und daneben mit macOS und Windows, merkt man mit ein wenig Abstraktionsvermögen schnell, was die funktionalen Grundlagen jedes Systems sind. Dazu muss nicht d-bus verstanden haben, aber das 1×1 der Partitionierung schon. Nur um mal ein paar praktische Beispiele zu bringen. Diese Kenntnisse kann man dann auf jedes neue Systeme anwenden und hat eine deutlich flachere Lernkurse.

Umso mehr überraschen mich immer wieder die entrüsteten Kommentare, die darauf beharren, dass doch alles ganz unterschiedlich sei. Noch mehr überraschen mich in den Supportforen Anwender, die vom Wechsel von Ubuntu zu Debian überfordert sind.

Mir stellt sich die Frage, ob wir als Linux-Community nicht letztlich denselben Fehler wiederholen, den alle Anwender mit Windows machen. Anstelle allgemeine Kompetenz zur Funktionsweise von Betriebssystemen bzw. Linux-Distributionen zu vermitteln (in Wikis, Foren, Blogs etc. pp), lehren wir die Neueinsteiger (und Nicht-mehr-so-Neueinsteiger) die Funktionsweise und Abläufe einer einzelnen Distribution. So wie der Windows-Nutzer dann nur Windows kann, schaffen wir Linux-Anwender, die nur Ubuntu (oder jede beliebige andere Distribution) können.

Werden wir damit unserem eigenen Anspruch eigentlich gerecht? Ein Anspruch, der vor vielen Jahren in solchen Artikeln wie dem oben verlinkten „Linux ist nicht Windows“ formuliert wurde. Ein Anspruch, den viele in Diskussionen wie eine Trophäe vor sich her tragen: „Wir“ vermitteln doch schließlich mehr als nur Klickfolgen-Kompetenz.

Und wenn dem so ist, stellt sich die Frage, warum wir das so machen? Haben wir als – in der Regel – um eine Distribution herum organisierte Community Angst vor mündigen Anwendern, die bei Bedarf schnell das System wechseln können? Verweigern wir in den meisten Supportforen die Unterstützung für „fremde“ Distributionen, um die Anwender im „Walled Garden“ der eigenen Community zu halten? Dienen wir als Community damit eigentlich „Linux“, den „Anwendern“ oder nur unserem eigenen „Walled Garden“?

Der Artikel Fördern wir Betriebssystem-Kompetenz oder Distributions-Kompetenz? erschien zuerst auf [Mer]Curius

Ältere Beiträge[Mer]Curius

Überblick über Videokonferenz-Lösungen

13. Juni 2021 um 17:03
Von: Gerrit

Videokonferenzen sind gekommen, um zu bleiben. Die Idee und die Technologie ist schon alt, aber mit der Corona Pandemie kam der Durchbruch. Wir freuen uns sicher alle, wenn wir weniger Meetings in Videokonferenzen haben, aber eine komplette Rückkehr in Face-to-Face Begegnungen in stickigen Meeting-Räumen wird es sicher nicht geben.

Manchmal bin ich bei [Mer]Curius antizyklisch unterwegs. Über 12 Monate schrieb jede mir bekannte Technik-Seite über Videokonferenzen, aber ich habe mir das Thema gespart. Nun, wo die Zeichen auf Lockerungen stehen, schreibe ich hier einen Beitrag. Denn ich denke, das Thema wird uns erhalten bleiben. Außerdem haben sich die Dienstanbieter und ihre Angebote im letzten Jahr konsolidiert und man kann sich besser einen Überblick verschaffen.

Wichtig ist eine Abgrenzung, denn Videotelefonie ist nicht gleich Videokonferenz. Viele herkömmliche Videotelefonie-Lösungen (FaceTime, Skype, Jami, auch die entsprechenden Funktionen der Messenger) sind lediglich für Gespräche im kleinen Kreis gedacht und teilweise auch offiziell darauf beschränkt. FaceTime wurde gerade erst auf maximal 32 Teilnehmer ausgedehnt. Das sind Bereiche, in denen Videokonferenz-Systeme erst losgehen. Eine gute Videokonferenz-Lösung sollte in der Lage sein, mindestens 100 Teilnehmer mit Bild und Ton zu verarbeiten. Vermutlich sind die meisten Videokonferenzen kleiner und faktisch nutzen selten alle Bild und Ton gleichzeitig, aber das sollte keinesfalls ein technisch indizierter Zwang sein. Ansonsten könnte das zum Ausschluss von Teilnehmern oder einer Hierarchisierung durch die Erlaubnis bzw. das Verbot Video zu nutzen führen. Alles unterhalb dieser Grenze ist keine Konferenz bzw. Lösung für Videokonferenzen, sondern eine kleine Gesprächsrunde. Dessen ungeachtet taugen die großen Videokonferenz-Lösungen natürlich auch für Zweier-Gespräche.

Ist Sicherheit immer wichtig?

Die erste Frage, die man sich stellen sollte, ist ob es wirklich immer eine Lösung mit Fokus auf Privatsphäre und Sicherheit braucht. Erscheint vielen jetzt vielleicht abwegig, ist es aber nicht.

Bei einer öffentlichen Veranstaltung, die jeder besuchen darf und wo die Teilnehmer oder zumindest die zentralen Personen vielleicht sogar öffentlich im Internet stehen, braucht es keine besonders sichere Lösung. Denn weder Gesprächsinhalte, noch Metadaten (Wer, wo, wie, wann?) müssen geschützt werden. Sie liegen ja sowieso offen.

Bei allen anderen Gesprächen sollten sowohl die Inhalte als auch die Metadaten bestmöglich geschützt werden.

Ende-zu-Ende Verschlüsselung

Ende-zu-Ende Verschlüsselung der Gesprächsinhalte ist normalerweise der Goldstandard, ab dem man anfängt, von Sicherheit zu sprechen. Tatsächlich wurde da im vergangenen Jahr aber viel mit Nebelkerzen geworfen. Insbesondere von der großen Zahl der Zoom-Kritiker. Inhalte-Verschlüsselung bei Videokonferenzen bot faktisch Anfang 2020 noch kein einziger Anbieter!

Inzwischen haben da einige Anbieter nachgelegt. Gegenwärtig bietet das Zoom mit einigen Einschränkungen an, ebenso Cisco Webex, allerdings ebenfalls mit Nebenwirkungen. So schließt man beispielsweise Linux-Nutzer pauschal aus. Bei den freien Systemen bietet das gegenwärtig nur Jitsi Meet. Alle anderen Anbieter haben keine funktionierende Ende-zu-Ende Verschlüsselung. Bei Microsoft Teams ist das seit Anfang des Jahres offiziell in Arbeit, aber wird wohl erst mal nur für Zweier-Gespräche ausgerollt. Damit ist Microsoft allerdings schon weiter als Google, wo das Produkt Google Meet anscheinend nur eine Transportverschlüsselung bietet. Das so gerne gelobte Big Blue Button bietet eine solche Absicherung überhaupt nicht an.

Betreiber – Vertrauen muss wer nicht selber betreibt

Ende-zu-Ende Verschlüsselung schützt allerdings erst mal auch nur die Inhalte – oder auch nicht, wenn es keine Verschlüsselung gibt. Metadaten können dennoch viele anfallen und wie man weiß, sind das die wirklich interessanten Daten.

Viele der Anbieter haben ihren Sitz in den USA. Datenschutz-Aktivisten rufen da immer schnell: „Nicht-DSGVO-konform!“ Aber so einfach ist das nicht. Mit zur Verunsicherung haben Schnellschüsse mancher Datenschutzbeauftragte der Länder beigetragen. Tatsächlich ist das eine Frage der vertraglichen Aushandlung zwischen den beteiligten Parteien und kann gar nicht pauschal beantwortet werden. Schon gar nicht übergreifend von der Schule über die Universität bis zur privaten Firma. Die Situation ist also immer noch hochgradig unklar.

Ganz klar ist aber auch, dass selbst betriebene Instanzen im eigenen Rechenzentrum von BBB natürlich viel datenschutzfreundlicher sind als die Lösungen von Drittanbietern. Das gilt aber nur für den Eigenbetrieb. Sobald man eine BBB-Instanz nutzt, die man nicht selbst betreibt, steht man vor dem gleichen Problem wie bei Zoom & Co.

Leistungsfähigkeit

Und selbst betreiben muss man erst mal können. Während heute jeder privat eine Cloud mit Nextcloud oder Synology aufsetzen kann und Firmen Groupware- und Cloud-Lösungen selbstverständlich selbst betreiben können (was nicht unbedingt bedeutet, dass sie das auch tun!), sieht das bei Videokonferenz-Lösungen ganz anders aus.

BBB kann theoretisch Videokonferenzen mit 100 Teilnehmern inklusive Bild und Ton abhalten. Faktisch scheitern die meisten Firmen und öffentlichen Einrichtungen daran, eine solch leistungsfähige Plattform bereitzustellen. Das heißt es schnell mal „Kamera aus!“ für alle. Für Jitsi ist mir nicht bekannt, dass die Plattform solche Teilnehmerzahlen verkraftet.

Die anderen genannten Alternativen wie Zoom, Webex und Microsoft Teams kommen damit klar. Meiner persönlichen Erfahrung nach ist Zoom hier immer noch stabiler als die Konkurrenz, aber hier gibt es auch gegenteilige Meinungen.

Komfort

Bei vielen hartnäckigen Problemen bleibt der Komfort als Argument oft auf der Strecke. Bevor man sich diesem Punkt zuwenden kann, müssen schließlich erst die wirklich großen Baustellen geschlossen werden. Das erklärt auch den eher schwierigen Zustand in diesem Bereich.

Positiv zu vermerken ist, dass alle Lösungen plattformübergreifend funktionieren. Die Zeiten, in denen Linux-Anwender pauschal ausgeschlossen blieben, sind lange vorbei. Leider war es das dann aber auch schon.

Die meisten Lösungen funktionieren nämlich im Browser nur mit Chrome wirklich gut, was ein erhebliches Manko für den Datenschutz impliziert. Vollwertige Clients für Linux bieten nur Zoom und Microsoft Teams an. Für Cisco Webex gibt es eine abgespeckte Variante. Für BBB gibt es gar keine Clients.

Was Funktionen betrifft, die über den Kern hinausgehen, wie z. B. Breakout-Räume und Kollaborations-Werkzeuge setzt Zoom immer noch Standards.

Zusammengefasst: Es bleibt kompliziert

Wirklich auf der sicheren Seite ist, wer BBB selbst in einem leistungsfähigen eigenen RZ betreiben kann. Für alle anderen bleibt es kompliziert. Den Goldstandard, der Sicherheit und Komfort verbindet und niedrigschwellig für jede Firma oder Einrichtung verfügbar ist, gibt es schlicht noch nicht. Denn setzt man einen Dienstleister für BBB ein, steht man vor dem gleichen Dilemma wie bei Zoom, Webex & Co und das sogar ohne E2E-Verschlüsselung.


Aktualisierung am 16. Juni 2021

Google Meet ergänzt und einige Präzisierungen vorgenommen.

Der Artikel Überblick über Videokonferenz-Lösungen erschien zuerst auf [Mer]Curius

Apples neue Maßnahmen für Datenschutz und Privatsphäre

13. Juni 2021 um 13:15
Von: Gerrit

Privatsphäre und Datenschutz sind für Apple seit einigen Jahren Markenzeichen geworden. Hier möchte man sich von der Konkurrenz abheben und Kunden gewinnen. Das kann man sich leisten, weil man nicht auf Werbeeinnahmen setzt. Für die kommende macOS-Version hat man sich wieder ein bisschen was einfallen lassen.

Die kommenden Versionen der Apple-Betriebssysteme macOS und iOS sind noch in der Entwicklung. Eine Freigabe ist frühestens im September zu erwarten. Somit kann sich an den hier besprochenen Funktionen auch noch einiges ändern.

Neue Privatsphäre-Funktionen

Anti-Tracking-Maßnahmen

Apple arbeitet seit Längerem an Maßnahmen gegen Tracking. Diesen Weg beschreitet man konsequent weiter. In der kommenden Version wird die hauseigene Mail-App Tracking-Maßnahmen, wie sie z. B. häufig in Newslettern zu finden sind, blockieren.

Zudem setzt man weiterhin auf radikale Transparenz, um die Werbe-/Tracking-Industrie unter Druck zu setzen. Diese Strategie verfolgt Apple schon länger. Neu fügt man nun einen Privacy Report hinzu, wo Nutzer künftig sehen können, welche Daten durch welche Apps abgerufen werden und an welche Drittanbieter die Apps diese übertragen. Das wird wieder viel Wehklagen auslösen, da die Tracking-Industrie mit Vorliebe im Schatten agiert und den Nutzer mit wolkiger PR-Sprache in Sicherheit wiegt.

Mehr Funktionen lokal auf dem Gerät

Diese Strategie ist ebenfalls nicht neu. Anstelle die Dienste im Rechenzentrum von Apple (bzw. richtigerweise eher AWS bzw. Google-RZ, bei denen Apple sich einmietet) zu betreiben und Datenverarbeitung und AI dorthin auszulagern, kann man die Verarbeitung auch direkt auf dem Gerät vornehmen. Moderne Hardware ist dafür leistungsfähig genug, Apples Chips mit entsprechenden Co-Prozessoren für solche Dienste allemal. Für die Privatsphäre ist das gut, denn Daten, die das Gerät nicht verlassen, sind immer besser als Datenverarbeitung im Rechenzentrum – egal wie gut dieses geschützt ist.

Mit der neuen Version von iOS und macOS sollen mehr Siri-Funktionen lokal auf dem Gerät verarbeitet werden. Das ist natürlich auch bei schlechter Netzabdeckung von Vorteil – also für Internet-Drittweltstaaten wie Deutschland.

Safari mit einer Mischung aus Tor und VPN

Besonders spannend ist eine neue Funktion von Safari zur Verschleierung der Identität des Nutzers. Apple nennt die Funktion Private Relay. Sie ähnelt einem klassischen VPN, behebt aber eine zentrale Schwäche bisheriger VPN-Lösungen: Die fehlende Anonymität.

Bei Apples Private Relay wird der komplette Traffc des Browsers (nur des Browsers, keiner anderen Systemkomponenten!) an Apple-Server gesendet und dort die IP des Nutzers ausgetauscht. Von dort geht es an einen Dienstleister, der unterschiedliche IP-Adressen vergibt und die Anfrage zum Zielserver weiterleitet. Apple kennt bei diesem System nur die Nutzer, aber nicht das Ziel und der Dienstleister nur das Ziel, aber nicht die Nutzer. Das System erinnert entfernt an Tor.

Die Funktion gibt es allerdings nur für zahlende iCloud+-Kunden.

Alles gut bei Apple?

Apple macht mal wieder viel richtig. Insbesondere für Anwender, die keine Lust, Zeit und Nerven haben, sich mit Linux und Android Custom ROMs rumzuschlagen, bietet Apple ein viel höheres Datenschutz-Niveau als Windows oder Stock-Android.

Allerdings ist und bleibt Apple ein kommerziell agierendes Unternehmen und keine NGO. Das sieht man daran, wie leichtfertig der Konzern seine Privatsphären- und Datenschutz-Strategie über Bord wirft, wenn es um China geht. Um in China Geschäfts zu machen, hat Apple schon vor längerer Zeit seine chinesischen Kunden „geopfert“. Dazu gab es unlängst wieder Berichte.

Private Relay wird dementsprechend nicht für chinesische Kunden angeboten. Ebenso außen vor bleiben Nutzer in Ägypten, Belarus, Kasachstan, Kolumbien, Philippinen, Saudi-Arabien, Südafrika, Turkmenistan und Uganda.

Der Artikel Apples neue Maßnahmen für Datenschutz und Privatsphäre erschien zuerst auf [Mer]Curius

Schwere Fehler im Update-System von openSUSE Leap 15.3

07. Juni 2021 um 18:41
Von: Gerrit

Das openSUSE Projekt hat 2. Juni die aktuelle Version des stabilen Zweigs Leap 15.3 herausgebracht. Nun gibt es schwere Probleme mit dem Update-System, die im schlimmsten Fall zu einem unbenutzbaren System führen können.

Ich nutze openSUSE wirklich gerne und berichte dementsprechend sehr regelmäßig über die Entwicklungen, aber das ist jetzt eine Blamage, die an einen GAU grenzt. Im stabilen Zweig fällt nach dem Release auf, dass das Update-System quasi unbenutzbar ist.

Startet man die YaST Online Aktualisierung, gibt es für zahlreiche Patches Fehler, bei denen die Aktualisierungsverwaltung die Deinstallation Hunderter Pakete empfiehlt.

Fröhlich, wer da nicht genau liest oder gar die Einspielung von Aktualisierungen automatisiert hat.

Abhilfe schafft momentan der Gang auf Kommandozeile

# zypper up

Dadurch nutzt man ein anderes Tool und umgeht das Problem, weil die YaST Online Aktualisierung mit zypper patch arbeitet, was wohl die gegenwärtig fehlerbehaftete Komponente ist. Unklar ist, ob mit zypper up alle bestehenden Sicherheitsaktualisierungen eingespielt werden.

Die Ursache liegt wohl im „Closing the Gap“ und der Einbindung der neuen Update-Repositorien. Das Problem ist bekannt und wird gerade diskutiert. Aufgetreten ist das Problem anscheinend so kurzfristig, weil die neuen Update-Repositorien erst rund um den Release-Termin eingebunden wurden.

Ich weiß, dass viele meine ständige Kritik an Linux oder einzelnen Distributionen nervig finden, aber so etwas darf einfach nicht passieren! Nicht bei einer Variante, die für stabilitätsorientierte Anwender und den Server-Einsatz empfohlen wird! Wenn man so kurz vor der Veröffentlichung was an den Repositorien ändert und das nicht testet, braucht man sich wirklich nicht wundern.

Ich halte openSUSE natürlich weiter die Treue und hoffe, sie beheben das Problem schnell. Als halbwegs erfahrener Anwender testet man eine neue Version ja erst mal ausgiebig, bevor man sie produktiv ausrollt. Das openSUSE-Projekt wird sich aber fragen lassen müssen, ob es sinnvoll war, mitten in einem Zyklus die Art und Weise, wie man die Distribution erstellt, zu ändern und damit nicht bis openSUSE Leap 16 zu warten.

Aktualisierung vom 10.06.2021

Das Problem besteht nach wie vor. Es gibt keine offizielle Kommunikation dazu seitens openSUSE, sondern nur Hinweise in Mailinglisten. Das ist ein Debakel sondergleichen – sowohl was das Problem als auch die Kommunikation betrifft – und sollte im Nachgang dringend evaluiert werden, wenn man die LTS-Ambitionen nicht gleich wieder beerdigen möchte.

Aktualisierung vom 10.06.2021

Die meisten Probleme wurden inzwischen behoben, vereinzelt gibt es noch Schwierigkeiten. Die Ursache ist mir immer noch nicht klar. Die vollständig ausbleibende Kommunikation dazu (abseits der Mailingliste mit ihrer sehr geringen Reichweite) finde ich enorm schwach vom openSUSE-Projekt.

Der Artikel Schwere Fehler im Update-System von openSUSE Leap 15.3 erschien zuerst auf [Mer]Curius

DSGVO und Datenschutz – So einfach ist das nicht

06. Juni 2021 um 14:44
Von: Gerrit

Verfolgt man die Filterblase aktivistischer Datenschützer, könnte man schnell der Annahme verfallen, jede Datenerhebung wäre falsch und gesetzwidrig und alles illegal. Ein Blick auf die Grundlagen dürfte so mancher Empörung die Spitze nehmen. Ein bisschen mehr Augenmaß tut manchmal gut.

Die DSGVO erlaubt Datenerhebung

Wenn es um Datenerhebung und Datenübertragungen geht, ist die Empörung schnell groß und die Datenschutz-Community bestärkt sich gerne selbst darin, dass alles illegal, halb-legal oder zumindest mit Dark Patterns herbeigeführt wurde.

Umso überraschter reagieren dann viele, wenn z. B. der Einsatz von Microsoft-Produkten unter den Aufsichtsbehörden nicht einhellig abgelehnt wird, sondern ein strittiges Thema ist (man erinnere an die Geschichte mit Teams in Berlin). Andere Dienste werden zumindest zeitweise toleriert, weil ein Umstieg nicht ad hoc realisiert werden kann (z. B. Videokonferenzsysteme in Schulen). Die Datenschutzaufsicht der meisten Länder ist da pragmatischer als viele meinen. Viele rufen dann gerne Korruption.

Das Kernproblem liegt schon im behandelten Gegenstand. Viele sehen in Datenschutz eine Grundhaltung, eine Glaubenslehre oder ein IT-Problem. Datenschutz ist aber primär erst mal ein juristisches Thema und viele professionelle Datenschutz-Experten haben einen juristischen Hintergrund (direkt gefolgt vermutlich von einem IT-Background). Es ist erlaubt, was das Gesetz hergibt und nicht, was aus einer ggf. ideologisch aufgeladenen Perspektive schön wäre.

Viele übersehen, dass die DSGVO nicht nur die missbräuchliche Datenerhebung verbietet, sondern auch unter sehr vielen Kriterien die Datenerhebung erlaubt. Das ist vor allem der berühmte Artikel 6, in dem die Bedingungen, unter denen eine Datenverarbeitung erlaubt ist, festgelegt sind:

1. ) Die Verarbeitung ist nur rechtmäßig, wenn mindestens eine der nachstehenden Bedingungen erfüllt ist:

a) Die betroffene Person hat ihre Einwilligung zu der Verarbeitung der sie betreffenden personenbezogenen Daten für einen oder mehrere bestimmte Zwecke gegeben;

b) die Verarbeitung ist für die Erfüllung eines Vertrags, dessen Vertragspartei die betroffene Person ist, oder zur Durchführung vorvertraglicher Maßnahmen erforderlich, die auf Anfrage der betroffenen Person erfolgen;

c) die Verarbeitung ist zur Erfüllung einer rechtlichen Verpflichtung erforderlich, der der Verantwortliche unterliegt;

d) die Verarbeitung ist erforderlich, um lebenswichtige Interessen der betroffenen Person oder einer anderen natürlichen Person zu schützen;

e) die Verarbeitung ist für die Wahrnehmung einer Aufgabe erforderlich, die im öffentlichen Interesse liegt oder in Ausübung öffentlicher Gewalt erfolgt, die dem Verantwortlichen übertragen wurde;

f) die Verarbeitung ist zur Wahrung der berechtigten Interessen des Verantwortlichen oder eines Dritten erforderlich, sofern nicht die Interessen oder Grundrechte und Grundfreiheiten der betroffenen Person, die den Schutz personenbezogener Daten erfordern, überwiegen, insbesondere dann, wenn es sich bei der betroffenen Person um ein Kind handelt.

Diese Bedingungen sind kein Freibrief, aber sie lassen selbst ohne eine Einwilligung umfassende Datenverarbeitung zu. Es ist auch nicht unbedingt das Problem des Dienstanbieters, wenn viele ihre Einwilligung erteilen, ohne zu lesen, was sie da zustimmen. Viele Dienstleistungen benötigen zudem nun einmal Daten. Dabei sollten natürlich so wenig Daten wie möglich erhoben werden, aber auch das ist manchmal noch ganz schön viel. Oft zumindest ein vollständiger Stammdatensatz.

Zusätzlich erhebt der Staat selbst eine Vielzahl an Daten auf anderen gesetzlichen Grundlagen und erlaubt daraus nach definierten Vorgaben auch Datenabfragen, von denen viele nicht wissen, dass sie existieren. Mein Lieblingsbeispiel ist hier die Gruppenauskunft aus dem Melderegister, ein öffentliches Interesse durch ein Forschungsvorhaben einer Universität oder eines universitären Instituts vorliegt.

Ganz davon unabhängig umfasst nicht jede Datenerhebung personenbezogene Daten und fällt dann gar nicht unter den Datenschutz. Hier hat sich leider im öffentlichen Diskurs ein „Datenerhebung = Datenschutz-Problem“ durchgesetzt.

Nicht jede Datenerhebung ist ein Problem

Bei vielen hat sich die Meinung festgesetzt, dass jede Datenerhebung falsch ist und ein Problem darstellt. Dahinter steht das Prinzip der Datensparsamkeit, denn natürlich können alle erhobenen Daten auch missbräuchlich verwendet werden.

Eigentlich ist aus Datenschutz-Sicht ein einzelnes Daten-Silo aber gar kein großes Problem. Eine mittelgroße Firma, die in ihrem CRM die Vertragsdaten von meinetwegen 500 Kunden (das können auch App-Nutzer sein) und 100 Geschäftspartnern speichert und mit diesen Daten nichts macht, außer bei Bedarf Briefe zu verschicken, ist kein Datenschutz-Problem.

Das Problem entsteht dort, wo große Mengen an Daten zusammen geführt werden. Also entweder bei jenen Firmen, die sehr viele Daten erheben und diese anderweitig nutzen oder sogenannten Datenhändlern.

Natürlich können die kleinen Datensammlungen theoretisch irgendwann mal in ein großes Silo einfließen, nicht jedes mittelgroße Unternehmen geht übermorgen unter die Datenhändler.

Die Rechte mit Bedacht nutzen

Die DSGVO gibt den Verbrauchern viele Rechte und diese darf man nutzen – man sollte es aber mit Bedacht tun.

Die DSGVO gibt z. B. das Recht auf Datenauskunft und das Recht auf Datenlöschung. Ich habe das auch gerne genutzt, um mal herauszufinden, was so mancher Großkonzern über mich gespeichert hat. Daraus kann man dann durchaus die Konsequenz ableiten, den Vertrag zu beenden oder die Nutzung des Dienstes einzustellen.

Diese Rechte sind aber kein Schikane-Instrument. Man muss nicht alle 6 Monate einen Großkonzern, mit dem man eine Vertragsverbindung hat, um eine Datenauskunft bitten. Ebenso muss man nicht eine kleine Firma mit Datenauskünften quälen, wenn man schon weiß, dass diese aus berechtigten Gründen Daten speichert.

Datenschutzbeauftragte arbeiten oft nicht hauptberuflich als solche, sondern haben bestenfalls ein paar Prozente ihrer Stelle dafür zur Verfügung. Diese freuen sich immer sehr, wenn sie den offensichtlichen Vordruck eines aktivistischen Bloggers auf dem Schreibtisch haben und das ganz große Datenauskunft-Rad drehen dürfen.

Zusammengefasst

Datenschutz ist wichtig, aber nicht jede Datenerhebung ist illegal. Datenschutz und die DSGVO sind primär ein juristisches Feld und hier sollte man ganz vorsichtig mit Aussagen über Legalität und Illegalität von Angeboten sein. Nicht alles, was aus Datenschutz-Perspektive wünschenswert ist, muss deshalb auch in der Realität so sein. Viele Sachverhalte sind strittiger, als dies in einschlägigen Blogs und Kommunikationskanälen der „Datenschutz-Community“ so dargestellt wird.

Der Artikel DSGVO und Datenschutz – So einfach ist das nicht erschien zuerst auf [Mer]Curius

Linux-Desktop mit Firewalld absichern

06. Juni 2021 um 12:43
Von: Gerrit

Viele Linux-Anwender glauben immer noch, sie bräuchten keine Firewall. Das Mantra wurde schließlich jahrzehntelang vor Linux hergetragen. Doch die meisten Linux-Desktopinstallationen sind nicht mehr minimalistisch und bewegen sich auch nicht mehr nur innerhalb des Heimnetzes.

Eine Firewall kann dann Sinn machen, wenn man ein mobiles Gerät besitzt und sich in fremde Netze einwählt. Nennt sich Notebook und dürfte bei den meisten Anwendern der Standardfall sein. Man verweist immer gerne auf Windows mit seinen vermeintlich vielen offenen Ports und Diensten, die man nicht braucht, aber auch bei Linux laufen viele Dienste, die außerhalb des Heimnetzes nicht gebraucht werden: CUPS, Avahi, KDE Connect, ggf. ein Samba-Share. Die Liste ließe sich sicher noch erweitern. Das ist jetzt grundsätzlich kein Problem, aber es schadet auch nicht, diese Ports bei unbekannten Netzwerken zu blockieren. Wer weiß schon, welche Sicherheitslücke demnächst in CUPS oder sshfs gefunden wird.

Distributionen wie Red Hat Enterprise Linux, Fedora, SUSE Linux Enterprise oder openSUSE liefern deshalb mit Firewalld schon länger standardmäßig eine aktivierte Firewall aus. Distributionen wie Debian oder Ubuntu bieten eine Nachinstallation aus den Paketquellen an, aber hier ist ufw verbreiteter.

Ein bisschen Nacharbeit ist in jedem Fall notwendig. Bei SUSE kann man dies via YaST machen oder auf der Konsole. KDE bietet seit Neuestem mit Plasma Firewall eine GUI für Firewalls, aber bei mir hat diese nicht funktioniert.

Zonen in Firewalld

Firewalld arbeitet mit vordefinierten Zonen. Die wichtigen Kern-Zonen sind:

  • block – Alle eingehenden Netzwerkverbindungen werden blockiert. Nur vom System aus initiierte Netzwerkverbindungen sind möglich.
  • dmz – Klassische entmilitarisierte Zone (DMZ), die begrenzten Zugang zum Netzwerk bietet und nur definierte eingehende Ports zulässt.
  • drop – Löscht eingehenden Netzwerkverbindungen und erlaubt nur ausgehende Netzwerkverbindungen.
  • external – Nützlich vor allem im Router-Kontext.
  • home – Gedacht für Heimcomputer wie Notebooks und Desktops innerhalb des eigenen Netzwerks, in dem anderen Systemen vertraut werden kann.
  • internal – Für interne Netzwerke, wenn den anderen Servern oder Computern im Netzwerk vertraut werden kann.
  • public – Es wird anderen Systemen im Netzwerk nicht vertraut. Nur erforderliche Ports und Dienste sind erlaubt.
  • trusted – Alle Netzwerkverbindungen werden akzeptiert.
  • work – Äquivalent von Home für den Einsatz am Arbeitsplatz.

Welche Zonen zusätzlich noch verfügbar sind kann mit folgendem Kommando geprüft werden:

# firewall-cmd --get-zones

Dienste für Zonen konfigurieren

Für die klassischen Notebook-Installation sind vor allem zwei Zonen von Firewalld von Interesse: home und public.

Die Standard-Zone sollte public sein, das lässt sich mit folgendem Befehl prüfen:

# firewall-cmd --get-default-zone

Durch die Integration in den NetworkManager lassen sich Netzwerke Zonen zuordnen. Jede neue Verbindung wird automatisch public zugewiesen. Eigene Netzwerke können home zugewiesen werden.

Für Home können dann Dienste freigeschaltet werden, die man im heimischen Netzwerk gerne nutzen möchte.

Mit folgendem Befehl überprüft man, welche Services gerade aktiv sind:

# firewall-cmd --list-services --zone=home

Folgender Befehl kann man die vorkonfigurierten Dienste für Firewalld ausgeben. Diese sind bereits für den Dienst passend konfiguriert und man muss nicht manuell irgendwelche Ports zusammen stellen und freigeben.

# firewall-cmd --get-services

Für meinen persönlichen Bedarf haben die vorkonfigurierten Dienste immer gereicht, aber das hängt natürlich von den eigenen Einsatzszenarien ab.

Mit folgenden beiden Befehlen fügt man einen Dienst hinzu bzw. entfernt ihn wieder. Hier mal am Beispiel von SSH.

# firewall-cmd --zone=home --add-service=ssh --permanent
# firewall-cmd --zone=home --remove-service=ssh --permanent

Nach jeder Anpassung muss man Firewalld neustarten, damit die Änderung greift:

# systemctl restart firewalld

Beispiel für den Einsatz

Mein primäres Notebook kommt mit zwei Zonen aus: home und public. In public ist so wenig die nötig erlaubt, in home einiges mehr, damit ich z. B. KDE Connect nutzen kann oder meinen Drucker erreiche:

GH-Elite:/home/gerrit # firewall-cmd --list-services --zone=home                  
dhcpv6-client kdeconnect kdeconnect-kde mdns samba-client
 
GH-Elite:/home/gerrit # firewall-cmd --list-services --zone=public 
dhcpv6-client

Die Netzwerke eines Erst- und Zweitwohnsitzes sind Home zugewiesen. Alle anderen Netzwerke landen bei der Einrichtung automatisch bei Public. Bisher hatte ich damit keine Probleme.

Der Artikel Linux-Desktop mit Firewalld absichern erschien zuerst auf [Mer]Curius

Kommentar: Datenschutz lebt von der Unterstützung der Mehrheit

05. Juni 2021 um 12:54
Von: Gerrit

Datenschutz ist eine noch relativ junge Idee. Auch wenn manche so tun mögen, Datenschutz steht nicht in einer Reihe mit den 10 Geboten. Wir befinden uns in Deutschland und Europa in der privilegierten Situation, dass Datenschutz auf eine breite Unterstützung zählen kann. Das sollte man nicht leichtfertig verspielen.

Datenschutz hat eine große Bedeutung in Deutschland und das keineswegs erst seit den Snowden-Enthüllungen. Diktaturerfahrungen und historische Ereignisse wie die Volkszählung von 1983 bzw. das entsprechende Urteil des Bundesverfassungsgerichts prägten die deutsche Beziehung zum Datenschutz. Durch seinen Einfluss in Europa gelang es Deutschland, das deutsche Datenschutzverständnis über die europäische Datenschutzrichtlinie und die DSGVO für die EU allgemein verbindlich zu machen.

Man muss den Blick gar nicht in viele asiatische Staaten wandern lassen, um zu sehen, wie singulär dieses Datenschutz-Verständnis ist. Auch viele europäische Staaten wie beispielsweise Irland halten sich mehr an die Buchstaben der DSGVO denn an ihren Geist. Andere westliche Staaten wie Großbritannien, Kanada, die USA oder auch Israel haben durch eigene historische Erfahrungen ein gänzlich anderes Verständnis von Datenschutz („Privacy“) oder gewichten zumindest dieses Recht im Verhältnis zu anderen Grundrechten anders.

Corona-Jahr: Erfolge und Misserfolge im Datenschutz

Die Pandemie hat gezeigt, wie wichtig Datenschutz in Deutschland ist, hat aber auch offen und verdeckte Gegner offenbart und gefährliche Entwicklungen offen gelegt.

Die Planung und Entwicklung der Corona Tracing App im vergangenen Frühjahr. Im Zuge der Debatte im Vorfeld der Entwicklung zeigte sich schnell, dass in Deutschland nur eine Anwendung konsensfähig ist, die quelloffen und datensparsam konzipiert ist. Datenschutz-Bedenken gegen diese App waren wirklich nur noch vorgeschoben und nicht mehr Ernst zu nehmen.

Zur kurzen Erinnerung: Ursprünglich dachte die Bundesregierung darüber nach, ein zentralisiertes Modell zu verfolgen. Nach heftigen Protesten durch einflussreiche und anerkannte Organisationen, unter anderem den CCC, konnte sich ein dezentraler Ansatz durchsetzen. Für diese Entscheidung konnte sich die Regierung zurecht loben. Natürlich spielten da auch die technischen Leitplanken von Google und Apple eine Rolle, aber in anderen Ländern haben die Corona-Tracing-App trotzdem dem Überwachungsstaat Vorschub geleistet. Ein Phänomen nicht nur irgendwelcher Diktaturen in Fernost, sondern auch in Europa.

Erfolg und Misserfolg der App sollen hier jetzt nicht bewertet werden. Nach der Veröffentlichung gab es sicherlich massive Fehler, wie beispielsweise die faktische Einstellung der Weiterentwicklung. Eine Rolle dürfte aber auch der in Pandemie-Sicht ruhige Sommer gespielt haben, wodurch die App vielen nutzlos erschien.

Das Pandemie-Jahr zeigte aber, dass unter dem massiven Druck einer solchen Katastrophe der gesellschaftliche Konsens zu Datenschutz unter Druck gerät. Immer wieder wurde der Vorwurf geäußert, der Datenschutz hemme die Pandemie-Bekämpfung. Bei einigen, die den Datenschutz angingen, war es einfach die Unkenntnis, andere suchten einen Sündenbock und wieder andere sahen ihre Chance, endlich das deutsche Verhältnis zu Datenschutz anzugreifen. Es gibt schließlich genug Akteure auf dem Markt, deren zweifelhafte Vorhaben seit Jahren zurecht durch Datenschutz-Bedenken aus gebremst werden. Ein interessantes Streitgespräch zur Illustration kann hier gehört werden.

Es ist bewundernswert, wie hartnäckig viele offizielle Vertreter des Datenschutzes hier dagegen hielten. Wer sich das täglich Live ansehen möchte, kann gerne dem Bundesdatenschutzbeauftragten Ulrich Kelber auf Twitter folgen.

Trotzdem gab es zum Ende des Corona-Jahres die große Niederlage. Durch geschicktes Marketing und intensiver Lobbyarbeit durch einen Musiker (hier könnte man jetzt ein bisschen über die Folgen der „Boomer“ in allen Entscheidungspositionen fabulieren) wurde eine kommerzielle App teuer durch die Bundesländer eingekauft und zum Quasi-Standard für den Check-in erklärt. Eine App, die so ziemlich jeden Standard verletzt, den man ein Jahr zuvor mit der Corona App setzen wollte.

Dabei war es nicht mal so, dass Sicherheitsexperten und Datenschützer mit ihren Warnungen nicht durchgedrungen wären. Reichweitenstarke Medienportale sind voller Meldungen über Probleme und Defizite bei der Luca App. Um jetzt hier noch unendlich viele Links setzen zu müssen, verweise ich exemplarisch je einmal auf ZEIT ONLINE, tagesschau.de und den SPIEGEL.

Die Pandemie-müde Gesellschaft war scheinbar trotzdem bereit, auf eine App zu setzen, deren Kernfunktionalität ein Jahr zuvor noch massiv abgelehnt worden wäre. Die Politik war ihrerseits bereit, viel Geld auszugeben, um nicht als „Bremser“ auf dem Weg zur Öffnung zu wirken. Auf der Strecke blieb der Datenschutz.

Die Mehrheit im Blick behalten

Diese Ereignisse zeigen, dass Datenschützer Stimmungen und Mehrheiten im Blick behalten sollten. Dazu gehört auch, nachhaltig und mutig Falschmeldungen entgegen zu treten und mit positivem Lobbyismus die gesellschaftliche Stimmung zu beeinflussen. Viele Datenschützer machen dies sehr erfolgreich und finden auch in einer breiteren Öffentlichkeit Gehör.

Wichtig ist aber auch, Wünsche und Grenzen bestehender Datenschutz-freundlicher Lösungen im Blick zu behalten. Die Luca App konnte nur so erfolgreich werden, weil die offizielle Corona Warn App funktionale Defizite hatte. Dieses Problem lässt sich auf viele andere problematische Bereiche im letzten Jahr übertragen. Proprietäre Lösungen bei der Team-Arbeit, in Schulen und Universitäten konnten nur so erfolgreich sein, weil Open Source-Alternativen funktional noch nicht ausgereift waren. Hier darf man nicht blind auf Datenschutz-freundliche Alternativen verweisen, sondern muss die Funktionen proprietärer Anwendungen anerkennen und Nacharbeit bei den Datenschutz-freundlichen Lösungen befördern.

Nicht übertreiben

Denn die Mehrheiten sollten nicht leichtfertig aufs Spiel gesetzt werden. Das geschieht durch Forderungen mit Augenmaß, die nicht die Funktionsfähigkeit des Systems infrage stellen. Die meisten Datenschutzaufsichtsbehörden haben dies im vergangenen Sommer durch die Kulanz für Microsoft-Lösungen in öffentlichen Einrichtungen getan. Sehr zum Leidwesen radikaler Aktivisten.

Dazu gehört aber auch, sich seine Ziele sorgfältig auszuwählen. Ich habe mich bereits sehr kritisch zu automatisierten Verfahren mit der Präzision einer Schrotflinte geäußert. Dazu gehört aber auch ein respektvoller Umgang mit den Datenschützern in den Unternehmen und Behörden. Es gibt genug Ziele in Form von Daten-aggregierenden Großkonzernen, die weder Buchstaben, noch Geist der DSGVO befolgen und daraus ein (oder sogar ihr einziges) Geschäftsmodell machen.

Es ist ein beliebtes Mittel vieler Aktivisten Unternehmen und Einrichtungen mit Forderungen, Anfragen und ggf. sogar Anzeigen bei der Aufsicht zu überschwemmen, ohne an die Folgen zu denken. Dabei knöpft man sich gerne jene vor, die man in seiner Muttersprache mit Inlandsporto erreichen kann und die ihre Datenschutz-Aufsicht transparent irgendwo stehen haben. Also eigentlich genau die falschen Ziele. Denn meiner Erfahrung nach hat das Thema Datenschutz bei vielen deutschen Unternehmen und öffentlichen Einrichtungen einen hohen Stellenwert, weil es eben in der gesamten Gesellschaft eine große Rolle spielt. Wenn man diese Menschen mit Arbeit und Problemen überschwemmt, bewirkt man nichts Positives, sondern ruft im schlimmsten Fall nur Ablehnung hervor.

Bei vielen Aktivisten fehlt mir ein Verständnis für die Hürden und Schwierigkeiten, die es auch nach 3 Jahren noch bei der Umsetzung der DSGVO und der entsprechenden Gesetze gibt. Die Transparenz-Vorschriften sind enorm und viele Bereiche noch unklar, da keine abschließenden Urteile existieren. Den Punkt zu erwischen, an dem man exakt so viele Daten erhebt wie notwendig und diese auch genau dann zu löschen, wenn man sie nicht mehr braucht, ist nicht so trivial, wie mancher Außenstehende vielleicht meint. Teilweise gibt es auch widersprüchliche juristische Vorgaben, wenn Aufbewahrungs- oder Effizienzermittlungsvorschriften sich mit der DSGVO beißen. Verprellt man die Datenschützer vor Ort, weil sie entnervt resignieren, verliert man mehr als radikaler Aktivismus, politische Lobbyarbeit und Gesetzgebung erreichen können.

Zusammengefasst

Datenschutz ist wichtig und wir sind in Deutschland in der privilegierten Position, dass diese Ansicht von der Mehrheit der Gesellschaft geteilt wird. Dieses positive Verhältnis zu Datenschutz muss gepflegt werden. Radikaler Aktivismus, unerfüllbare Forderungen oder unrealistische Alternativen können das gefährden.

Die Corona-Pandemie bzw. der Weg von der Corona Warn App zur Luca App kann hier als mahnendes Beispiel herhalten, wie schnell gesellschaftliche Mehrheiten kippen können und in der Folge die Warnungen der Datenschützer wie Rufe im Wind verhallen.

Das positive Verhältnis der Mehrheit zu Datenschutz ist keine Selbstverständlichkeit und sollte nicht leichtfertig verspielt werden.

Der Artikel Kommentar: Datenschutz lebt von der Unterstützung der Mehrheit erschien zuerst auf [Mer]Curius

openSUSE Leap 15.3: Änderung bei den Update Repositories

03. Juni 2021 um 12:58
Von: Gerrit

Das openSUSE Projekt hat mit Leap 15.3 eine weitere Aktualisierung der LTS-Variante herausgegeben. Eine wesentliche Neuerung sind die neuen Repositorien für Updates infolge des Wechsels auf die SLE-Basis.

Leap 15.3 bietet oberflächlich betrachtet nicht viel Neues. Die größte Neuerung ist die Zusammenführung der Basis von openSUSE Leap und SUSE Linux Enterprise. Beide Distributionen teilen sich nun denselben Kern an Binärpaketen und sind kompatibel. Leap enthält zusätzliche Pakete durch die Community und insbesondere im Desktop-Bereich ein größeres Angebot. Mit der Veröffentlichung von Leap 15.3 zeigen sich nun die Veränderungen für die Anwender.

Besonders beachten sollten Anwender die Änderungen bei den System-Repositorien. Eine wesentliche Veränderng gibt es bei den Update-Quellen. Bisher hatte jede openSUSE-Variante im wesentlichen vier Repositorien (abgesehen von Quell- und Debug-Repos):

  1. OSS (für Open Source Software)
  2. Non-OSS (für proprietäre Pakete)
  3. OSS-Updates
  4. Non-OSS-Updates

Die ersten beiden Repositorien wurden mit der Veröffentlichung eingefroren und stabil gehalten. Die beiden Updates liefern Fehlerbehebungen und Sicherheitsupdates während der Laufzeit des Minor-Releases über 18 Monate.

Durch die Zusammenführung von openSUSE Leap und SLE gibt es nun vier verschiedene Update-Repositorien:

  1. OSS-Update (das klassische Update-Repository)
  2. Non-OSS (das klassische Update-Repository für proprietäre Software)
  3. Update von SUSE Linux Enterprise
  4. OpenSUSE Backports

Die letzten beiden sind neu. Insbesondere die Updates von SUSE Linux Enterprise sind sehr umfangreich und umfassen die kombinierten Updates aller gepflegten Enterprise-Varianten.

Das System ist relativ kompliziert und noch nicht gut dokumentiert. Das Zusammenspiel der unterschiedlichen Kanäle und welche Updates über welchen Kanal ausgeliefert werden, muss sich erst noch zeigen.

Der Artikel openSUSE Leap 15.3: Änderung bei den Update Repositories erschien zuerst auf [Mer]Curius

Koko Analytics für WordPress – Datenschutz-freundliche Analyse

31. Mai 2021 um 12:18
Von: Gerrit

Webseiten-Analyse ist ein Datenschutz-Albtraum, sowohl für Betreiber als auch für Benutzer. Dabei ist der Ansatz, ein paar rudimentäre Informationen über das Besucher-Aufkommen zu erheben, legitim. Abhilfe kann Koko Analytics schaffen.

Jeder Webseiten-Betreiber möchte gerne ein paar Informationen über sein Angebot. Die Verbesserung des Angebots ist nicht nur eine Floskel für Datenschutzerklärungen und Cookie-Banner, sondern ein wichtiger Beweggrund. Schließlich kann es interessant sein, wie sich das Besucher-Aufkommen entwickelt, welche Artikel viel gelesen werden und welche Perlen in den Tiefen einer Seite schlummern.

Bis zur DSGVO war Google Analytics quasi allgegenwärtig. Weil sich das im Grunde genommen nicht wirklich DSGVO-konform betreiben lässt, hat sich der Markt heute diversifiziert und viele setzen auf Matomo (ehm. Piwik), wobei auch hier vermutlich eine Einwilligung notwendig ist.

Abgesehen von wirklich professionellen Seiten ist das aber immer noch mit Kanonen auf Spatzen geschossen. Keine kleine oder mittlere Webseite braucht diese ausgefeilten Analyse- und Kampagnen-Werkzeuge und die Ergebnisse sind auch viel zu ungenau, wenn man DSGVO-konform eine Einwilligung einholt.

Koko Analytics hat da einen viel reduzierteren Ansatz. Das WordPress-Plugin zählt die Aufrufe der einzelnen Seiten/Blogbeiträge und liefert diese in einer Seite aus. Zusätzlich gibt es eine Liste der Top-Level-Domains der Referrerer, damit man ein wenig sieht, woher die Besucher kommen.

In den Einstellungen kann man das Setzen eines Cookies komplett deaktivieren, wodurch man keine Einwilligung braucht, da absolut keine personenbezogenen Daten erhoben werden. Weil wiederkehrende Besucher auf diese Weise sehr schlecht identifiziert werden können, ist die Statistik natürlich ziemlich ungenau.

Zusätzlich gibt es noch ein paar Optionen, um z. B. einige Benutzerrollen von der Erhebung auszuschließen und alte Daten automatisiert zu löschen.

Für einen oberflächlichen Eindruck reicht so etwas aber aus und dürfte den meisten Betreibern genug Informationen liefern.

Der Artikel Koko Analytics für WordPress – Datenschutz-freundliche Analyse erschien zuerst auf [Mer]Curius

Tor Browser Launcher für das Tor Browser Bundle

31. Mai 2021 um 11:12
Von: Gerrit

Das Tor Browser Bundle ist die präferierte Methode, um mit Tor im Netz unterwegs zu sein. Keine Distribution listet es in den Paketquellen. Abhilfe kann hier der Tor Browser Launcher schaffen.

Tor ist mein primärer Browser, um im Netz unterwegs zu sein. In meiner täglichen Praxis nutze ich nämlich nur ein Zwei-Browser-Konzept. Das liegt daran, dass alle meine Aktivitäten in zwei Bereiche fallen: Solche, die ganz klar mit meiner Identität verknüpft sind und solche, die es nicht sind. Deshalb reicht für mich der Tor Browser zum täglichen Surfen und Firefox für meine Aktivitäten mit klarer Identität.

Eigentlich war ich immer ein Gegner solcher Hilfsmittel, um den Tor Browser zu installieren. Schließlich kann man den auch direkt beim Tor Projekt beziehen. Allerdings ist das für Einsteiger auf dem Gebiet auch nicht so trivial.

Sprache auswählen, Archiv für Linux herunterladen, GPG-Signatur überprüfen, entpacken, Starter anlegen. Alles kein Hexenwerk, aber zum Einstieg schon viel und vor allem die Überprüfung der GPG-Signatur sparen sich viele.

Hier schafft das kleine nützliche Helferlein Tor Browser Launcher Abhilfe, denn es übernimmt alle diese Schritte für einen. Der Tor Browser Launcher ist bei vielen Distributionen in den Paketquellen. Mindestens Debian, Ubuntu, Arch Linux und openSUSE-Anwender können ihn einfach installieren. Als kleines Extra gibt es ein AppArmor-Profil für den Tor Browser.

Ubuntu-Anwender müssen wie immer ein bisschen aufpassen, weil das Paket in universe liegt und es manchmal Änderungen beim Tor Projekt gibt, die eine neue Version des Launchers erfordern. Alle anderen Distributionen liefern diese notwendigen Änderungen wenigstens als Backports aus.

Nach der Installation befindet sich im Menü ein Punkt Tor Browser Launcher Settings. Über diesen kann man initial den Tor Browser installieren. Die Installation erfolgt im Home-Verzeichnis unter .local/share/torbrowser/. Die Aktualisierung im laufenden Betrieb erfolgt anschließend über die integrierte Routine im Tor Browser.

Der Artikel Tor Browser Launcher für das Tor Browser Bundle erschien zuerst auf [Mer]Curius

Kommentar: Noyb gegen Cookie-Banner

31. Mai 2021 um 10:48
Von: Gerrit

Die NGO von Max Schrems beabsichtigt, gegen manipulative Cookie-Banner vorzugehen. Meiner Meinung hat diese Methode das Potenzial, die Falschen zu treffen und gewaltigen Flurschaden zu hinterlassen.

Die Cookie-Banner sind eine problematische Begleiterscheinung der DSGVO. Datenschutz hat in Deutschland und Europa eigentlich einen guten Stand, aber die Cookie-Banner sorgen dafür, dass diese Akzeptanz bröckelt. Dabei sind die Cookie-Banner weder das Kernproblem, noch sind die Seitenbetreiber wirklich daran schuld.

Das Kernproblem im Datenschutz ist die hemmungslose Datenerhebung und Zusammenführung von Daten durch große datengetriebene Konzerne. Bekannte Beispiele sind Google und Facebook, aber sie sind nur die Spitze des Eisbergs. Ein Gutteil (Großteil?) der Datenerhebung erfolgt über Apps und Dienste auf Basis von AGBs, ohne das dafür jemals ein „Cookie-Banner“ geschaltet wurde.

Aber selbst bei Cookie-Bannern ziehen sich besonders die großen Anbieter mit Minimalismus aus der Affäre. Amazon fragt zum Beispiel nur (!) die Einwilligung für Werbe-Cookies ab. Man muss nicht jede Veröffentlichung zu den Themen Amazon und Datenschutz verfolgt haben, um zu wissen, dass das nur die Spitze des Eisbergs ist.

Die Schuld an der Misere trägt die Politik, weil man der DSGVO nicht wie beabsichtigt die e-Privacy-Verordnung an die Seite gestellt hat. Somit tappen alle Webseitenbetreiber (von der Privatperson bis zum großen Unternehmen mit eigenen Justiziaren) im Dunkeln, was sie dürfen und was nicht und wofür sie eine Einwilligung brauchen und wofür nicht, weil es vielleicht doch berechtigtes Interesse ist. Die Gesetzgebung ist hier oft nicht so eindeutig, wie Datenschützer manchmal meinen und die Handreichungen der Aufsichtsbehörden widersprüchlich.

Ich sehe hinter den gegenwärtigen Cookie-Bannern dann auch weniger einen „Evil Masterplan“ und mehr ein allgemeines orientieren an dem, was die anderen so machen. Einige holen viel mehr Einwilligungen ein als sie müssten, andere viel zu wenig. Bei beiden würde ich dahinter erst mal nicht böse Absicht vermuten.

Die Organisation von Schrems hat mit Schrems I und Schrems II große Verdienste erworben, aber diesen Anlauf sehe ich sehr kritisch. Hier muss man sich genau angucken, gegen welche 560 Unternehmen und Webseiten-Betreiber Noyb nun vorgeht. Ebenso darf in der Öffentlichkeit nicht der Eindruck entstehen, dass die Cookie-Banner das eigentlich Problem wären, denn sie sind nur Symptom eines größeren Problems.

So sehr ich auch für Datenschutz bin und die konsequente Durchsetzung. Letztlich geht das nur mit den Dienste-Betreibern, den Unternehmen und letztlich der Gesellschaft nicht gegen sie. Datenschützer müssen hier immer aufpassen, das Maß nicht zu verlieren. Die gesamtgesellschaftliche Stimmung nehme ich als sehr fragil in dieser Sache wahr und man sollte aufpassen, dass sie sich nicht gegen Datenschutz als Anliegen richtet.

Aktualisierung vom 31.05.2021

Wie netzpolitik.org heute berichtete ist das ganze noch kritischer als ich zuerst annahm. Die „rechtswidrigen“ Banner sollen quasi automatisiert über eine Software erhoben und anschließend gemeldet werden. So sehr ich auch das Anliegen im Grunde teile, ist das für mich nicht weit vom deutschen Abmahnunwesen entfernt und potenziell geeignet der Sache Datenschutz insgesamt mehr zu schaden als zu nützen.

Der Artikel Kommentar: Noyb gegen Cookie-Banner erschien zuerst auf [Mer]Curius

Telegram – Sicher ist was anderes

30. Mai 2021 um 17:01
Von: Gerrit

Es gibt viele tolle Alternativen zu WhatsApp: Signal, Threema, für gewisse Szenarien sogar Matrix oder XMPP. Und es gibt Telegram. Ein unsicherer, intransparenter Messenger ohne Vorteile gegenüber WhatApp, der völlig ohne Faktenbasis in manchen Kreisen als „sicher“ gehandelt wird.

Mir ist durch ein paar Kommentare unter einem Blogartikel aufgefallen, dass ich noch nie dezidiert über Telegram geschrieben habe. Vermutlich, weil ich davon ausging, dass die Leser dieses Blogs informiert genug sind, um nicht auf so einen pseudo-sicheren Messenger wie Telgram reinzufallen.

In zwei Artikeln habe ich mich aber schon mal ein bisschen dazu geäußert. Wer diese Artikel gelesen hat, bekommt jetzt inhaltlich vor allem ein bisschen Wiederholung:

  1. Kommentar: Telegram ist unsicher – welch Überraschung
  2. WhatsApp und seine Alternativen – Herdentrieb oder steuerbare Bewegung?

Telegram bewirbt sich auf seiner Webseite unter anderem als Privat, weil verschlüsselt, Offen, weil API und Quelltext offen sind und Sicher. Wie sich zeigen wird sind das interessante Interpretationen der Faktenlagen bzw. geschickte PR in eigener Sache.

Sicherheit bedeutet im Kontext von Messengern vor allem Ende-zu-Ende-Verschlüsselung und die Reduktion von Metadaten. Beides ist bei Telegram höchst mangelhaft.

Telegram – Von technischen Defiziten bis Intransparenz ist alles dabei

Keine Verschlüsselung

Für die Sicherheit bzw. die Verschlüsselung setzt Telegram auf eine Eigenentwicklung, genannt MTProto Mobile Protocol. Es gibt meines Wissens nach keinen anerkannten Sicherheitsexperten, der dieses Protokoll gut findet. Es gibt einen Sicherheits-Audit von 2017, den man als streckenweise vernichtend bezeichnen kann. Danach gab es zwar Entwicklung bei Telegram und eine neue Version des Protokolls, aber ein neuer unabhängiger Audit liegt nicht vor. Das ist auch unerheblich, da Telegram standardmäßig nicht verschlüsselt, sondern nur für sogenannte „Geheime Chats“ und für Gruppen-Chats ist eine Verschlüsselung sogar überhaupt nicht möglich. Telegram gehört somit zu den wenigen Messengern, die nicht standardmäßig E2E verschlüsseln. Im Grunde genommen kann man hier eigentlich schon aufhören zu berichten.

Datensparsamkeit Fehlanzeige

Telegram speichert aber auch noch massenhaft Daten. Von dem Versuch Meta- oder Inhaltsdaten zu vermeiden, ist absolut nichts zu erkennen. Sofern man das auf Basis der sehr schmalen Datenschutzerklärung sagen kann. Abgesehen von „Geheimen Chats“ werden alle Inhalte auf den Servern gespeichert. Es gibt zwar eine Transportverschlüsselung und eine Verschlüsselung auf dem Server, aber ohne E2E-Verschlüsselung kann der Betreiber (und potenziell auch Dritte) die Inhalte problemlos einsehen. Kontakte und Telefonnummern werden im Klartext übertragen und gespeichert. Eine Löschung müsste der Nutzer manuell über die App vornehmen. Die Status-Funktion lässt sich zudem ziemlich einfach massenhaft tracken (siehe auch die entsprechende Heise-Meldung).

Open Source nur für die Apps

Mit der beworbenen Offenheit von Telegram ist es zudem nicht weit her. Clients und API sind quelloffen bzw. offengelegt, aber die Server-Infrastruktur ist proprietär und entzieht sich der Prüfung. Die quelloffenen Clients sind zwar nice-to-have aber ohne die Server-Infrastruktur ist Telegram damit auch nicht transparenter als WhatsApp und definitiv gegenüber Signal im Nachteil.

Intransparente Firma

Die fehlende Quelloffenheit ist umso gravierender, da Telegrams Hintergrund bestenfalls als dubios bezeichnet werden kann (In der SZ gab es vor einiger Zeit ein lesenswertes Portrait über Pawel Durow). Es gibt kein Impressum und laut FAQ ist der Sitz zur Zeit in Dubai, aber man gibt keine Gewähr für die Zukunft. Die Finanzierung ist auch bestenfalls interessant, um nicht zu sagen höchst intransparent. Der größte bekannte Geldgeber ist der Staatsfond von Abu Dhabi. Eine absolutistische Monarchie (also Diktatur im Monarchie-Mantel) und Teil der VAE. Natürlich steckt Petro-Geld vom Golf in vielen Firmen, aber die Finanzierung eines sicheren und unabhängigen Messengers, dem Dissidenten und Oppositionelle auf der Welt vertrauen, sieht für mich anders aus.

Zusammengefasst: Unsicher

Die problematische Sicherheit von Telegram ist zudem keine Debatte im luftleeren Raum. Wenig faktengestützte PR und irreführende Empfehlungen haben schon real Menschen gefährdet. Das war beispielsweise bei den Protesten in Hongkong vorletztes Jahr ein Thema.

Gibt es also gar nichts, was für Telegram spricht? Manche würden es als Vorteil sehen, dass im Telegram-Netz libertäre Meinungsfreiheit herrscht. So ziemlich jede Verschwörungsideologen-Gruppe hat einen Telegram-Kanal. Das gleiche gilt für rechtsextreme Netzwerke. Da muss jeder für sich bewerten, ob er sich in so einer Gesellschaft bewegen möchte. Das gilt aber gleichermaßen für alle anderen öffentlichen Räume im Internet. Ein weiterer Vorteil sind die vielen Clients für nahezu jedes Betriebssystem, was vor allem praktisch ist, wenn man nicht Android oder iOS nutzt.

Wer aber glaubt mit der Nutzung von Telegram seine Sicherheit zu verbessern, nutzt vermutlich auch VPN zur Anonymisierung und motzt auf Twitter über Facebook. Oder anders gesagt: Telegram taugt nur für eingebildete Sicherheit. Manchen reicht das ja schon.

Aber eines ist Telegram ganz bestimmt nicht: Objektiv sicher. In absolut keiner Definition von Sicherheit! Schon gar nicht sicherer als Signal oder Threema und eigentlich auch nicht sicherer als WhatsApp.

Der Artikel Telegram – Sicher ist was anderes erschien zuerst auf [Mer]Curius

Messenger: Signal hängt Threema ab?

30. Mai 2021 um 13:14
Von: Gerrit

Das Feld der Messenger ist momentan so offen wie schon lange nicht mehr. WhatsApp dominiert den Markt, aber verliert momentan stärker an Zuspruch denn je. Die Bewegung scheint zu Signal zu gehen und Threema wird abgehängt.

WhatsApp-Alternativen gab es schon immer und spätestens seit dem Kauf durch Facebook versuchen Datenschützer die Menschen von Alternativen zu überzeugen. Lange verhallten diese Ruf, doch manchmal nimmt die Entwicklung ungeahnte Wendungen. Die Einführung der neuen Nutzungsbedingungen hat eine bisher ungeahnte Wechselwelle in Gang gesetzt. Das Medienecho ging weit über die IT-Welt hinaus und die Auswirkungen waren so stark, dass Facebook zuletzt zurückruderte und auf die Durchsetzung der neuen AGBs verzichten möchte.

Für Facebook ist diese Entwicklung sehr gefährlich. Im Gegensatz zu den anderen IT-Giganten hat das Unternehmen einen durchweg schlechten Ruf, hat massiv unter den Fake-News-Debatten der letzten Jahre gelitten und das Kernnetzwerk verliert rasant an Bedeutung. Das schlägt sich nicht so sehr in den Nutzungszahlen wieder, aber die Berichte, dass Facebook nur noch ein Tummelplatz von „Boomern“ und Unternehmen ist, nehmen zu. Würden jetzt noch Instagram und WhatsApp Nutzer verlieren, wäre das eine Katastrophe, die zum Implodieren des Konzerns führen würde.

Bei den WhatsApp-Alternativen war ich immer ein großer Befürworter von Threema. Signal und Threema sind beide sehr gute Alternativen, aber bei Threema habe ich die transparente Finanzierung des Unternehmens und der Entwicklung geschätzt und die Möglichkeit, einen Identifikator jenseits der Telefonnummer zu nutzen. Das war mir sogar wichtiger als das Kriterium Open Source, denn trotz der leidigen Debatte um den Servercode hat hier natürlich Signal die Nase vorn. Die Entwicklung von Signal folgt mir aber ein bisschen zu oft den eigenwilligen Entscheidungen von Moxie Marlinspike, z. B. bei der Verfügbarkeit auf F-Droid.

Wenn ich mir die Bewegung in den letzten Monaten so ansehe, geht diese allerdings ziemlich eindeutig in Richtung Signal. Ich habe das mal grob überschlagen und 80% meiner Kontakte sind auf WhatsApp, 30% haben Signal und lediglich eine Handvoll Threema. Hier gab es auch überhaupt keinen Zuwachs zwischen Februar und heute, während Signal massiv gewonnen hat und sogar einige Gruppe von WhatsApp nach Signal umgezogen wurden.

Die Ursachen sind mir nicht so ganz klar, aber Shitstorms und die Zielrichtung von Massenbewegungen sind ja oft nicht ganz nachvollziehbar. Wir können ja schon froh sein, dass endlich Telegram als das wahrgenommen wird, was es ist: Der noch schlechtere Messenger als WhatsApp.

Mich würden eure Erfahrungen interessieren, sofern ihr ebenfalls alle drei Messenger nutzt (oder auch noch andere). Läuft die Entwicklung auch eher auf Signal zu oder ist das bei euch differenzierter?

Der Artikel Messenger: Signal hängt Threema ab? erschien zuerst auf [Mer]Curius

Bibliotheksverbünde – Open Source oder proprietäre Cloud

28. Mai 2021 um 11:39
Von: Gerrit

Es ist eine Welt, die viele schon unwissentlich betreten und genutzt haben, aber fast niemand kennt: Bibliotheksverbünde. Im Zuge eines großen Systemwechsels steigen alle deutschen Verbünde demnächst auf Next-Generation-Systeme um. Die Frage lautet nur: Open Source oder proprietäre Cloud.

Ich schreibe eher selten über meine Arbeit oder Bereiche im Umfeld meiner Arbeit. Nachdem ich hier nun kürzlich eine Ausnahme gemacht habe, möchte ich über einen weiteren Aspekt schreiben, weil es hier durchaus interessante Schnittstellen zu anderen hier diskutierten Themen gibt.

Es ist eine Welt hinter der Welt und die meisten kennen sie, ohne es zu wissen. Jeder, der in Deutschland studiert hat, hatte schon mal Berührung mit einem der Bibliotheksverbünde – meistens ohne es zu wissen. Denn nahezu jede deutsche Universitäts- und Hochschulbibliothek ist Mitglied in einem Verbund. Möglichkeiten zur Medienrecherche, Fernleihe, Lizenzierung von E-Ressourcen usw. usf. Hinter vielen dieser Dienstleistungen stecken Verbünde. Ähnlich wie die Leistungsportfolios der Bibliotheken stetig zunehmen, übernehmen die Verbünde auch immer mehr wichtige Leistungen: Langzeitarchivierung, Forschungsdaten, Digitalisierung und vieles mehr.

Alte Systeme – komplexe Strukturen

Auf IT-Seite arbeiteten bis vor Kurzem alle Verbünde für die Kerndienstleistungen mit „gut abgehangenen“ Systemen. Eine Einführung in die Details aus Zentral- und Lokalsystem, Katalogisierung, Ausleihe usw. erspare ich euch hier. Je nach Verbund/Bundesland ist dies in der Regel OCLC Pica, oder ALPEH und viele verschiedene Lokalsysteme.

Die Systeme erfüllen aktuelle Anforderungen (mehr schlecht als recht würden manche sagen) aber alle Verbünde stehen nun vor der Herausforderung, auf sogenannte Next-Generation-Systeme zu wechseln. Um einen Eindruck der Herausforderungen zu vermitteln, die sich mit den bisherigen Systemen schlecht abdecken lassen, ein paar Schlagworte: Veränderte Publikations- und Leseverhalten erfordern gemeinsame Workflows für gedruckte, elektronische, lizenzierte Medien. Nutzer erwarten mehr als einen klassischen OPAC, sondern wollen moderne Discovery-Systeme. Immer mehr Bereiche und Dienste sollen mittels Schnittstellen angebunden werden. Vieles davon wurde auch schon mit heißer Nadel an die alten Systeme angenäht.

Dabei müssen zugleich viele alte Strukturen weiterlaufen. Nur um einen Eindruck zu vermitteln, was das sein könnte: Die Recherche nach Literatur basiert auf einer Katalogisierung. Diese geschieht für Außenstehende wie von Geisterhand, aber dahinter steckt viel Arbeit im Rahmen der gemeinsamen Katalogisierung der Bibliotheken in den Verbünden mit einem umfassenden Import und Abgleich von Fremddaten, sowie der Verknüpfung mit Normdaten wie z.B. der GND.

Die Zukunft ist jetzt – Nur welche?

Die Frage, vor der alle Verbünde stehen, ist die gleiche, vor der viele andere Bereiche stehen: Anbieter-Cloud oder Eigenentwicklung.

Wie in vielen anderen Bereichen gibt es infolge einer umfassenden Marktkonzentration nur wenige Anbieter für Next-Generation-Systeme. ALMA von ExLibris (gehört zu ProQuest bzw. nun auch zu Clarivate) oder WMS von OCLC.

Bindet man sich an diese Anbieter, speisen die Verbünde bzw. die beteiligten Bibliotheken ihre Daten in die Cloud der jeweiligen Anbieter ein – mit allen Vor- und Nachteilen. Dies kann man stark verkürzt so zusammenfassen: Man wird den Betrieb der Systeme los und kauft diese als Dienstleistung ein, aber man macht sich nahezu vollständig von einem Anbieter abhängig, der zukünftig ggf. viel schlechtere Bedingungen bietet. Umstiege sind zwar theoretisch auch in Zukunft möglich, aber gangbare Exit-Strategien unklar und die Kosten vermutlich hoch. Es handelt sich also um die klassischen Lock-in-Effekte.

Neben diesen beiden proprietären Playern gibt es im wesentlichen noch FOLIO als Open Source-Alternative. FOLIO ist ein Community-Projekt, das sich als Gegengewicht bzw. Alternative zu ALMA und WMS begreift und als wesentliche Stütze auf die Unterstützung von EBSCO zurückgreifen kann.

Der richtige Weg ist durchaus umstritten und die deutschen Verbünde nehmen unterschiedliche Wege. Manche Verbünde haben auch noch überhaupt keine Entscheidung getroffen. Der NRW-Verbund hbz ist auf ALMA gewechselt, ebenso die Berliner Universitätsbibliotheken des kobv.

Wie das für den Anwender aussieht, kann jeder beispielsweise bei einer Recherche im Katalog der HU Berlin anschauen. Das Discovery System ist das Primus-System auf Basis von ExLibris-Primo. Startet man eine Suche, bleibt man zwar optisch im Corporate Design der HU, aber die Adresszeile verrät bereits, dass man in die Cloud von ExLibris gewechselt ist.

Andere Verbünde bewerten die drohende Abhängigkeit anders als hbz und kobv – allerdings mit unterschiedlichen Konsequenzen. Der bayrische Verbund streitet noch über den Weg. Der hessische Verbund hebis evaluiert zur Zeit seine Optionen unter ausdrücklicher Einbeziehung von FOLIO.

Die genaue Umsetzung der Migration und der Umfang der Umstellung und welche anderen Systeme zusätzlich zum Einsatz kommen, steht natürlich noch auf einem anderen Blatt. Vermutlich wird man hier in 5-10 Jahren eine gänzlich andere Landschaft vorfinden als wir sie heute haben.

Warum ist das interessant?

Hinter dieser Entwicklung stehen dieselben großen Fragen wie bei vielen anderen Debatten über den Einsatz von Open Source im öffentlicher Bereich. Was möchte oder muss man auslagern? Wie steht es um den Datenschutz, wenn man alle Recherchierenden in die Anbieter-Clouds schickt? Ist es sinnvoller, Dienstleistungen bei einem Anbieter einzukaufen oder selbst Expertise zu entwickeln oder aufrecht zu erhalten? Können staatliche Einrichtungen im selben Maße langfristig nicht nur den Betrieb sicherstellen, sondern auch innovative Entwicklung gewährleisten? Sind die Mittelgeber – also primär die Bundesländer – bereit das mit der notwendigen Finanzierung zu gewährleisten?

Letztlich ist das auch eine Frage der digitalen Souveränität, denn die Wissenschaftlichen Bibliotheken sind ein wichtiger Bestandteil der wissenschaftlichen Infrastruktur in Deutschland mit essenziellen Dienstleistungen für Forschung und Lehre. In einem Land, das keine großen natürlichen Ressourcen als Basis seines wirtschaftlichen Wohlstands hat und daher auf die Innovationskraft seiner Gesellschaft angewiesen ist, keine unwesentliche Sache. Hier muss man sich fragen, wie abhängig diese wissenschaftliche Infrastruktur von einzelnen Firmen gemacht werden darf. Eine Frage, die im Zuge der zunehmenden Konzentration im Bereich der Verlage und Firmen im Umfeld der Wissenschaften weit über die Bibliotheksverbünde hinaus weist. Hier entwickelt sich seit längerem eine massive Abhängigkeit mit gefährlichen und unabsehbaren Folgewirkungen.

Hinter diesen Einrichtungen und Firmen stehen große Player und Institutionen mit großen Budgets. Die Auswirkungen dieser Entscheidung auf das Leben der deutschen Bürger ist viel größer (statistisch studieren ja circa 50% eines Jahrgangs) als der Umstieg von Dortmund auf Open Source. Weil das Thema sich aber nicht unterkomplex auf die Schlagworte wie z. B. Windows vs. Linux runtergebrochen werden kann, findet es wenig Beachtung in den entsprechenden Medien.

Ich hoffe dennoch, dass dieser kleine Ausflug in eine andere (und für viele vermutlich fremde) Welt Interesse geweckt hat.

Der Artikel Bibliotheksverbünde – Open Source oder proprietäre Cloud erschien zuerst auf [Mer]Curius

Lesetipp: Tracking durch Wissenschaftsverlage

27. Mai 2021 um 19:46
Von: Gerrit

Die Wissenschaften und Universitäten gehören zu jenen Bereichen, die sich nicht vorwerfen lassen müssen, die Digitalisierung verschlafen zu haben. Digitale Publikationen haben aber einen gravierenden Nachteil: Sie ermöglichen die Erhebung und Auswertung der Daten durch Verlage.

Das klassische gedruckte Buch hatte einige Vorteile. Einer davon war, dass es seinen Leser nicht überwachen konnte. Wie lange man auf einer Seite bleibt, was man überblättert, welche Fußnoten man betrachtet, wann man in das Literaturverzeichnis wechselt – das Buch wusste es nicht und der Verlag ebenso wenig.

Das gedruckte Medium ist nicht gänzlich Tod, aber in immer mehr Fächern erfolgt ein Großteil der Wissenschaftskommunikation nicht mehr über gedruckte Medien.

Das eröffnet ganz neue Chancen und Möglichkeiten und viele davon sind positiv. Beschleunigung der wissenschaftlichen Erkenntnis, globale Verteilung von Informationen, potenziell sinkende Barrieren für Publikation und Lektüre, Preprints, Postprints, Zweitveröffentlichung, Open Access – nur um mal ein paar Schlagwörter zu nennen.

Damit einhergehen aber auch Risiken und nicht intendierte Nebenwirkungen. Die großen Wissenschaftsverlage, die im Zuge einer umfassenden Marktkonzentration quasi Monopolstellungen erreicht haben, möchten ihre lukrativen Geschäftsmodelle keineswegs preisgeben. Stattdessen erschließen sie sich ganz neue Möglichkeiten: Umfassende Datenerhebung, Datenauswertung und vor allem Kommerzialisierung der gewonnenen Daten.

Die Verlage beginnen zunehmend dieses Potenzial zu entdecken (voran geht mal wieder Elsevier – wen wundert es) mit allen Gefahren für die Wissenschaft.

Der Themenkomplex ist viel zu groß für einen Blogartikel, aber wer sich für den Themenkomplex interessiert, dem sei das aktuelle Informationspapier der DFG zu dem Thema empfohlen. Die wesentlichen Punkte kann man auch bei netzpolitik.org nachlesen.

Die Entwicklung ist so langsam in den Fachkreisen angekommen und dürfte noch einige Diskussionen nach sich ziehen. Ausgang der Entwicklung ungewiss.

Der Artikel Lesetipp: Tracking durch Wissenschaftsverlage erschien zuerst auf [Mer]Curius

Cryptsetup und BitLocker To Go

24. Mai 2021 um 14:24
Von: Gerrit

BitLocker To Go ist Microsofts Lösung zur Verschlüsselung von USB-Sticks und externen Festplatten. Unter Linux lassen sich entsprechend verschlüsselte Speichermedien mit Cryptsetup 2.3 und neuer verwenden.

Das ist jetzt eher ein Blogartikel aus der Rubrik „Und so einfach kann es gehen“. Zu Testzwecken hatte ich mit einem aktuellen Windows 10 Pro einen USB-Stick mit BitLocker to Go gesichert.

Den Stick habe ich anschließend an mein Linux-System angeschlossen und in Dolphin ausgewählt. Es folgt die obligatorische Passwortabfrage wie z. B. auch bei LUKS verschlüsselten Speichermedien und anschließend kann man den Stick normal benutzen.

Cryptsetup 2.3 ist noch nicht in allen Distributionen enthalten, da gerade solche elementaren Basis-Werkzeuge oft zögerlich aktualisiert werden und es erst vor knapp einem Jahr veröffentlicht wurde. Das in wenigen Wochen kommende openSUSE Leap 15.3 enthält es aber ebenso wie das für den Sommer erwartete Debian 11 „Bullseye“. Spätestens mit der im kommenden Jahr erscheinenden LTS 22.04 von Ubuntu dürfte man dann Cryptsetup 2.3 auf Linux-Systemen voraussetzen können.

Ab dann wäre es eine Überlegung wert, für Betriebssystem-übergreifende Verschlüsselung auf BitLocker To Go anstelle von VeraCrypt zu setzen. Letzteres ist zwar Open Source, aber bei Weitem kein Standard (viele nutzen unverständlicherweise immer noch TrueCrypt) und man kann nicht darauf vertrauen, dass es vorinstalliert ist. Bei portablen Speichermedien immer noch ein großes Hindernis und ein Grund, weshalb viele gänzlich auf Verschlüsselung verzichten.

Ein Manko bleibt, dass Cryptsetup lediglich existierende BitLocker-Speichermedien einbinden, aber selbst keine anlegen kann. Ebenfalls beschränkt sich die Unterstützung auf normale Passwortabfragen. Erweitere Sicherungen wie SmartCards oder TPM werden nicht unterstützt.

Der Artikel Cryptsetup und BitLocker To Go erschien zuerst auf [Mer]Curius

CentOS Nachfolger AlmaLinux angetestet

23. Mai 2021 um 13:00
Von: Gerrit

Die faktische Abkündigung von CentOS durch Red Hat hat mehrere Nachfolgeprojekte entstehen lassen. Oracle versuchte seine eigene Distribution prominenter zu präsentieren, aus der Community kam noch Rocky Linux. Aussichtsreichster Kandidat ist aber wohl AlmaLinux.

Bei allen Projekte handelt es sich um freie Klone von Red Hat Enterprise Linux. Deshalb gibt es naturgemäß kaum Abweichungen zu RHEL und die Arbeit besteht „nur“ in der Übernahme der RHEL-Entwicklung. Man hat allerdings in den letzten Jahren bei CentOS gesehen, dass dieses „nur“ ganz schön viel Arbeit machen kann. Vor allem durch Neuerungen wie die App Streams, die Red Hat in Version 8 eingeführt hat.

RHEL und seine freien Klone dürften die meisten vor allem im Server-Kontext interessieren. RHEL bietet aber auch einen Desktop und hier wird es interessant, denn Red Hat bietet extrem lange Supportzeiträume. Anvisiertes Ende für RHEL 8 ist zur Zeit 2029. RHEL und seine freien Clone sind deshalb vor allem für Desktops interessant, die extrem lange (vermutlich sogar über die gesamte Lebenszeit der Hardware) stabil laufen sollen.

Installation von AlmaLinux

Zur Installation stehen einige Images bereit. Es gibt u.a. eine minimale und eine vollständige ISO. Die Installation erledigt das von RHEL und Fedora bekannt Anaconda mit all seinen Stärken und Schwächen (Partitionierung!).

Die Installation einer grafischen Oberfläche ist in der Installationsroutine dezidiert nicht vorgesehen. Da zeigt sich wieder mal der Server-Fokus. Dafür gibt es die Möglichkeit, ein „kopfloses Management“ einzurichten. Die schönen Fallstricke der Lokalisierung.

Es muss also zuerst eine minimale Variante installiert werden und anschließend nachträglich die Desktopumgebung.

Dies geschieht nach einem Neustart auf der Kommandozeile mit folgendem Befehl.

# dnf groupinstall "Server mit GUI"

Von dem „Server“ nicht irritieren lassen. Die Bezeichnung ist etwas komisch und könnte falsche Schlussfolgerungen aufkommen lassen. Ich vermute, dass bei der Gruppenbezeichnung der X-Server gemeint gewesen ist.

Anschließend muss man noch festlegen, dass das System direkt im grafischen Modus startet.

# systemctl set-default graphical

Nach einem Neustart begrüßt einen GDM.

Desktop und Programme

AlmaLinux enthält genau wie RHEL nur GNOME. Nachdem man in der letzten Version KDE rausgeschmissen hat, macht Red Hat hier keine Kompromisse mehr. Alle RHEL-Klone sind deshalb nur für Anwender interessant, die mit GNOME arbeiten können und wollen.

GNOME liegt in Version 3.28 vor. Das ist natürlich schon ein bisschen älter, aber ich wüsste nicht, welche Funktionen danach hinzugekommen wären, die wirklichen Mehrwert bringen. Die Auswahl an vorinstallierten Programmen ist sehr reduziert und beschränkt sich auf die wesentlichen GNOME Programme.

Firefox wird in der aktuell vorliegenden ESR-Variante 78 ausgeliefert, LibreOffice in 6.4.

Die Programmauswahl in den Paketquellen ist natürlich eingeschränkt, wobei für normale Desktopanforderungen nicht wirklich etwas fehlt.

Ansonsten ist Flatpak in den Paketquellen enthalten, womit sich auch aktuelle Programmversionen beliebiger Software z. B. über Flathub installieren lassen.

Zusammengefasst

Wer gerne mit GNOME arbeitet und Ruhe am Desktop haben will, für den ist AlmaLinux sicherlich nicht uninteressant. Ich würde mir ja genau so etwas für KDE wünschen.

In jedem Fall ist AlmaLinux allem Anschein nach ein würdiger CentOS-Nachfolger und kommt entsprechend nun hier auf die Seite mit den LTS-Empfehlungen.

Der Artikel CentOS Nachfolger AlmaLinux angetestet erschien zuerst auf [Mer]Curius

LTS Versionen reichen völlig – Von Kubuntu 8.04 zu 20.04

22. Mai 2021 um 17:57
Von: Gerrit

Als Anwender kann man getrost LTS-Versionen verwenden, denn es gibt keine substanzielle Entwicklung, die man droht zu verpassen. Es gibt nur das Hochzählen von Versionen und die Illusion von Entwicklung durch Changelogs voller Fixes, die Probleme beheben, die man zwei Versionen vorher eingeführt hat.

Übertreibe ich etwas? Sicherlich! Aber nicht so sehr, wie manche Befürworter von Rolling Release-Modellen behaupten würden.

Die Präferenz für LTS-Distributionen ist für langjährige Leser sicher nicht neu. Bereits seit vielen Jahren gibt es auf [Mer]Curius eine Übersichtsseite für geeignete Distributionen und die wesentlichen Gedanken habe ich vor ein paar Monaten schon mal zusammen gestellt.

Die Idee zu diesem Artikel kam mir, als ich vor ein paar Wochen ein paar Kubuntu 18.04 Installationen auf 20.04 aktualisierte. Neuerungen gab es keine merkbaren und das obwohl die KDE-Entwicklung von 2 Jahren in das Release eingeflossen war. Da die Systeme ihre Aufgaben völlig zufriedenstellend erledigen, ist das natürlich kein Problem – nun erledigen sie ihre Aufgaben eben mit 20.04 anstelle 18.04 und vorher 16.04. Doch gab es überhaupt substanzielle Neuerungen in den letzten 10 Jahren, auf die man unmöglich 2-3 Jahre warten konnte?

Die erste Reaktion ist sicherlich: Klar, natürlich gab es die. Es waren so viele Jahre und so viele Releases, da muss sich doch viel substanzielles getan haben. Zumal KDE noch eines der aktiveren Projekte am Linux-Desktop ist und nicht gerade für langfristige Produktpflege steht.

Andererseits wird der Linux-Desktop insgesamt sehr konservativ weiterentwickelt. Das betrifft nicht nur MATE und Xfce, sondern auch GNOME und KDE. Ja, auch diese beiden! Die GNOME Shell war natürlich ein harter Bruch, aber seitdem hat sich kaum noch was getan, auch mit GNOME 40 waren das eher graduelle Veränderungen. Nimmt man die Classic Shell sind die Veränderungen noch überschaubarer. Bei KDE gab es Plasma 4 und Plasma 5 und man hat den Code vermutlich zwei Mal ausgetauscht. Veränderungen? Seht selbst:

Ich habe zu Demonstrationszwecken mal die ISO von Kubuntu 8.04 gestartet und vergleiche hier mit ein paar Screenshots mit Kubuntu 20.04. Dazwischen liegen also gut 12 Entwicklungsjahre. Dabei nicht von den Symbolen und der QtCurve-Optik täuschen lassen. Man könnte ein heutiges Plasma ziemlich leicht wie KDE 3.5 aussehen lassen und umgekehrt.

Optische Entwicklung

Desktop mit Dolphin und Konsole

Systemeinstellungen

Office

Diese Serie ließe sich beliebig fortsetzen, da auch Kontact und andere Programme sich oberflächlich kaum verändert haben. KDE ist hier nur ein Beispiel, man könnte das problemlos auch für GNOME machen. Bei MATE und Xfce müsste man vermutlich nicht mal zwei Images starten, sondern könnte einfach das Wallpaper ändern und behaupten, dass 10 Jahre vergangen sind. Es gibt nur sehr wenige Endanwender-Programme, die so aktiv entwickelt werden, dass man wirklich zwingend jede Veröffentlichung mitnehmen muss. Browser gehören da dazu, aber dafür haben Distributionen schon lange Lösungen gefunden.

Das betrifft aber nicht nur die Optik, sondern auch die Funktionen. Kubuntu 8.04 liefert bereits eine vollständige Programm-Sammlung aus, die eigentlich keine Funktionen vermissen lässt, die man heute bei Kubuntu gewohnt ist. Das muss nicht als Kritik an Kubuntu 20.04 verstanden werden, sondern zeigt einfach wie weit der Linux-Desktop 2008 schon war und warum man damals von dem Vista-Debakel so profitieren konnte. Jedenfalls habe ich in Kubuntu 8.04 nichts gefunden, das mir fundamental fehlen würde. Natürlich kann OpenOffice noch nicht so gut mit OOXML umgehen, wie LibreOffice heute und natürlich kann man mit 8.04 nicht mehr produktiv ins Internet aber das sind die üblichen Anpassungen an moderne Standards.

Einordnung

Sicherlich gab es Veränderungen unter der Haube. Allerdings auch nicht so viel, wie man vielleicht vermuten mag. Denn das ubuntuusers-Wiki weiß für 8.04 schon zu berichten, dass mit PulseAudio und PolicyKit Technologien eingeführt wurden, die uns noch heute begleiten. Drucker laufen mit CUPS, Scanner mit sane. Die Abkehr von HAL stand ebenfalls kurz bevor. Ein Linux von heute funktioniert gar nicht so fundamental anders als 2008. Sogar X11 ist uns bis heute erhalten geblieben, denn Wayland ist immer noch nicht in der Breite angekommen.

Es gibt viele Gründe für diese eher überschaubaren optischen Neuerungen. Das Desktop-Konzept, dem alle Desktop-Betriebssysteme und eben auch alle Desktopumgebungen bei Linux folgen, hat sich seit 1995 nicht mehr substanziell verändert. Das gilt auch für die Funktionen, die wir am Desktop erwarten. Da hat sich nicht nur bei Linux, sondern auch bei Windows und macOS ein gewisser Konsens eingestellt. Die Linux-Community ist zudem besonders konservativ, weshalb man an UI-Richtlinien festhält, die bei Windows und macOS schon lange obsolet sind (siehe LibreOffice), wodurch noch weniger optische Brüche als bei anderen Systemen auftreten.

Viele andere Veränderungen mögen das Entwicklerherz erfreuen, aber ob der Desktop nun auf Qt3, Qt4, Qt5 oder in naher Zukunft Qt6-Toolkit setzt, ist dem Anwender doch herzlich egal. Das gleiche gilt im anderen Lager für Gtk2, Gtk3 oder eben Gtk4. Gleiches gilt für irgendwelche Neuentwicklungen, bei denen der Code dann in Qt Quick oder irgendeiner anderen „Fancy“-Sache neu geschrieben wird. Aus Entwicklersicht mag das klug sein, vielleicht sogar zukunftsweisend oder einfach nur Spaß machen. Als Anwender muss ich konstatieren, dass es für meine Anwendungsfälle nicht so wichtig ist, ob etwas aktuellen Standards entspricht oder nicht – sofern es funktioniert.

Wenn man die Changelogs der großen Softwareprojekte wie KDE mal um solche Veränderungen an der Codebasis, die den Anwender überhaupt nicht interessieren, reduziert und dann noch die Fehlerbehebungen von Bugs heraus nimmt, die durch solche Umbaumaßnahmen eben erst verursacht wurden, sind die Changelogs auch viel kürzer und spiegeln den faktischen Fortschritt. Es gab ihn, er ist auch auf den Screenshots und im Alltag merkbar, er ist aber nicht so groß wie die Zusammenfassung der Ankündigungen glauben macht.

Schlussfolgerungen

Deshalb soll man natürlich auf keinen Fall auf Updates verzichten – schon alleine um der Sicherheit willen. Genau deshalb hat die Linux-Welt die LTS-Distribution hervorgebracht, die Sicherheitsupdates bringen, ohne den Anwender mit neuen Funktionen und ihren Fehlern zu behelligen.

Ich kann aber wirklich nur empfehlen, mal diesen Vergleich mit der präferieren Distribution und der bevorzugten Desktopumgebung zu machen. Ständige Updates erzeugen ein Gefühl von Fortschritt, das sich teilweise von der Realität entkoppelt hat. Wenn KDE Gears mal wieder ein gebündeltes Release veröffentlicht, bedeutet das bei openSUSE Tumbleweed hunderte Paketupdates. Ich lehne mich nicht weit auf dem Fenster, wenn ich behaupte, dass in vielen der dort gebündelten Programme in der Entwicklungsphase bestenfalls 1 oder 2 Commits erfolgten.

Um dieses bisschen Entwicklung mitzunehmen, reichen LTS-Distributionen problemlos aus. Es gibt wirklich keine Notwendigkeit ein rollendes Release zu nutzen und der „Versionitis“ zu verfallen. Rational betrachtet tut sich zwischen den LTS-Versionen viel weniger als manche Ankündigungen glauben machen. Wenn man das Prinzip die letzten Jahre verfolgt hat, ist man von 8.04 über 12.04 zu 14.04 und von 18.04 zu 20.04 gekommen und hat nicht viel verpasst, aber seine Nerven geschont. Schade, dass Kubuntu nur noch 3-Jährige Supportzyklen hat. Für die realen Neuerungen reicht ein Distributions-Upgrade alle 3-5 Jahre völlig aus.

Eines ist jedoch jetzt schon klar: Wenn KDE Plasma 6 in Zukunft kommt, werde ich dem ganzen entspannt von einer LTS mit Plasma 5 zuschauen und andere die Bugs finden lassen, die durch den Wechsel der Basis Einzug gehalten haben. Irgendwann wird dann schon eine produktiv nutzbare LTS mit Plasma 6 kommen. Verpassen tut man da nichts.

Der Artikel LTS Versionen reichen völlig – Von Kubuntu 8.04 zu 20.04 erschien zuerst auf [Mer]Curius

Börsengang von SUSE – Ein paar Bemerkungen

20. Mai 2021 um 21:56
Von: Gerrit

Diese Woche hat eine der größten Firmen im Linux-Umfeld erfolgreich den Gang an die Börse geschafft. Zudem auch noch eine Firma mit Wurzeln in Deutschland. Es gab Berichte in allen großen Medien, teilweise sogar über die üblichen Agentur-Meldungen hinaus.

Ich bin ein großer (open)SUSE-Freund – das ist sicherlich bekannt – weil ich mit SUSE meine ersten Gehversuche unter Linux unternommen habe und finde, dass gerade in den letzten Jahren viel in die richtige Richtung lief. Eine Bilanz, die ich nicht für alle Bereiche des Linux-Ökosystems so ziehen würde. Natürlich habe deshalb neugierig die Meldungen zum Börsengang verfolgt.

Aber auch wenn man das Thema neutral betrachtet, ist SUSE eine der wichtigsten Firmen im Linux-Umfeld. Mit einem jährlichen Umsatz von knapp einer halben Milliarde US-Dollar und einer Börsenbewertung von nun ca. 5 Milliarden Euro ist SUSE zusammen mit Red Hat (das ja nun IBM gehört) einer der großen Player im Open Source Business. Ganz nebenbei gehört SUSE damit auch zu den größeren deutschen IT-Unternehmen.

Im Gegensatz zu seinem großen Konkurrenten hat SUSE eine bewegte Geschichte hinter sich. Novell, Attachmate, Micro Focus, zuletzt die Übernahme durch Private Equity Fonds und nun der Börsengang. Mehrfach hat man die Firma mit dem Chamäleon schon Tod gesagt.

Das Verhältnis zur Community hat sich nach Außen hin zuletzt entspannt. Die Produkte sind enger verzahnt denn je und openSUSE Leap und Tumbleweed haben einen erkennbaren Platz in der Strategie von SUSE.

Der Börsengang war dann auch einigen Medien eine Meldung wert. Immerhin handelte es sich dabei um einen der bisher größten Börsengänge des Jahres. Meistens die üblichen Meldungen wie bei Manager Magazin oder der SZ. Teilweise aber auch mit größeren Berichten wie bei tagesschau.de oder im Handelsblatt. Ich war ein bisschen überrascht davon, dass es bei Golem und Heise, die beide ja dem Anspruch nach IT-News für Profis bieten wollen, kaum über Agentur-Meldungen hinausgehende Berichte gab.

Lustig waren dafür die Kommentare auf Heise (ob der Redaktion die Kommentare eigentlich peinlich sind?). Wir wissen nun: Der durchschnittliche Heise-Kommentator ist mindestens Mitte 40 und hat in den letzten 20 Jahren keine ernst zu nehmende Position in einem ernst zu nehmenden Unternehmen bekleidet oder auch sonst nur relevante Einblicke erhalten, sondern sucht stattdessen in seinem Keller Pappkartons.

Ich denke man darf gespannt auf die weitere Entwicklung sein. Es ist gut für Linux neben Red Hat (IBM) auch noch eine weitere große Firma im Linux-Umfeld zu haben. Es ist außerdem sicherlich nicht schlecht für das Linux-Ökosystem, wenn ein Teil der Entwicklung auch durch originäre Open Source-Firmen vorangetrieben wird und nicht nur durch Firmen, die halt nebenbei auch zu Linux beitragen.

Dass diese Firma mit dem geglückten Börsengang nun auf etwas solideren Füßen steht ist zu begrüßen.

Der Artikel Börsengang von SUSE – Ein paar Bemerkungen erschien zuerst auf [Mer]Curius

Verified Boot – Leerstelle unter Linux?

14. Mai 2021 um 18:54
Von: Gerrit

Ein möglichst offenes und ein möglichst vertrauenswürdiges System widersprechen sich manchmal. Besonders deutlich wird dies beim Thema Verified Boot unter Linux.

Linux kennt mit LUKS/cm-crypt eine gute und sichere Verschlüsselungslösung. Man kann ein solchermaßen verschlüsseltes System sogar zusätzlich mit einem Hardware-Token wie z. B. einem YubiKey absichern. Doch woher weiß man beim Hochfahren eines Systems eigentlich, das man ein unverändertes System startet und nicht eine heimlich manipulierte Variante?

Ein sogenannter Verifizierter oder Vertrauenswürdiger Start (Verified / Trusted Boot) ist bei Mobilgeräten schon länger Standard. Der Ansatz ist – stark vereinfacht dargestellt – eine Vertrauenskette vom Bootloader, über die Boot-Partition bis hin zu den verifizierten System-Partitionen. Während des Systemstarts überprüft jede Stufe die Integrität und Sicherheit der nächsten Stufe, bevor sie übergibt. Erkennt das System eine Manipulation, führt es automatisch einen Rollback zur letzten verifizierten Version durch.

Klassische Desktop- oder Notebooksysteme kennen so etwas nicht. Das meist völlig ungesicherte BIOS erlaubt den Start von jedem beliebigen Medium und sofern man dabei nicht den Bootloader versehentlich zerstört, kann man so ziemlich alles mit dem System machen, was man möchte.

Apple hat das Prinzip des Verified Boot bereits vor längerer Zeit auf den Desktop gebracht mit den sogenannten T1/T2 Sicherheitschips. Der T1 brachte die Secure Enclave vom Mobilgerät auf das MacBook bzw. den iMac, der T2 brachte den sichereren Start.

Bei normaler Desktop-/Notebook-Hardware wäre so etwas theoretisch auch möglich. Microsoft hat vor einigen Jahren mit Secure Boot versucht, einige Schritte in diese Richtung zu unternehmen. Aus der ersten Debatte um diese Funktion hat sich leider in der Linux-Community das Gerücht gehalten, dass man Secure Boot immer deaktivieren sollte. Dabei funktionieren professionelle Linux-Distributionen schon lange mit Secure Boot (und alle anderen verwendet man sowieso nicht, wenn einem Sicherheit wichtig ist).

Alle heute verkauften Geräte haben zudem einen sogenannten TPM-Sicherheitschip (verdankt man den Basis-Anforderungen von Microsoft). Die neueste systemd-Version unterstützt nicht nur die Bindung der LUKS-Verschlüsselung an diesen TPM-Chip, sondern SUSE hat auch eine Implementierung von Trusted Boot für GRUB entwickelt (mehr Informationen dazu), die theoretisch mit dem TPM-Chip zusammen arbeitet.

Meiner Meinung nach sind das sinnvolle Schritte in die richtige Richtung. Wie immer stört das natürlich die Frickler und Bastler in der Community, aber wenn man im Bereich Sicherheit am Ball bleiben möchte, kann man diese Entwicklung nicht ignorieren.

Secure Boot ist unter openSUSE schon lange kein Problem mehr, mit der nächsten systemd-Version werde ich mein LUKS-Systemvolume auch an den TPM-Chip binden. Danach folgt dann TrustedGRUB/Trusted Boot aber hier scheint es noch wenige Erfahrungen und folglich auch wenige Bericht zu geben.

Der Artikel Verified Boot – Leerstelle unter Linux? erschien zuerst auf [Mer]Curius

Windows 10 – Dark Patterns und eine Funktionweise von 1995

14. Mai 2021 um 17:14
Von: Gerrit

Wenn man sich fragt, warum so viele Menschen Probleme mit der Bedienung von PCs haben, ist die Antwort: Windows 10. Die Symbiose von Dark Patterns zusammen gestümperter Benutzeroberfläche und einer Funktionsweise von 1995. Ein Fall für: Echt jetzt?

Ich nutze alle möglichen technischen Geräte und bin bei Betriebssystemen überhaupt nicht eingeschränkt. Android, iOS, Linux, macOS – ich nutze alles. Nur Windows ist bei mir privat aus dem Blickfeld geraten. Die katastrophale Datenschutz-Politik von Microsoft sei Dank.

Windows nutze ich normalerweise nur als Anwender auf meinem Arbeitsgerät. Datenschutz ist da nicht mein Problem. Als reiner Anwender schlägt man sich naturgemäß nicht mit der Administration herum und verändert auch keine Einstellungen. Dateiexplorer, Outlook, Taskleiste, Word, Excel – mit mehr kommt man nicht in Berührung. Gott sei Dank!

Nun hatte ich das zweifelhafte Privileg, mal wieder ein Windows 10 einrichten zu dürfen. Es kam schlicht kein anderes System infrage und innerhalb der Familie bin ich ein hilfsbereiter Mensch. Was für eine Erfahrung! Wie kann irgendjemand sich das noch freiwillig antun?

Bei der Ersteinrichtung fragt Microsoft in unzähligen Schritten, ob ich meine Seele an den Teufel verkaufen möchte und alle meine Daten nach Redmond schicken will. Hier kann man wenigstens noch gefühlte 10 Mal beherzt „Nein“ klicken. Ein lokales Konto bekomme ich nur mit getrenntem Netzwerk und der Zustimmung, dass ich auf eine tolle Anwendererfahrung verzichten will. Teilweise muss ich aufgrund komplizierter Formulierungen auf „Ja“ klicken, um das gewünschte und eigentlich intuitive „Nein“ zu bekommen. Andere Optionen sind nicht als Button hinterlegt, sondern als versteckter Link. Dark Patterns wie aus dem Lehrbuch. Sonst noch was Microsoft?

Ach richtig, nach ein paar Tagen nervt ihr eure Anwender weiter und versucht sie zu einem Onlinekonto zu überreden:

Ist man erst einmal auf dem Desktop, klickt man sich auch nach fast 10 Jahren Entwicklungszeit durch einen Wirrwarr aus Benutzerinterfaces von drei Jahrzehnten. Wie viele Mitarbeiter Microsoft wohl noch an Windows entwickeln lässt? 2? Den Nachfolger hat man eben beerdigt. Dagegen ist ja ein Linux mit drei Desktopumgebungen und einem Mischmasch aus Qt und Gtk-Programmen konsistent.

Exzessives Bedienen einer Suchmaschine und Veränderungen in der regedit waren notwendig, um unerwünschte Datenübertragung, die integrierte Bing-Suche usw. usf. abzuschalten. Manchmal fand man in irgendwelchen GUIs tatsächlich auch eine grafische Option. Nur natürlich nicht dort, wo man sie vermutete.

All das hatte ich erwartet. Wirklich die Fassung verlor ich beim Versuch Programme zu installieren. Dabei ging es um so was extrem illegales wie ein Microsoft Office 2019 (kein 365!) für das ein gültiger Lizenz-Key vorlag. Wer sich den Albtraum mal ansehen will, kann hier versuchen eine Installationsdatei zu bekommen, wenn man keinen Account hat und ohne dabei ein 365-Abo zu klicken.

Es endete mit irgendwelchen dubiosen Seiten, die mir den Weg zu versteckten img-Dateien auf Microsoft-Servern zeigten. Bei vielen anderen Programmen war das kaum besser. Transparenz, Vertrauenswürdigkeit, Überprüfbarkeit der Downloads – das kennt man im Microsoft-Ökosystem auch 2021 noch nicht.

Windows könnte echt im BWL-Lehrbuch als Paradebeispiel für Cashcow stehen. Ein Produkt, das massenhaft Geld abwirft und keine Zukunft hat, aber in das man als Firma auch kaum noch substanziell Arbeit stecken muss.

Denn ernsthaft. Microsoft hat ja nicht nur den Mobile-Zug komplett verpasst, es hat auch jede Entwicklung auf Desktopsystemen bei macOS und Linux ignoriert. Geschweige denn mal der radikale Versuch, sich von Altlasten zu trennen. Das System läuft genau so wie Windows 1995 (oder 2000 wenn man Wert auf die NT-Basis legt) plus ordentlich Datensammlung.

So lange man als Unternehmen damit viel Geld verdient, ist das natürlich nachvollziehbar. Was ich wirklich nicht verstehe: Wie kann man dieses Produkt mögen und sich in den Kommentarspalten als Fan engagieren? Stockholm-Syndrom? Masochismus? Selbsthass?

Zwei Tage mit Windows 10 hatten aber den schönen Effekt einer Selbst-Kalibrierung. Lange her, dass ich meine Linux-Systeme so geschätzt habe. Selbst das vollkommen verbastelte Kubuntu 20.04, das mal ein Kubuntu 16.04 war und momentan einige Probleme macht. Alles ist besser als Windows 10.

Windows ist die Ursache, warum so viele Menschen keinen PC bedienen können. Man kann Windows nicht bedienen, weil es keine Logik und kein System hat und die Entwicklung von mindestens 20 Jahren leugnet.

Der Artikel Windows 10 – Dark Patterns und eine Funktionweise von 1995 erschien zuerst auf [Mer]Curius

HP EliteBook G7 – Firmware Updates unter Linux

12. Mai 2021 um 09:07
Von: Gerrit

Seit Januar ist mein privates Haupt-Arbeitsgerät ein HP EliteBook G7 440. Die Linux-Kompatibilität ist hervorragend und das Gerät für mich perfekt. Firmware-Updates kann man auch als Linux-Anwender machen.

Die lange Unterstützung mit Firmware-Aktualisierungen ist eine der Stärken von Business-Notebooks. Egal ob sie von Lenovo, Dell oder eben HP stammen. Ein nicht zu unterschätzender Vorteil, da sich auch in der Firmware Sicherheitslücken und Bugs befinden können.

In meinem Bericht zum Gerät bemängelte ich damals die fehlende Unterstützung durch LVFS/fwupd. Prinzipiell ist das zwar eine tolle Infrastruktur, aber bisher habe ich noch kein Gerät gefunden, das dadurch mit Updates versorgt wird. Weder das alte ThinkPad, noch eben das neue EliteBook. Lediglich der Dongle meiner Logitech-Maus hat damit tatsächlich mal ein Update spendiert bekommen.

Allerdings wollte ich das letzte „BIOS“-Update nun wirklich haben, weil es Probleme mit den Tasten zur Helligkeitssteuerung unter Linux beseitigt. Ein bisschen Recherche brachte mich nun dazu, dass es viel einfacher als gedacht sein kann.

Im „BIOS“-Menü gibt es eine Funktion „BIOS-Update“. Sofern das Gerät per Ethernet mit dem Internet verbunden ist, lädt die Funktion alle Firmware-Updates für die verbaute Hardware (UEFI, SSD, Thunderbold, Intel ME) automatisch herunter und installiert sie. Völlig egal was für ein Betriebssystem installiert ist. Damit natürlich auch für Linux-Nutzer. Die Warnung für Nutzer der BitLocker-Verschlüsselung kann man dabei getrost überspringen.

Damit ist das letzte Manko an dem Gerät im Linux-Einsatz für mich beseitigt. Allerdings ist es natürlich eine Erinnerung daran, wie viele Funktionen sich inzwischen in der Firmware eines Notebooks (vom Hersteller oft noch „BIOS“ tituliert) befinden. Ein nicht zu unterschätzender Aspekt, wenn man über Privatsphäre und Datenschutz in Kombination mit Betriebssystemen diskutiert.

Der Artikel HP EliteBook G7 – Firmware Updates unter Linux erschien zuerst auf [Mer]Curius

Föderierte Messenger – Konzeptionelle Probleme am Beispiel Matrix

11. Mai 2021 um 19:56
Von: Gerrit

Föderierte Systeme sind in einigen Kreisen gerade sehr angesagt. Das Konzept ist nicht neu, hat aber mit Matrix (Element), Mastodon und anderen Instanzen des Fediverse inzwischen neue prominente Vertreter. Hinsichtlich Datenschutz und digitaler Privatsphäre haben diese Systeme aber strukturelle Probleme.

Föderiert vs. Zentral

Föderierte Systeme sind das Gegenteil von zentralisierten Systemen, die von ihren Kritikern auch gerne als „Walled Gardens“ bezeichnet werden. Zentralisierte Systeme werden so bezeichnet, da in ihrem Kern eine zentral verwaltete Serverinfrastruktur steht, über welche die beteiligten Clients miteinander kommunizieren. Das System nutzen nahezu alle proprietären Dienste, aber auch freie Systeme wie Signal.

Föderierte Systeme bestehen dagegen aus einem Netz unabhängiger Server, auf denen dieselbe bzw. eine kompatible Software läuft, die miteinander kommunizieren und gewissermaßen ein Netz bilden. Das System kennt eigentlich jeder Anwender, da die E-Mail so funktioniert. Praktisch gesagt: Während man von WhatsApp zu Signal keine Nachricht schreiben kann, geht das von GoogleMail zu Posteo natürlich schon. Im Messenger-Bereich ist es auch nichts wirklich neues, denn XMPP („Jabber“) funktioniert ebenfalls nach diesem System.

Ein föderiertes System ist beim Aspekt der Unabhängigkeit vom zentralen Anbieter unschlagbar. Es wird deshalb vor allem von Befürwortern der digitalen Souveränität gerne hervorgehoben. Bei zentralisierten Systemen wie z. B. Signal hängt alles vom zentralen Betreiber ab. Schaltet Signal seine Server ab, ist das Kommunikationsnetz Signal Geschichte. Die Serversoftware ist zwar quelloffen, aber ein neuer Betreiber könnte nicht automatisch an die Stelle des ehemaligen zentralen Betreibers treten.

Risiken offener Protokolle

Ein grundlegendes Risiko dieser offenen Protokolle zeigt schon ein Blick auf die Geschichte von XMPP. Ist die Entwicklung noch jung, gibt es meist nur einige wenige Clients und eine Serversoftware. Die Zahl der Betreiber und Nutzer ist ebenso noch recht gering. Neue Funktionen und Änderungen am Protokoll werden schnell verteilt und erreichen schnell alle beteiligten Anwender.

Mit der Zeit differenzieren sich die Softwarelösungen aber immer mehr aus. Genau das finden die Befürworter solcher Systeme ja auch gut. Änderungen und sinnvolle Weiterentwicklungen brauchen immer mehr Zeit, um alle Beteiligten zu erreichen. Es wird immer mehr zurückhängende Instanzen geben und Inkompatibilitäten im Netzwerk.

Ein Beispiel dafür ist die Einführung von OMEMO bei XMPP, die bis heute nicht alle Clients erreicht hat. Ein anderes Beispiel ist die klassische E-Mail, wo immer noch nicht alle Server standardmäßig Transportverschlüsselung anbieten. Kunden von Posteo konnten vor einigen Jahren einstellen, dass eine E-Mail nicht verschickt wurde, wenn die Gegenseite keine Transportverschlüsselung gewährleistete. Das waren insbesondere in der Anfangszeit ganz schön viele, ist mit der Zeit aber natürlich weniger geworden.

Systembedingte Probleme

Die Zeit kann aber nicht alle Probleme lösen. Einige Schwierigkeiten sind systemimmanent und können nicht sinnvoll überwunden werden. Sobald man Matrix nutzt, ist man Teil des föderierten Netzwerkes. Die einzelnen Instanzen müssen miteinander Daten austauschen können, da man ansonsten nur mit anderen Anwendern des Servers kommunizieren könnte, auf dem man selbst registriert ist.

Während man bei einem zentralisierten Anbieter wie Signal nur einem Anbieter vertrauen muss, bedarf der Einsatz von Matrix Vertrauen in alle Anbieter von Matrix-Serverinfrastruktur. Das ist umso gefährlicher, weil Metadaten-Vermeidung strukturell bei verteilten Infrastrukturen aufgrund der Einbeziehung vieler Server und Clients schwierig ist.

Ein paar praktische Beispiele: Alle an einer Kommunikation beteiligten Matrix-Server speichern beispielsweise theoretisch unbegrenzt die komplette Kommunikation. Umso bedenklicher, da einige Clients des heterogenen Ökosystems (siehe Nachteile solcher Netzwerke oben) wie KDEs NeoChat nicht mal Verschlüsselung beherrschen. Gleichwohl würde das sowieso nur die Inhalte und nicht die Metadaten schützen. Man kann Nachrichten zwar löschen, aber technisch handelt es sich dabei lediglich um eine Art „Löschwunsch“ an andere Server, ob diese das auch umsetzen, entzieht sich der Kontrolle.

Der Homeserver, auf dem man sein Konto angelegt hat, speichert zudem noch deutlich mehr: Kontaktliste, Mitgliedschaften in Gruppenchats, Nachrichtenverläufe usw. Diesem Betreiber muss man extrem vertrauen. Allerdings hat man hier wenigstens ein wenig Steuerungsmöglichkeit.

Nicht das Ende der Probleme

Dabei handelt es sich noch nicht mal um das Ende der Fahnenstange. Es gab im Gegensatz zu Signal oder Threema keinen Audit der kompletten Infrastruktur, sondern nur 2016 der E2E-Verschlüsselungslösung. Die Implementierung von E2E-Verschlüsselung in den Clients steht noch auf einem ganz anderen Papier. Oft ist ja nicht die Verschlüsselung das Problem, sondern die Umsetzung im Client. Ein Problem das vor allem bei so heterogenen Ökosystemen natürlich zum Problem wird, weil man nicht weiß was die anderen Beteiligten für Software nutzen.

Die Finanz- und Entwicklungsstruktur der zentralen Bausteine sind auch kein Beispiel für Transparenz. Matrix bzw. Element (ehm. Riot) wird primär von der New Vector Ltd. entwickelt. Eine Firma, die nicht gerade die transparenteste Finanzsituation hat. Hier ist man gegenüber Signal oder auch Telegram nicht im Vorteil.

Alles schlecht? Nein, aber die falsche Außendarstellung

Sind föderierte Kommunikationssysteme im Allgemeinen und Matrix im Speziellen deshalb schlecht? Nein! Zumindest wenn man die richtige Perspektive wählt und keine falschen Erwartungen weckt.

Zentrale Systeme haben Nachteile, weil man sich abhängig von einem Betreiber macht. Im Hinblick auf eine digitale Souveränität des Individuums, kleiner Gruppen, Firmen oder gar Staaten können föderale Systeme einen Ausweg bieten. Je nach Anforderungen und Wünschen ist das ein interessantes Angebot.

Das hat aber alles nichts – wirklich gar nichts – mit Datenschutz und digitaler Privatsphäre zu tun! Wer bei dieser langen Liste von Defiziten und Problemen zum aktuellen Zeitpunkt Matrix als Privatsphären- und Datenschutz-freundliche Alternative zu Signal oder Threema bewirbt, hat ganz gewaltige Scheuklappen auf. Ich finde es erschreckend wie viele Kommentatoren sich hier vom Begriff der digitalen Souveränität und dem Open Source-Charakter blenden lassen.

Der Artikel Föderierte Messenger – Konzeptionelle Probleme am Beispiel Matrix erschien zuerst auf [Mer]Curius

Metadaten – Immer noch zu wenig beachtet

09. Mai 2021 um 16:16
Von: Gerrit

Wir erheben nur Metadaten“ – Wie oft hat man diesen Satz in den letzten Jahren gehört. Dabei sind Metadaten das wahrlich interessante und Metadaten-Vermeidung, die hohe Kunst. Dieser Aspekt ist leider in der Praxis oft immer noch im toten Winkel der Debatte.

Definition: Metadaten oder Metainformationen sind strukturierte Daten, die Informationen über andere Daten enthalten. Das kann ganz unterschiedliche Bereiche umfassen. Im hier behandelten Kontext meint es Informationen wie Wer, wann, wo, mit wem, worüber usw.

Ein lange bekanntes Problem

Bei jeder Novelle der Überwachungsgesetze und bei jedem Skandal um Telemetrie-Datenerhebung durch Firmen kommt zuverlässig das Argument, dass man nur Metadaten sammeln würde und die Inhalte nicht tangiert wären. Die meisten Menschen sind dann beruhigt, weil sie glauben, ihre wahrhaft sensiblen Daten wären weiterhin geschützt. Weit gefehlt!

Für einen Einstieg in die Materie empfiehlt sich immer noch ein Artikel auf netzpolitik.org von 2014: Wie dein unschuldiges Smartphone fast dein ganzes Leben an den Geheimdienst übermittelt. Ergänzend dazu ein Bericht der SZ von 2014 was sich aus Telefonüberwachung ableiten lässt: Die Lüge von den Metadaten. Wohin die Sammlung von Metadaten führen kann, hat die ZEIT 2015 eindrücklich dargelegt: BND speichert 220 Millionen Telefondaten – jeden Tag.

Die Berichte entstammen der Hochphase der Globalen Spionage- und Überwachungsaffäre, aber der Sachverhalt hat sich seitdem kaum geändert. Immer noch sammeln Firmen und Geheimdienste systematisch Metadaten, immer noch beschwichtigen Politiker und immer noch glauben die meisten Menschen, ihre Kommunikationsinhalte wären das wirklich schützenswerte.

Das ist verständlich, weil die Inhalte vermeintlich unsere Vorlieben, Interessen, Ziele, Wünsche und Träume enthalten, aber unsinnig, denn die Kommunikationsinhalte sind bei den meisten Menschen völlig uninteressant und ohne Kontext auch meistens wenig aussagekräftig. Wirklich interessant für Firmen und den westlichen Überwachungsstaat sind die Metadaten. Denn sie geben Auskunft über Bewegungsprofile, Netzwerke und Verbindungen.

Zumindest gegenwärtig lassen sich Metadaten auch immer noch leichter automatisiert auswerten als Video-, Sprach- oder Textinhalte. Wobei angesichts der Fortschritte in der automatischen Spracherkennung und Inhaltserschließung das bald hinfällig sein könnte.

Wir erzeugen mehr und nicht weniger Metadaten

Die oben referenzierten Artikel sind alle 6-7 Jahre alt. Damals wurde nur das Bewegungsprofil, Internet, WhatsApp und E-Mail berücksichtigt. Smart Watches, intelligente Fitness-Armbänder, Smarte Lautsprecher, Smarte Autos – all diese Entwicklungen waren noch nicht so weit wie heute. Das Ausmaß der genutzten Dienste und die Zahl der Sensoren im Smartphone hat seitdem somit definitiv noch zugenommen.

Im Unterschied zu den Inhalten kann man Metadaten nicht vermeiden, indem man selbst ein bisschen verschlüsselt und ein wenig sensibler im Umgang mit seinen Daten ist. Möglicherweise ist das Thema auch deshalb so wenig im Fokus, weil es ein Ohnmachtsgefühl auslöst. Bei den Inhalten kann der Einzelne aktiv werden und zu wirkungsvoller Verschlüsselung greifen. Dabei gibt es erfolgversprechende Verfahren, bei denen wir mit großer Wahrscheinlichkeit davon ausgehen könnten, hinterher unsere Inhalte effektiv geschützt zu haben.

Um Metadaten zu reduzieren, hilft es nur Dienste zu nutzen, die genau diese Daten vermeiden. Mit ein bisschen Verschlüsselung seiner Dateien im kommerziellen Cloud-Dienstleister oder der Inhalte seiner E-Mails beim gleichen Anbieter kommt man da nicht weiter.

Umdenken nicht in Sicht

Eine komplette Änderung alle Gewohnheiten und Dienste kann man von niemandem verlangen. Bei neuen Diensten oder Geräten sollte man diesen Faktor aber endlich berücksichtigen. Die Erkenntnis wie wichtig und gefährlich Metadaten sind, ist schließlich alt genug.

Es gibt gute und verbreitete Dienste, die sich zumindest des Problems angenommen haben. Die Signal-Entwickler beschäftigen sich seit Jahren mit der Reduzierung und Vermeidung von Metadaten. Bei Threema hat man dieses Problem auch immer beachtet. Wer freie Software bevorzugt, hat ebenfalls Alternativen: Die Vermeidung von Metadaten als Konzept gilt auch für den besonders sicheren Messenger Briar.

Viele andere Dienste tun dies nicht. Einerseits weil die Vermeidung von Metadaten kompliziert ist, andererseits weil es bei vielen Entwicklern keine Priorität hat. Das gilt natürlich für viele kommerzielle Dienste, aber auch für die neuen Lieblinge der verschränkten FOSS/Datenschutz-Community.

Die neuen föderierten Messenger (z. B. Delta Chat / Matrix) sind strukturell bedingt genau so ungeeignet für die Vermeidung von Metadaten wie XMPP und E-Mail vor ihnen. Die Vernetzung eines föderierten Systems benötigt einfach systembedingt Metadaten und bringt einen Kontrollverlust mit sich, weil man den Serverbetreibern vertrauen muss.

Vor allem den Hype um die neuen föderierten Protokolle kann ich unter diesem Gesichtspunkt nicht verstehen. Hier werden zu offensiv Konzepte vermischt, die sich nicht immer vertragen: Digitale Souveränität und Datenschutz. Man mag auf die alten Protokolle, wie beispielsweise die E-Mail, nicht verzichten können, aber muss doch nicht sehenden Auges im Bewusstsein der hier beschrieben Problematik neue Protokolle etablieren, die genau die gleichen strukturellen Probleme haben.

Zusammengefasst

Metadaten sind das wirkliche Problem. Sie sind für alle Feinde unserer digitalen Sicherheit und unserer Privatsphäre interessant, wir erzeugen immer mehr davon und das Problem steht zu wenig im Fokus. Verschlüsselung ist nett und so lange sie mit wenig Aufwand zu realisieren ist, auch ratsam – sie geht aber am Kernproblem vorbei. Das gilt auch für die neuen gehypten Dienste.

Der Artikel Metadaten – Immer noch zu wenig beachtet erschien zuerst auf [Mer]Curius

❌