Dies ist ein Beitrag der Sorte „Notiz an mich selbst“. Wenn sie euch ebenfalls hilft, umso besser.
Ich hatte in folgendem Workflow versucht, die aktuelle Unixzeit in einer Umgebungsvariablen zu speichern, um sie in verschiedenen Schritten des Workflows wiederverwenden zu können. Mein Test-Workflow sah wie folgt aus:
name: test
on:
push:
branches: workflow_tests
env:
UNIXTIME: $(date +%s)
jobs:
test:
runs-on: podman
steps:
- run: echo Debug output
- run: echo Current unix time is ${{ env.UNIXTIME }}
- run: sleep 10
- run: echo Current unix time is ${{ env.UNIXTIME }}
Leider entsprach die Ausgabe nicht meiner Erwartung.
Ergebnis der ersten Ausgabe: 1747991617
Ergebnis der zweiten Ausgabe: 1747991629
In https://matrix.to/#/#codeberg.org:matrix.org erklärte mir jacksonchen666, dass $(date +%s) vermutlich als String an UNIXTIME übergeben wird. Die Auswertung durch die Shell findet dann erst im jeweiligen Workflow-Schritt statt. Ob das stimmt, weiß ich nicht, es klingt jedoch plausibel.
Christoph aus dem gleichen Matrix-Kanal schlug folgende Lösung vor:
echo "MY_VAR=foo" >> $GITHUB_ENV
Hier wird in der Shell der Wert foo der Variablen MY_VAR zugewiesen und diese anschließend in der Workflow-Umgebung verfügbar gemacht. Für mein Beispiel sieht das nun so aus:
name: test
on:
push:
branches: workflow_tests
jobs:
test:
runs-on: podman
steps:
- run: echo Debug output
- run: echo "UNIXTIME=$(date +%s)" >> $GITHUB_ENV
- run: echo Current unix time is ${UNIXTIME}
- run: sleep 10
- run: echo Current unix time is ${UNIXTIME}
Und schon stimmt die Ausgabe der UNIXTIME in beiden Schritten überein. Ich habe wieder was dazu gelernt. :-)
In diesem Video zeigt Jean, wie man den i3 Window Manager auf Linux Mint installiert und benutzt, um die Produktivität am Computer zu steigern.
Wenn Du das Video unterstützen willst, dann gib bitte eine Bewertung ab, und schreibe einen Kommentar. Vielen Dank!
Terminal Befehle:
-------------------------------------
Die Terminal-Befehle findet ihr hier: https://github.com/zedsalim/debian-z?tab=readme-ov-file#readme
alacritty migrate
sudo apt install eza neovim
vim .config/i3/config
- Zum letzten Tuxflash-Podcast https://youtu.be/Z2b6z9gLitg?si=fXKYCqn6htGLjJtN
- Zur Podcast-Playlist: https://youtube.com/playlist?list=PLPK5iNo_kpNe0dtNukSwl02w64dKSYBlJ&si=BTPKEziy4pOoNyBJ
- Vim-Tutorial https://youtu.be/DczDS4hN0Zc
- Linux-Guides Merch*: https://linux-guides.myspreadshop.de/
- Professioneller Linux Support*: https://www.linuxguides.de/linux-support/
- Linux-Arbeitsplatz für KMU & Einzelpersonen*: https://www.linuxguides.de/linux-arbeitsplatz/
- Linux Mint Kurs für Anwender*: https://www.linuxguides.de/kurs-linux-mint-fur-anwender/
- Offizielle Webseite: https://www.linuxguides.de
- Forum: https://forum.linuxguides.de/
- Unterstützen: http://unterstuetzen.linuxguides.de
- Mastodon: https://mastodon.social/@LinuxGuides
- X: https://twitter.com/LinuxGuides
- Instagram: https://www.instagram.com/linuxguides/
- Kontakt: https://www.linuxguides.de/kontakt/
Inhaltsverzeichnis:
-------------------------------------
00:00 Begrüßung
00:44 Allgemeines zu i3
04:06 Nachteile: aufwendige Einrichtung
07:02 Vorteil: effizientere Bedienung
08:28 i3 ausprobieren: debian-z
10:03 debian-z installieren auf Linux Mint
12:56 i3 (debian-z) benutzen und anpassen
34:18 Fazit
37:26 Verabschiedung
Haftungsausschluss:
-------------------------------------
Das Video dient lediglich zu Informationszwecken. Wir übernehmen keinerlei Haftung für in diesem Video gezeigte und / oder erklärte Handlungen. Es entsteht in keinem Moment Anspruch auf Schadensersatz oder ähnliches.
Seit einer ganzen Weile läuft nun Paperless-ngx bei mir auf dem Homeserver. In diesem Beitrag möchte ich euch meinen Workflow aufzeigen. Rechnungen per E-Mail Die meisten Rechnungen kommen heutzutage als Anhang per E-Mail. E-Mails...
In den USA hat Mozilla mit dem Privacy Protection Plan ein neues Angebot gestartet, welches das Mozilla VPN, Mozilla Monitor Plus und Firefox Relay Premium für einen stark vergünstigten Preis bündelt.
Mozilla ist nicht nur Entwickler des kostenlosen Firefox-Browsers, sondern auch mehrerer Privatsphäre-Dienste: Mit dem Mozilla VPN bietet Mozilla ein Virtual Private Network an und verspricht neben einer sehr einfachen Bedienung eine schnelle Performance, Sicherheit sowie Privatsphäre. Mozilla Monitor prüft, ob die eigene E-Mail-Adresse Teil eines bekannten Datendiebstahls in der Vergangenheit war, und hilft beim Umgang damit. Nur in den USA gibt es mit Mozilla Monitor Plus ein kostenpflichtiegs Zusatzangebot, um persönliche Informationen von über 190 Personen-Suchmaschinen automatisch entfernen zu lassen. Mit Firefox Relay können sogenannte Masken als Alias-Adressen für die persönliche E-Mail-Adresse angelegt werden, die der Nutzer zum Beispiel für Newsletter-Anmeldungen und Website-Registrierungen angeben kann, um so die echte E-Mail-Adresse zu schützen. Die kostenpflichtige Version Firefox Relay Premium bietet zusätzliche Funktionen.
Statt die drei kostenpflichtigen Dienste Mozilla VPN, Mozilla Monitor Plus und Firefox Relay Premium (ohne den nur in den USA sowie Kanada verfügbaren Telefonnummer-Schutz) separat zu erwerben, haben Nutzer in den USA jetzt auch die Möglichkeit, den Privacy Protection Plan zu bestellen. Dieser bündelt alle drei Produkte. Dafür zahlt der Anwender 99,00 USD pro Jahr. Damit ist das Paket sogar günstiger als Mozilla Monitor Plus alleine, was bereits 107,88 USD pro Jahr kostet. Würde man alle drei Produkte einzeln erwerben, müsste man dafür 179,64 USD bezahlen. Dafür gibt es den Privacy Protection Plan ausschließlich für ein ganzes Jahr zu erwerben und anders als die Einzelprodukte nicht optional auch monatsweise.
Da es Mozilla Monitor Plus nur in den USA gibt, kann man mit Sicherheit davon ausgehen, dass es auch den Privacy Protection Plan nicht außerhalb der USA geben wird. Eine Bündelung nur vom Mozilla VPN mit Firefox Relay Premium wäre aber auch außerhalb der USA interessant. Entsprechende Pläne sind zu diesem Zeitpunkt allerdings nicht bekannt.
In diesem Jahr wird in Deutschland und der EU neben Künstlicher Intelligenz auch viel über digitale Souveränität diskutiert. Es ist kein Geheimnis, dass Europa bei IT-Anwendungen, Diensten und -Produkten den Anschluss an Nordamerika und Asien verloren hat bzw. sich freiwillig in eine Abhängigkeit begeben hat. Da erscheint DNS4EU wie ein kleiner LIchtblick.
Ein DNS-Dienst, betrieben in der EU, konform zur Datenschutz-Grundverordnung (DSGVO). Das hört sich erstmal gut an — ist es aber nicht.
Wie eine Recherche des IT-Consultant Jens Link ergab: „…,geht im Prinzip der gesamte Traffic durch Netze einer Firma außerhalb der EU.“ Genau gesagt durch Großbritanien, welches seit 2020 nicht mehr Mitglied der EU ist. Das ist aus mindestens den folgenden zwei Gründen ungünstig.
DNS-Datenverkehr ist meistens unverschlüsselt. Jede Person mit Zugriff auf den Datenverkehr kann mitlesen, wer wann welche Internetseite oder genauer gesagt Domain aufruft. Das ist nunmal so, unabhängig davon welche Route der Datenverkehr im Internet einschlägt.
England ist Mitglied der sogenannten Five Eyes, einer engen Kooperation der Geheimdienste aus Australien, Canada, England, Neuseeland und den USA. Für die Dienste dieser Staaten sind EU-Bürgerinnen und Bürger Angehörige von Drittstaaten, deren Daten zu geheimdienstlichen Zwecken gesammelt und ausgewertet werden dürfen. Spätestens seit der globalen Überwachungs- und Spionageaffäre ist bekannt, dass dies auch geschieht.
Was nützt es also, einen Dienst zu haben, dessen Betreiber sich zwar an die DSGVO im speziellen und die europäische Rechtsordnung im allgemeinen halten müssen, der gesamte Datenverkehr aber über jemanden geleitet wird, der daran nicht gebunden ist?
Den Ansatz und die Idee hinter DNS4EU finde ich gut, die Umsetzung mangelhaft. Solange der Datenverkehr den Rechtsraum der EU verlässt, bietet DNS4EU keinen Mehrwert zu bestehenden Diensten. Da bleibe ich lieber bei dnsforge.de oder den DNS-Resolvern meiner Internetdiensteanbieter.
Haftungsausschluss:
-------------------------------------
Das Video dient lediglich zu Informationszwecken. Wir übernehmen keinerlei Haftung für in diesem Video gezeigte und / oder erklärte Handlungen. Es entsteht in keinem Moment Anspruch auf Schadensersatz oder ähnliches.
Heute Abend klären wieder Hauke und Jean Deine Fragen live!
Wenn Du das Video unterstützen willst, dann gib bitte eine Bewertung ab, und schreibe einen Kommentar. Vielen Dank!
--------------------
Links:
Frage stellen: https://ask.linuxguides.de
Forum: https://forum.linuxguides.de/
Haukes Webseite: https://goos-habermann.de/index.php
Nicht der Weisheit letzter Schluß: youtube.com/@nichtderweisheit
Linux Guides Admin: https://www.youtube.com/@LinuxGuidesAdmin
Professioneller Linux Support*: https://www.linuxguides.de/linux-support/
Linux Mint Kurs für Anwender*: https://www.linuxguides.de/kurs-linux-mint-fur-anwender/
Ubuntu Kurs für Anwender*: https://www.linuxguides.de/ubuntu-kurs-fuer-anwender/
Linux für Fortgeschrittene*: https://www.linuxguides.de/linux-kurs-fuer-fortgeschrittene/
Offizielle Webseite: https://www.linuxguides.de
Tux Tage: https://www.tux-tage.de/
Forum: https://forum.linuxguides.de/
Unterstützen: http://unterstuetzen.linuxguides.de
Twitter: https://twitter.com/LinuxGuides
Mastodon: https://mastodon.social/@LinuxGuides
Matrix: https://matrix.to/#/+linuxguides:matrix.org
Discord: https://www.linuxguides.de/discord/
Kontakt: https://www.linuxguides.de/kontakt/
BTC-Spende: 1Lg22tnM7j56cGEKB5AczR4V89sbSXqzwN
Haftungsausschluss:
-------------------------------------
Das Video dient lediglich zu Informationszwecken. Wir übernehmen keinerlei Haftung für in diesem Video gezeigte und / oder erklärte Handlungen. Es entsteht in keinem Moment Anspruch auf Schadensersatz oder ähnliches.
Das Buch „Suchmaschinen-Optimierung: Das umfassende Handbuch“ gilt in Fachkreisen als deutschsprachiges Standardwerk und wird auch für die Ausbildung von Trainees genutzt. Es bietet umfassende Informationen und ist ein vollständiges Nachschlagewerk zu allen wichtigen Aspekten der Suchmaschinen-Optimierung (Search Engine Optimization, kurz: SEO). Es umfasst 18 Kapitel und deckt damit alle wichtigen Bereiche dieses sehr komplexen Themas ab.
Auf jeder Buchseite ist in der unteren rechten Ecke ein kleiner Pinguin abgebildet, der als Daumenkino fungiert. Blättert man schnell durch, entfalten sich seine kleinen Abenteuer und erinnern an die Zeit, als Daumenkinos beliebt waren. Ein netter Zeitvertreib, der die Lektüre des umfangreichen Buches auflockern und über den einen oder anderen theoretischen und mitunter recht techniklastigen Exkurs hinweghelfen soll. Der Pinguin symbolisiert in der SEO-Welt die algorithmischen Veränderungen bei Suchmaschinen, angelehnt an das 2012 von Google eingeführte Pinguin-Update, das die Integrität der Suchergebnisse sichern soll.
Kapitel 1 – Die Welt der Suchmaschinen-Optimierung bietet einen Überblick über die wichtigsten Aspekte des Themas, einschließlich Suchmaschinen, Content-Anbieter, Website-Besucher und SEO-Experten.
Kapitel 2 – SEO-Zieldefinition und Workflows beschreibt typische Optimierungsziele und zeigt, wie man diese korrekt definiert und den Fortschritt misst und organisiert.
Kapitel 3 – Keyword-Recherche untersucht, mit welchen Begriffen potenzielle Besucher suchen, welche Schreibweisen sie verwenden und welche Keywords sich für eine Optimierung lohnen. Zudem werden nützliche Keyword-Datenbanken vorgestellt.
Kapitel 4 – Anatomie des World Wide Web vermittelt technisches Grundwissen zu HTML, CSS, HTTP und Content-Management-Systemen (CMS).
Kapitel 5 – Architektur von Suchmaschinen erklärt, wie Suchmaschinen genau funktionieren und dass die Eingabe von Begriffen nicht die einzige Voraussetzung für Ergebnisse ist.
Kapitel 6 – Suchprozess beschreibt die strukturierten Abläufe von Suchanfragen und wie Suchmaschinen Anfragen bearbeiten. Es richtet sich an Leser, die verstehen möchten, wie ihre Zielgruppe sucht, und bietet Einblicke in Suchoperatoren, erweiterte Suchmöglichkeiten und Nutzerverhalten im Web.
Kapitel 7 – Gewichtung und Relevanz geht auf die Bewertungsverfahren von Suchmaschinen ein, die das Ranking der Ergebnisse bestimmen, und stellt Modelle wie PageRank und TrustRank vor.
Kapitel 8 – Suchmaschinen-optimierte Website-Struktur bietet Empfehlungen für neue Websites und Relaunches, um eine stabile Basis für die spätere Optimierung zu gewährleisten, wobei die Bedeutung der Startseite hervorgehoben wird.
Kapitel 9 – Websiteaufnahme, Relaunches und Domainwechsel beschreibt, wie Suchmaschinen neue Websites erfassen, und liefert Methoden für die schnelle Erstaufnahme sowie wichtige Aspekte für Relaunches und Domainwechsel. Zudem gibt es einen kurzen Überblick zur Geschichte des Suchmaschinen-Marktes.
Kapitel 10 – Onpage-Optimierung behandelt alle Optimierungsmaßnahmen, die direkt auf einer Website durchgeführt werden, wie die Verbesserung von Texten und die korrekte Auszeichnung wichtiger Tags.
Kapitel 11 – Offpage-Optimierung (Linkbuilding) klärt darüber auf, wie man außerhalb der Website wertvolle eingehende Links generiert.
Kapitel 12 – Universal Search und strukturierte Daten erklärt, dass reine Text-Snippets in den Suchergebnissen heutzutage nur noch selten sind. Der Autor beschreibt die verschiedenen Darstellungsformen, wie man sie beeinflussen kann und worauf zu achten ist.
Kapitel 13 – Spam erläutert, dass Suchmaschinen empfindlich auf eine unnatürliche Optimierung reagieren, was zu Abstrafungen führen kann. Der Abschnitt definiert Spam, beleuchtet die Google-Qualitätsrichtlinien und beschreibt, wie man Spam-Maßnahmen vermeidet.
Kapitel 14 – Monitoring, Controlling und Tracking ist entscheidend für den Erfolg von Optimierungsmaßnahmen. Es beschreibt, wie man den Erfolg der Maßnahmen überwacht, und stellt hilfreiche Tools wie die Google Search Console und Google Analytics vor.
Kapitel 15 – Google – Gerüchte, Updates und Theorien bietet einen Überblick über den führenden Anbieter im Suchmaschinen-Markt und widmet sich dessen Geschichte, Gerüchten und bedeutenden Updates.
Kapitel 16 – Usability und Suchmaschinen-Optimierung hebt hervor, dass Online-Erfolg eine Balance zwischen der Optimierung für Suchmaschinen und der Optimierung für Nutzer erfordert. Es wird erklärt, wie eng SEO und Usability miteinander verbunden sind.
Kapitel 17 – SEO-Anforderungen an ein Content-Management-System erklärt den Einsatz von CMS für Websites und Online-Shops. Der Autor weist zudem darauf hin, dass Betreiber aktiv werden müssen, da kein System von Haus aus eine optimale Suchmaschinen-Optimierung bietet.
Kapitel 18 – SEO und Recht, verfasst von Medienrechtsanwalt Christian Solmecke, behandelt Rechtsfragen zur Suchmaschinen-Optimierung – einschließlich Vertrags-, Urheber-, Marken-, Wettbewerbs- und Persönlichkeitsrecht sowie Informationen zur DSGVO.
„Suchmaschinen-Optimierung: Das umfassende Handbuch“ von Sebastian Erlhofer richtet sich an alle, die ihre Website selbst optimieren möchten. Es erklärt die Funktionsweise von Suchmaschinen sowie Strategien und Maßnahmen zur Verbesserung der Sichtbarkeit. Die klare Struktur und verständliche Erklärungen erleichtern den Einstieg, während das Kapitel „SEO und Recht“ von Medienrechtsanwalt Christian Solmecke wichtige rechtliche Aspekte und Informationen zur DSGVO behandelt. Dieses Nachschlagewerk ist sowohl für Einsteiger als auch für Fortgeschrittene uneingeschränkt zu empfehlen.
Ich lese und schreibe gerne. Lesen kann ich fast überall, ohne meine Umgebung zu stören. Gleichzeitig habe ich meine Ohren frei, um meine Konzentration schnell auf andere Dinge lenken zu können, ohne dass sich jemand durch Kopfhörer auf bzw. in meinen Ohren ausgeschlossen fühlt.
Ähnlich ist es mit dem Schreiben. Ich kann schreiben, während nebenbei das Fernsehen oder Radio läuft oder ich im Park oder einem Biergarten sitze. Podcasts und Videos lassen sich in diesen Umgebungen nur schwierig aufzeichnen.
Zudem bin ich in einer Zeit aufgewachsen, wo die Internetbandbreite noch so schmal war, dass an die flächendeckende Verbreitung von Audio und Video noch nicht zu denken war.
So ist das geschriebene Wort bis heute mein Favorit für die Aufnahme und Verbreitung von Wissen. Und damit sind Blogs für mich auch heute ein wichtiger und geschätzter Bestandteil des Internets, die für mich einen hohen Stellenwert besitzen.
Ich habe noch kein einziges TikTok-Video gesehen und kann dessen Stellenwert für die Gesellschaft nicht beurteilen. Ich finde generell nur sehr wenig Gefallen an Internetvideos, da sich bei mir der Eindruck verfestigt hat, dass diese häufig in die Länge gezogen werden, um noch eine Werbeunterbrechung oder Produktplatzierung unterbringen zu können. Ich fand bisher nur sehr wenige Videos hilfreich.
Wir Menschen sind jedoch teils sehr unterschiedlich und so ist mir bewusst, dass es natürlich auch eine Nutzergruppe gibt, welche Videos jederzeit den Vorzug vor einem Blogartikel gibt. Das ist auch vollkommen in Ordnung. Nutzt das Medium, welches euch am meisten anspricht.
Microblogging und Social Media sind für mich persönlich Synonyme für Mastodon. Hier folge ich meinen Bekannten, Freunden und interessanten Personen, deren Beiträge mich interessieren. Ich selbst teile hier meine Gedanken, Tageslaune und weise auf neue Artikel in meinem Blog hin. Falls ihr daran interessiert seid, findet ihr mich unter @Tronde@social.anoxinon.de.
Microblogging sehe ich es bestenfalls als Ergänzung zu einem Blog. Mit den Threads auf den diversen Plattformen konnte ich mich nie anfreunden. Wenn jemand etwas in mehr als 512 Zeichen ausdrücken möchte, freue ich mich, wenn dies in einem Blog niedergeschrieben wird, den ich gemütlich am Stück lesen kann.
Dies war nun meine Meinung. Welchen Stellenwert besitzen Blogs für euch?
Dieser Beitrag ist Teil der #BlogWochen2025, welche von von Benedikt, Dirk und Robert zum runden Geburtstag ihrer Blogs ausgerufen wurden.
In diesem Video zeigt Jean die Grundlagen des E-Mail Clients Mozilla Thunderbird. Von der Einrichtung eines Kontos über die Einstellungen der Ansicht und vielen Tipps zu einem flüssigen Workflow werden alle relevaten Features gezeigt.
Wie man seine Mails verschlüsselt zeige ich in diesem Video: https://youtu.be/NyOkgvVtZ10
Wenn Du das Video unterstützen willst, dann gib bitte eine Bewertung ab, und schreibe einen Kommentar. Vielen Dank!
Links:
-------------------------------------
- Ende zu Ende Verschlüsselung in Thunderbird https://youtu.be/NyOkgvVtZ10
- Linux-Guides Merch*: https://linux-guides.myspreadshop.de/
- Professioneller Linux Support*: https://www.linuxguides.de/linux-support/
- Linux-Arbeitsplatz für KMU & Einzelpersonen*: https://www.linuxguides.de/linux-arbeitsplatz/
- Linux Mint Kurs für Anwender*: https://www.linuxguides.de/kurs-linux-mint-fur-anwender/
- Offizielle Webseite: https://www.linuxguides.de
- Forum: https://forum.linuxguides.de/
- Unterstützen: http://unterstuetzen.linuxguides.de
- Mastodon: https://mastodon.social/@LinuxGuides
- X: https://twitter.com/LinuxGuides
- Instagram: https://www.instagram.com/linuxguides/
- Kontakt: https://www.linuxguides.de/kontakt/
Inhaltsverzeichnis:
-------------------------------------
00:00 Begrüßung
00:44 Konto hinzufügen
04:01 Einstellungen: Signaturen und Identitäten
07:24 Einstellungen Verfassen und Adressieren
09:03 Gruppierte Ordner
10:34 Ansicht / Anzeigeoptionen
12:44 Schnellfilter
15:17 Layouteinstellungen
16:28 Favoriten und Schlagwörter
17:56 Mail Verfassen
20:13 Quicktext (Addon) für schnelle Phrasen
26:42 Tastenkombinationen
28:17 Rechtschreibung und Sprache
30:25 Expression Search (Addon)
34:01 Weitere Funktionen
36:01 Masterpasswort
37:10 Verabschiedung
Haftungsausschluss:
-------------------------------------
Das Video dient lediglich zu Informationszwecken. Wir übernehmen keinerlei Haftung für in diesem Video gezeigte und / oder erklärte Handlungen. Es entsteht in keinem Moment Anspruch auf Schadensersatz oder ähnliches.
Firefox wird standardmäßig mit mehreren Suchmaschinen ausgeliefert. Mit Perplexity hat Mozilla die Standard-Auswahl auf den Wunsch seiner Nutzer hin um eine KI-basierte Suchmaschine erweitert.
Firefox-Nutzer können praktisch jede beliebige Suchmaschine zu Firefox hinzufügen. Der Browser besitzt aber auch schon von Haus aus eine Auswahl an Suchmaschinen, die sofort zur Verfügung stehen, ohne dass der Nutzer manuelle Schritte unternehmen muss.
Nachdem sich Firefox-Nutzer schon eine Weile Perplexity als Such-Option in Firefox gewünscht hatten, hat Mozilla nun damit begonnen, die erst Ende 2022 gegründete Suchmaschine Perplexity standardmäßig als Suchoption in Firefox anzubieten. Die zunächst experimentelle Integration gilt vorerst nur für Nutzer in Deutschland, den USA sowie Großbritannien und wird für 25 Prozent der Nutzer von Firefox 139 und höher ausgerollt.
Perplexity unterscheidet sich von traditionellen Suchmaschinen dadurch, dass man nicht seitenweise Listen als Ergebnis erhält, sondern KI-basierte Antworten in natürlicher Sprache.
Der Fakespot Deep Fake Detector ist eine Firefox-Erweiterung von Mozilla, welche es dem Nutzer ermöglichen soll, mutmaßliche KI-Inhalte von Inhalten zu unterscheiden, die von echten Menschen geschaffen wurden. Nun wurde die Einstellung der Erweiterung bekannt gegeben.
Die Ende des vergangenen Jahres veröffentlichte Firefox-Erweiterung Fakespot Deep Fake Detector versucht, mit Hilfe Künstlicher Intelligenz zu erkennen, welche Website-Inhalte von einer KI erzeugt worden sind und was das Werk echter Menschen ist. Es handelt sich dabei um eine Browser-Erweiterung für Firefox, welche es erlaubt, markierten Text dahingehend zu analysieren. Alternativ kann Text auch ohne Browser-Erweiterung auf der dazugehörigen Website eingegeben werden.
Für eine bessere Zuverlässigkeit verlässt sich Mozilla dabei nicht auf ein einzelnes Modell. Mit ApolloDFT, Binocular, UAR sowie ZipPy kommen gleich vier Modelle mit unterschiedlichen Stärken und Schwächen zum Einsatz, die auch beschrieben werden. Wenn es Unstimmigkeiten in der Bewertung gibt, erfährt der Nutzer, welches Modell zu welchem Ergebnis kam. Bei allen diesen Modellen handelt es sich um Open Source-Modelle, wobei ApolloDFT ein eigenes Modell von Fakespot ist.
Nun hat Mozilla bekannt gegeben, die Erweiterung am 26. Juni 2025 einzustellen. Diese Einstellung kommt erwartungsgemäß, nachdem Mozilla vor kurzem die Einstellung seines Dienstes Fakespot angekündigt hat, deren Team auch den Fakespot Deep Fake Detector entwickelte. Mit gerade einmal knapp über 3.300 aktiven Nutzern war die Erweiterung auch nicht sehr verbreitet.
Inhaltsverzeichnis:
-------------------------------------
0:00 Einführung
1:00 Synchronisation über Nextcloud Client
13:00 Konflikte beheben
16:00 Einbindung über Linux Mint direkt
18:00 Abschließende Worte und Ausblick
Haftungsausschluss:
-------------------------------------
Das Video dient lediglich zu Informationszwecken. Wir übernehmen keinerlei Haftung für in diesem Video gezeigte und / oder erklärte Handlungen. Es entsteht in keinem Moment Anspruch auf Schadensersatz oder ähnliches.
Der Enterprise Policy Generator richtet sich an Administratoren von Unternehmen und Organisationen, welche Firefox konfigurieren wollen. Mit dem Enterprise Policy Generator 6.5 ist nun ein großes Update mit Unterstützung für viele zusätzliche Unternehmensrichtlinien erschienen.
Die Enterprise Policy Engine erlaubt es Administratoren, Firefox über eine Konfigurationsdatei zu konfigurieren. Der Vorteil dieser Konfigurationsdatei gegenüber Group Policy Objects (GPO) ist, dass diese Methode nicht nur auf Windows, sondern plattformübergreifend auf Windows, Apple macOS sowie Linux funktioniert.
Der Enterprise Policy Generator hilft bei der Zusammenstellung der sogenannten Enterprise Policies, sodass kein tiefergehendes Studium der Dokumentation und aller möglichen Optionen notwendig ist und sich Administratoren die gewünschten Enterprise Policies einfach zusammenklicken können.
Neuerungen vom Enterprise Policy Generator 6.5
Der Enterprise Policy Generator 6.5 bringt eine erweiterte Unterstützung von Unternehmensrichtlinien.
Die Containers-Richtlinie kann genutzt werden, um den anfänglichen Satz von Tab-Umgebungen festzulegen.
Die AllowFileSelectionDialogs-Richtlinie erlaubt das Deaktivieren von Dateiauswahldialogen.
Mittels DisableEncryptedClientHello-Richtlinie kann die Verwendung der TLS-Funktion Encrypted Client Hello (ECH) deaktiviert werden.
Die Fallback-Option wurde zur DNSOverHTTPS-Richtlinie hinzugefügt, um festzulegen, ob Firefox den Standard-DNS-Resolver verwenden soll, wenn es ein Problem mit dem sicheren DNS-Anbieter gibt.
Über die HttpAllowlist-Richtlinie können Websites konfiguriert werden, die nicht automatisch auf HTTPS umgestellt werden sollen.
Die HttpsOnlyMode-Richtlinie ermöglicht die Konfiguration des Nur-HTTPS-Modus.
Mit der PostQuantumKeyAgreementEnabled-Richtlinie kann der Post-Quanten-Schlüsselaustausch für TLS aktiviert oder deaktiviert werden.
Die TranslateEnabled-Richtlinie erlaubt das Aktivieren oder Deaktivieren der lokalen Übersetzungsfunktion von Firefox.
Die PrivateBrowsingModeAvailability-Richtlinie kann verwendet werden, um die Verfügbarkeit von privaten Fenstern festzulegen. Die Richtlinie kann nicht zusammen mit der DisablePrivateBrowsing-Richtlinie verwendet werden, beide Richtlinien schließen sich gegenseitig aus.
Zur UserMessaging-Richtlinie wurde die FirefoxLabs-Option hinzugefügt, um den Abschnitt „Firefox Labs“ in den Firefox-Einstellungen zu aktivieren oder zu deaktivieren.
Es wurde die Unterstützung für die MicrosoftEntraSSO-Richtlinie hinzugefügt, um Single Sign-On für Microsoft Entra-Konten zu ermöglichen.
Die Preferences-Richtlinie wurde um die Unterstützung der Optionen identity.fxaccounts.toolbar.* und security.block_fileuri_script_with_wrong_mime erweitert.
Die ExtensionSettings-Richtlinie unterstützt jetzt auch die private_browsing-Option, um zu konfigurieren, ob eine Erweiterung in privaten Fenstern aktiviert werden soll.
Die SearchEngines-Richtlinie steht nicht länger ausschließlich für Firefox ESR zur Verfügung.
Über die DisabledCiphers-Richtlinie können weitere kryptographische Chiffren deaktiviert werden.
Die Unterstützung der WhatsNew-Option wurde aus der UserMessaging-Richtlinie und auch aus bestehenden Konfigurationen entfernt.
Im Beschreibungstext der Certificates|Install-Richtlinie wurde die falsche Umgebungsvariable für Windows in der Beschreibung korrigiert.
Die Formulierung für die Richtlinien AutofillAddressEnabled und AutofillCreditCardEnabled wurde verbessert.
Ebenfalls aktualisiert wurde die russische Übersetzung der Erweiterung.
Ausblick
Mit diesem Update unterstützt der Enterprise Policy Generator nun fast alle von Firefox unterstützten Unternehmensrichtlinien. Mit dem Enterprise Policy Generator 6.6 wird als Nächstes ein Update erscheinen, welches die Unterstützung für die ContentAnalysis-Richtlinie ergänzen und die Unterstützung für die DisablePocket-Richtlinie entfernen wird. Außerdem wird das Update kleinere Verbesserungen unter der Haube bringen.
Der Enterprise Policy Generator 6.6 wird die letzte Version sein, welche in Firefox 115 genutzt werden kann. Mindestanforderung für den Enterprise Policy Generator 7.0 wird Firefox 128 sein.
Entwicklung unterstützen
Wer die Entwicklung des Add-ons unterstützen möchte, kann dies tun, indem er der Welt vom Enterprise Policy Generator erzählt und die Erweiterung auf addons.mozilla.org bewertet. Auch würde ich mich sehr über eine kleine Spende freuen, welche es mir ermöglicht, weitere Zeit in die Entwicklung des Add-on zu investieren, um zusätzliche Features zu implementieren.
Die MZLA Technologies Corporation hat mit Thunderbird 139.0.2 ein Sicherheits-Update für seinen Open Source E-Mail-Client veröffentlicht.
Neuerungen von Thunderbird 139.0.2
Mit Thunderbird 139.0.2 hat die MZLA Technologies Corporation ein Update für seinen Open Source E-Mail-Client veröffentlicht. Die neue Version behebt eine Sicherheitslücke sowie einen weiteren Fehler der Vorgängerversion.
Mozilla hat Firefox 139.0.4 für Windows, macOS und Linux veröffentlicht. Firefox 139.0.2 und Firefox 139.0.3 wurden für diese Plattformen übersprungen, da diese Versionsnummern Android-Updates vorbehalten waren.
Firefox 139.0.4 behebt zwei Sicherheitslücken. Alleine aus Gründen der Sicherheit ist ein Update daher für alle Nutzer empfohlen.
Darüber hinaus behebt Firefox 139.0.4 ein Problem, welches auf Windows und macOS unter bestimmten Umständen zu einem Einfrieren des Browsers führen konnte.
Ein Problem bei der Auswahl von Dropdown-Optionen in den Firefox-Einstellungen wurde behoben, wenn diese über die Suche ausgewählt worden sind.
Behoben wurden außerdem Probleme mit der Textauswahl über einen Dreifachklick.
Unter Windows wurden Bilder, die als Hintergrundbild gespeichert worden sind, nicht länger mit einem Dateinamen gespeichert.
Ebenfalls nur unter Windows konnten Benachrichtigungen in einer Nicht-Standard-Konfiguration in der falschen Bildschirmecke angezeigt werden.
Wenn Ports aus Sicherheitsgründen blockiert werden müssen, ist dies nun aus der Ferne ohne Verteilung eines Firefox-Updates möglich.
Eine mögliche Absturzursache beim Besuch von Websites, welche JSON-Module nutzen, wurde behoben.
Das Problem, dass keine Anbieter für DNS over HTTPS in den Einstellungen zur Verfügung stehen, wenn die Aktualisierung der Anbieter fehlschlägt, wurde behoben.
Außerdem gab es noch Korrekturen für zwei zukünftige Experimente, zum einen für die Anzeige eines QR-Codes auf der Firefox-Startseite zum Download des Android- / iOS-Browsers, zum anderen für die Anzeige einer Infoleiste bezüglich der Nutzungsbedingungen von Firefox.
Orbit by Mozilla ist eine Firefox-Erweiterung von Mozilla, welche den Browser um einen KI-Assistenten erweitert, der Texte und Videos zusammenfassen kann und dabei die Privatsphäre der Nutzer respektiert. Nun wurde die Einstellung der experimentellen Erweiterung bekannt gegeben. Einen Ersatz gibt es nativ in Firefox.
Die Ende des vergangenen Jahres veröffentlichte Firefox-Erweiterung Orbit by Mozilla legt standardmäßig ein grafisches Element über alle Websites, welches aber auch an eine beliebige andere Stelle gezogen werden kann. Fährt man mit der Maus über das Element, hat man die Optionen, sich den Inhalt der aktuellen Seite zusammenfassen zu lassen oder einen Chatbot zum Inhalt zu befragen. Nun hat Mozilla bekannt gegeben, die experimentelle Erweiterung, deren Website auch Stand heute noch eine sichtbare Beta-Kennzeichnung besitzt, am 26. Juni 2025 einzustellen.
Eine Alternative befindet sich aber bereits in Firefox. So besitzt Firefox eine Chatbot-Integration, welche standardmäßig Google Gemini, ChatGPT, HuggingChat, Anthropic Claude sowie Le Chat Mistral zur Auswahl stellt. Aber auch weitere Chatbots wie Microsoft Copilot können aktiviert werden.
Über die Firefox-Sidebar können beliebige Fragen gestellt werden. Es gibt aber auch von Haus aus vorgefertigte „Prompts“, welche über das Kontextmenü erreicht werden können, inklusive der Option, sich den Inhalt der Website zusammenfassen zu lassen – also genau das, was Orbit macht. Und wie Orbit funktioniert auch die in Firefox nativ integrierte Funktion für PDF-Dateien und die Transkriptionen von Videos.
Mozilla arbeitet aktuell daran, die Funktion zum Zusammenfassen mehr in den Vordergrund zu rücken. So bekommt die Chatbot-Sidebar eine prominent sichtbare Schaltfläche zum Zusammenfassen, das Kontextmenü wird überarbeitet und auch über die Tabs zugänglich gemacht.
Wenn Sie meinen vorigen Blogbeitrag über Hetzner-Cloud-Benchmarks gelesen haben, ist Ihnen vielleicht aufgefallen, dass ich Alma Linux 10 in einer Hetzner-Cloud-Instanz ausgeführt habe, um dort Geekbench-Tests auszuführen. Das war nicht so einfach: Hetzner bietet Alma Linux 10 noch nicht als Installations-Image an.
Also habe ich eine neue Instanz zuerst mit Alma Linux 9 eingerichtet und danach mit Elevate ein Update auf Version 10 durchgeführt. Das ist erstaunlich unkompliziert gelungen, obwohl Version-10-Updates eigentlich noch im Beta-Test sind.
Was ist LEAPP, was ist Elevate?
RHEL und alle Klone durchlaufen über reguläre Updates alle Minor-Releases. Wenn Sie also Alma Linux 9.0 installiert haben, erhalten Sie durch die regelmäßige Installation von Updates nach und nach die Versionen 9.1, 9.2 usw. Ein Update auf die nächste Major-Version ist aber nicht vorgesehen.
Mit LEAPP hat Red Hat ein Framework geschaffen, um Major-Version-Updates für RHEL durchzuführen. LEAPP wurde sehr allgemeingültig konzipiert und kümmert sich um Pre-Upgrade-Kontrollen, Paketabhängigkeiten, den Workflow zwischen verschiedenen Stadien des Upgrades usw.
Elevate ist eine Community-Erweiterung zu LEAPP, die über das eigentliche Upgrade hinaus in manchen Fällen auch einen Wechsel der Paketquellen zwischen Alma Linux, CentOS, Oracle Linux und RockyLinux durchführen kann. Sie können mit Elevate beispielsweise zuerst von CentOS 7 zu RockyLinux 8 migrieren und dann weiter zu Rocky Linux 9 upgraden.
Mögliche Migrationspfade für »Elevate« (Stand: Juni 2026, Bildquelle: https://wiki.almalinux.org/elevate/ELevate-quickstart-guide.html)
Vorbereitungsarbeiten
Bevor Sie Elevate anwenden, müssen Sie ein vollständiges Backup durchführen und Ihren Rechner bzw. Ihre virtuelle Maschine neu starten:
dnf update
reboot
Danach richten Sie eine Paketquelle für Elevate ein und installieren das für Sie relevante Upgrade-Modul (für das Beispiel in diesem Artikel mit der Zieldistribution Alma Linux also leapp-data-almalinux).
dnf install -y http://repo.almalinux.org/elevate/elevate-release-latest-el$(rpm --eval %rhel).noarch.rpm
# für AlmaLinux
dnf install leapp-upgrade leapp-data-almalinux
# alternativ für Rocky Linux (etc.)
dnf install leapp-upgrade leapp-data-rocky
Als nächstes folgt ein Test, ob das gewünschte Upgrade (plus gegebenenfalls eine Migration zu einer anderen Distribution, hier nicht relevant) überhaupt möglich ist:
leapp preupgrade
leapp preupgrade erzeugt zwei Dateien: Einen umfassenden Bericht, der alle möglichen Probleme aufzählt, und eine answer-Datei, in die Sie gegebenenfalls Optionen eintragen müssen (z.B. mit leapp answer --section check_vdo.confirm=True). In meinem Fall — Upgrade einer Minimalinstallation von Alma Linux 9 auf 10, hat leapp preupgrade auf die folgenden Probleme hingewiesen, aber keine answer-Einträge verlangt.
High: veraltete Netzwerkkonfiguration in /etc/sysconfig/network-scripts
High: unbekannte Systemdateien (»Aktoren«)
High: unbekannte Pakete (hc-utils)
Medium: Berkeley DB (libdb) ist installiert, wird in RHEL 10 nicht mehr unterstützt
Low: unbekannten Paket-Repositories
cat /var/log/leapp/leapp-report.txt
Risk Factor: high (inhibitor)
Title: Legacy network configuration found
Summary: Network configuration files in legacy "ifcfg" format are present ...
- /etc/sysconfig/network-scripts/ifcfg-eth0
Related links:
- How to migrate the connection from ifcfg to NetworkManager keyfile plugin?:
https://access.redhat.com/solutions/7083803
- nmcli(1) manual, describes "connection migrate" sub-command.:
https://networkmanager.dev/docs/api/latest/nmcli.html
...
Remediation: [hint] Convert the configuration into NetworkManager native "keyfile" format.
----------------------------------------
Risk Factor: high
Title: Detected custom leapp actors or files.
Summary: We have detected installed custom actors or files on the system.
These can be provided e.g. by third party vendors ... This is allowed
and appreciated. However Red Hat is not responsible for any issues caused
by these custom leapp actors ...
The list of custom leapp actors and files:
- /usr/share/leapp-repository/repositories/system_upgrade/\
common/files/distro/almalinux/rpm-gpg/10/RPM-GPG-KEY-AlmaLinux-10
- /usr/share/leapp-repository/repositories/system_upgrade/\
common/files/rpm-gpg/10/RPM-GPG-KEY-AlmaLinux-10
...
Den vollständigen Report können Sie sich hier durchlesen.
Migration der Netzwerkkonfiguration
Wirklich kritisch war aus meiner Sicht nur die Netzwerkkonfiguration; die restlichen Hinweise und Empfehlungen habe ich ignoriert. Das Paket hc-utils (Hetzner Cloud Utilities) ist nur für Funktionen relevant, die in meinem Fall ohnedies nicht genutzt werden (siehe hier).
Auch die veraltete Netzwerkkonfiguration stammt vom Hetzner-Image für Alma Linux 9. Eine Umstellung auf eine *.nmconnection-Datei für den NetworkManager gelingt erstaunlich unkompliziert mit einem einzigen Kommando:
Mit einem weiteren Reboot habe ich sichergestellt, dass die Umstellung auch funktioniert.
Das Upgrade
leapp upgrade initiiert nun das Upgrade auf Alma Linux 10. Dabei werden seitenweise Logging-Ausgaben produziert (siehe den kompletten Output mit ca. 3150 Zeilen):
leapp upgrade
==> Processing phase `configuration_phase` ...
==> Processing phase `FactsCollection` ...
...
==> Processing phase `TargetTransactionFactsCollection`
Create custom repofile containing information about
repositories found in target OS installation ISO, if used.
Initializes a directory to be populated as a minimal environment
to run binaries from the target system.
AlmaLinux 10.0 - BaseOS 5.9 MB/s | 2.8 MB 00:00
AlmaLinux 10.0 - AppStream 11 MB/s | 5.6 MB 00:00
AlmaLinux 10.0 - CRB 5.0 MB/s | 2.2 MB 00:00
AlmaLinux 10.0 - HighAvailability 161 kB/s | 69 kB 00:00
AlmaLinux 10.0 - Extras 28 kB/s | 12 kB 00:00
AlmaLinux 10.0 - SAP 8.3 kB/s | 3.5 kB 00:00
AlmaLinux 10.0 - SAPHANA 35 kB/s | 15 kB 00:00
AlmaLinux 10.0 - RT 2.8 MB/s | 1.1 MB 00:00
AlmaLinux 10.0 - NFV 2.8 MB/s | 1.1 MB 00:00
Dependencies resolved.
...
Transaction Summary: Install 153 Packages
...
Complete!
==> Processing phase `TargetTransactionCheck`
...
Transaction Summary
Install 63 Packages
Upgrade 389 Packages
Remove 18 Packages
Downgrade 3 Packages
Transaction test succeeded.
Complete!
====> add_upgrade_boot_entry
Add new boot entry for Leapp provided initramfs.
A reboot is required to continue. Please reboot your system.
Debug output written to /var/log/leapp/leapp-upgrade.log
============================================================
REPORT OVERVIEW
============================================================
HIGH and MEDIUM severity reports:
1. Packages not signed by Red Hat found on the system
2. Detected custom leapp actors or files.
3. Berkeley DB (libdb) has been detected on your system
Reports summary:
Errors: 0
Inhibitors: 0
HIGH severity reports: 2
MEDIUM severity reports: 1
LOW severity reports: 2
INFO severity reports: 1
Before continuing, review the full report below for details about discovered
problems and possible remediation instructions:
A report has been generated at /var/log/leapp/leapp-report.txt
A report has been generated at /var/log/leapp/leapp-report.json
============================================================
END OF REPORT OVERVIEW
============================================================
Answerfile has been generated at /var/log/leapp/answerfile
Reboot the system to continue with the upgrade. This might take a while
depending on the system configuration.
Make sure you have console access to view the actual upgrade process.
Jetzt wird es unheimlich: Mit reboot starten Sie die nächste Phase des Upgrade-Prozesses, der im Blindflug erfolgt. Der Rechner bzw. die virtuelle Maschine wird während dieser Phase noch einmal neu gestartet. Wenn Sie nicht vor dem Rechner sitzen, sehen Sie weder, was passiert, noch haben Sie über eine SSH-Verbindung die Möglichkeit, einzugreifen.
reboot
Wenn alles gut geht, können Sie sich nach ein paar Minuten wieder einloggen. Bei mir hat es funktioniert:
Ich habe mit diesem Experiment erreicht, was ich haben wollte: eine funktionierende, minimale Alma-Linux-10-Installation in einer im Internet erreichbaren virtuellen Maschine. Ich kann damit experimentieren. Vermutlich wird Hetzner in ein paar Wochen Alma Linux 10 als reguläres Cloud-Installations-Image anbieten. Dann werde ich diese Installation vermutlich wieder abschalten.
In der Vergangenheit habe ich Elevate auch schon auf lokale virtuelle Maschinen mit (nicht besonders wichtigen) Testumgebungen angewendet, ebenfalls zu meiner Zufriedenheit.
Aber ich würde mich niemals trauen, für ein produktiv wichtiges System auf diese Weise ein Upgrade oder womöglich eine Migration auf eine andere Distribution durchzuführen — und schon gar nicht, wenn ich keinen physischen Zugriff auf die Installation habe. Es kann dabei so viel schief gehen! Es ist unklar, ob danach überhaupt eine Reparatur möglich ist, und wenn ja, wie lange diese dauern würde.
Vergessen Sie zuletzt nicht, dass das Upgrade von Alma Linux 9 auf Version 10 aktuell noch im Beta-Test ist. Bei meinem Minimalsystem hat es funktioniert, aber das ist keine Garantie, dass das bei Ihnen auch klappt!
Kurz und gut: Die Kombination aus LEAPP und Elevate bietet eine großartige Möglichkeit, Major Upgrades für RHEL und seine Klone durchzuführen. Das ist ideal für Entwicklungs- und Testsysteme. Aber wie bei jedem Linux-Distributions-Upgrade kann dabei viel schief gehen. Der sichere Weg für produktiv wichtige Installationen ist immer eine Neuinstallation! Sie können dann in aller Ruhe sämtliche Funktionen testen, zum Schluss die Daten migrieren und mit minimaler Downtime eine Umstellung durchführen.
In diesem Tutorial erkläre ich, worum es sich beim Red Hat Offline Knowledge Portal handelt, unter welchen Voraussetzungen man es nutzen kann und wie man es als systemd.service auf dem eigenen Rechner betreibt.
An einigen Stellen verweise ich auf die offizielle Red Hat Dokumentation, um das Tutorial nicht unnötig zu verlängern.
Was ist das Red Hat Offline Knowledge Portal?
Wie der Name suggeriert, handelt es sich um eine offline nutzbare Version des Red Hat Customer Portal und unserer Knowledge Base, Errata, Produktdokumentation, CVE-Datenbank und Red Hat Security Data API. Das folgende Bildschirmfoto zeigt die Startseite.
Startseite des Red Hat Offline Knowledge Portal
Ausgeliefert wird es als OCI-kompatibles Container-Image über registry.redhat.io (Authentifizierung erforderlich). Informationen zum aktuellen Image und den Vorgängerversionen finden sich auch im Red Hat Ecosystem Catalog. Der Inhalt wird wöchentlich aktualisiert und als aktualisiertes Container-Image bereitgestellt.
Wofür soll das gut sein?
Als Systemadministratoren oder Technical Account Manager (TAM) möchten wir auch auf die im vorstehenden Abschnitt genannten Informationen zugreifen können, wenn wir uns in einer Umgebung befinden, in der ein Internetzugriff nicht möglich ist. Darunter fallen zum Beispiel:
Vom Internet getrennte bzw. isolierte IT-Umgebungen
Einige Züge der Deutschen Bahn
Besprechungsräume und Büros mit bescheidener Signalstärke für das Diensttelefon
Umgebungen, in denen der Zugriff auf die Online-Informationen ermüdend langsam ist
Ich persönlich möchte das Offline Knowledge Portal zum Beispiel gerne auf meinem Arbeitslaptop dabei haben, um unterwegs jederzeit auf die darin enthaltenen Informationen zugreifen zu können. Es ist so schnell, dass ich nicht mehr auf Zug-WLAN, langsame Mobilfunkverbindungen oder die langsame Online-Version (an einer Verbesserung wird gearbeitet) warten muss.
Wer kann das benutzen?
Folgende Voraussetzungen müssen erfüllt sein, um das Offline Knowledge Portal nutzen zu können:
Zugangsdaten für registry.redhat.io in einer Datei für eine automatisierte Anmeldung liegen vor; siehe container-auth.json(5) für weitere Informationen
Wie kann man das dann benutzen?
Wer die schnelle Lösung sucht, findet diese in Chapter 1. Launching Red Hat Offline Knowledge Portal. Ich zeige an dieser Stelle, wie man das Offline Knowledge Portal als systemd.service konfigurieren und dann wie einen normalen Dienst steuern kann. Im folgenden Codeblock findet ihr mein Podman Quadlet, mit dessen Hilfe der systemd.service generiert wird. Die Datei habe ich in diesem Pfade abgelegt: ~/.config/containers/systemd/rhokp.container.
:~$ cat .config/containers/systemd/rhokp.container
[Unit]
Description=Red Hat Offline Knowledge Portal
[Container]
AutoUpdate=registry
ContainerName=RHOKP
Image=registry.redhat.io/offline-knowledge-portal/rhokp-rhel9:latest
PublishPort=127.0.0.1:8080:8080
PublishPort=127.0.0.1:8443:8443
Pull=newer
Secret=rhokp_access_key,type=env,target=ACCESS_KEY
[Service]
# Extend Timeout to allow time to pull the image
TimeoutStartSec=900
[Install]
# Start by default on boot
# WantedBy=multi-user.target default.target
Erklärung des Abschnitts [Container]:
AutoUpdate=registry
Aktiviert automatische Updates für den Container
Podman prüft dabei, ob in der Container-Registry eine neuere Version des Container-Images vorhanden ist, wenn der podman-auto-update.timer abgelaufen ist
ContainerName=RHOKP
Gibt dem Container einen Namen
Dieser wird in der Ausgabe von podman ps angezeigt
Der Tag latest ist zu verwenden, damit automatische Updates funktionieren
PublishPort=
Da ich das Offline Knowledge Portal auf meinem Arbeitslaptop ausführe und nur selbst nutze, binde ich den Dienst an die IP-Adresse 127.0.0.1
Soll der Dienst im Netzwerk angeboten werden, ist eine entsprechend erreichbare IP-Adresse zu verwenden
Pull=newer
Mit dieser Pull-Policy wird bei jedem Container-Start geprüft, ob eine neue Image-Version in der Container-Registry verfügbar ist und lädt diese ggf. herunter
Auf diese Weise muss ich nicht auf den Ablauf von podman-auto-update.timer warten
Es macht es mir einfacher, das Image auf meinem Laptop aktuell zu halten
Ich habe meinen Offline Knowledge Portal Access Key in einem Podman-Secret namens rhokp_access_key gespeichert, welches beim Container-Start in die Umgebungsvariable ACCESS_KEY gemappt wird
So stelle ich sicher, dass mein Zugangstoken nicht in der Ausgabe von podman inspect auftaucht oder mit dem Container in eine Datei gespeichert wird und ggf. unkontrolliert mein System verlässt
Weitere Informationen finden sich in den Manpages podman-systemd.unit(5) und podman-secret(1).
Bitte beachtet, dass ich die letzte Zeile mit WantedBy= auskommentiert habe, da ich den Service auf meinem Laptop nur bei Bedarf starte. Wenn ihr den Dienst auf einem Server laufen lassen möchtet, der automatisch mitstartet, kommentiert die Zeile einfach ein.
Mit den folgenden Befehlen wird aus dem Quadlet ein systemd.service generiert und gestartet.
Die zwei günstigsten Angebote in der Hetzner-Cloud sind Instanzen mit zwei CPU-Cores, 4 GB RAM und 40 GB Diskspace: Einmal mit virtuellen ARM-CPU-Cores (»CAX11«), einmal mit virtuellen x86-Cores (»CX22«). Der Preis ist identisch: 3,95 EUR/Monat inkl. USt (für D) plus ein Aufpreis von 0,50 EUR/Monat für eine IPv4-Adresse. Die naheliegende Frage ist: Welches Angebot gibt mehr Rechenleistung? Dieser Frage bin ich an einem verregneten Pfingstsonntag auf den Grund gegangen.
Ein »virtueller CPU-Core« heißt in diesem Zusammenhang, dass auf einem Server mehrere/viele virtuelle Maschinen laufen. Je nach Auslastung kann es sein, dass die für eine virtuelle Maschine vorgesehen CPU-Cores nicht vollständig verfügbar sind. Es gibt auch virtuelle Maschinen mit dezidierten Cores, die immer zur Verfügung stehen — aber die sind natürlich teurer.
Auswahl verschiedener Cloud-Instanzen
Testbedingungen
Für meine Tests habe ich zwei Cloud-Instanzen mit Alma Linux 9 eingerichtet, einmal mit zwei ARM-CPU-Cores (CAX11), einmal mit zwei x86-CPU-Cores (CX11). Außer tar und Geekbench habe ich keine weitere Software installiert. /proc/cpuinfo lieferte die folgenden Ergebnisse:
cat /proc/cpuinfo # CAX11 / ARM (Ampere)
processor : 0
BogoMIPS : 50.00
Features : fp asimd evtstrm aes pmull sha1 sha2 crc32 atomics fphp asimdhp cpuid asimdrdm lrcpc dcpop asimddp
CPU implementer : 0x41
CPU architecture: 8
CPU variant : 0x3
CPU part : 0xd0c
CPU revision : 1
processor : 1
...
Geekbench-Ergebnisse
In beiden virtuellen Maschinen habe ich mit wget Geekbench heruntergeladen, mit tar xzf ausgepackt und dann dreimal ausgeführt. Die Ergebnisse:
CX11 / x86 / Alma Linux 9
Single Multi Core
------ -----------
698 1203
692 1207
642 1205
--------------------------
CAX11 / ARM / Alma Linux 9
Single Multi Core
------ -----------
1082 1979
1084 1982
1079 1965
Zuletzt wollte ich noch wissen, ob Alma Linux 10 bei gleicher Hardware mehr Speed liefert (schnellerer Kernel, bessere Optimierung/Kompilierung der Programme etc.). Diese Tests habe ich nur auf der ARM-Instanz durchgeführt.
CAX11 / ARM / Alma Linux 10
Single Multi Core
------ -----------
1078 1971
1069 1963
1077 1974
Zusammenfassung: Bei meinen Tests boten die CAX11-Instanzen bei gleichen Kosten fast 50% mehr Leistung. Alma Linux 9 versus 10 ergibt dagegen keinen messbaren Unterschied.
PS: Geekbench ist noch nicht im IPv6-Zeitalter angekommen. Ist ja auch wirklich eine ganz neue Technologie … Wenn Sie selbst Tests durchführen wollen, müssen Sie die Instanz mit einer IPv4-Adresse konfigurieren. Weder gelingt der Download (das lässt sich umgehen), noch kann ./geekbench6 danach die Ergebnisse hochladen.
Einschränkungen
Bitte überbewerten Sie die Ergebnisse nicht! Die Hetzner-Cloud-Seite gibt keinerlei Informationen darüber, auf welchem Server bzw. auf welcher CPU Ihre virtuellen Maschinen laufen werden. Hetzner hat mehrere Rechenzentren mit unzähligen Server, mit Glück oder Pech landet Ihre virtuelle Maschine auf einem anderen, besser oder schlechter ausgestatteten Server. Das hier präsentierte Ergebnis ist nur eine Momentaufnahme, kein professionell über Wochen durchgeführter Test!
Es erscheint mir unwahrscheinlich, dass zum Testzeitpunkt (Sonntag nachmittag) die Cloud-Server besonders stark ausgelastet waren, aber es ist natürlich denkbar, dass das Ergebnis durch die Aktivität anderer virtueller Maschinen beeinflusst wurde.
Geekbench ist definitiv nicht das Maß der Dinge für Server-Benchmarks. Aber Geekbench lässt sich leicht installieren und ausführen, außerdem sind die Ergebnisse mit Desktop-Hardware vergleichbar. Sagen wir so: Um die CPU-Performance zu vergleichen, sind die Tests aus meiner Sicht gut genug.
Zu guter Letzt habe ich ausschließlich die billigsten Cloud-Angebote verglichen (die bei meinen Anwendungen aber oft ausreichen). Es gibt viele weitere Varianten, z.B. »CPX11« (2 AMD-Cores, nur 2 GB RAM, 40 GB Disk).
Kurz und gut: Dieser Test besagt NICHT, dass ARM immer mehr Leistung als x86 bietet. Zum Zeitpunkt meiner Tests und bei den von mir gewählten Randbedingungen erscheint es aber so, also würden Sie bei preisgünstige Cloud-Instanzen mit ARM-CPUs aktuell mehr Leistung bekommen als bei Instanzen zum gleichen Preis mit x86-Hardware.
In diesem Video zeigt Jean, wie man mit PaperlessNGX seine Dokumente verwalten kann. Durch die intelligente Sortierung spart man nicht nur Papier sondern kann alle Rechnungen, Bewerbungen und vieles mehr besser managen.
Wenn Du das Video unterstützen willst, dann gib bitte eine Bewertung ab, und schreibe einen Kommentar. Vielen Dank!
Links:
-------------------------------------
- So installierst Du PaperlessNGX https://youtu.be/uZyGqCfKrIE
- PaperlessNGX im Libre Workspace https://youtu.be/sLt3PgpT5OY
- Was ist der Libre Workspace? https://youtu.be/tzs9SdfeOMc
- Wir richten PaperlessNGX in unserem Support gerne für euch ein: https://www.linuxguides.de/linux-support/
- Linux-Guides Merch*: https://linux-guides.myspreadshop.de/
- Professioneller Linux Support*: https://www.linuxguides.de/linux-support/
- Linux-Arbeitsplatz für KMU & Einzelpersonen*: https://www.linuxguides.de/linux-arbeitsplatz/
- Linux Mint Kurs für Anwender*: https://www.linuxguides.de/kurs-linux-mint-fur-anwender/
- Offizielle Webseite: https://www.linuxguides.de
- Forum: https://forum.linuxguides.de/
- Unterstützen: http://unterstuetzen.linuxguides.de
- Mastodon: https://mastodon.social/@LinuxGuides
- X: https://twitter.com/LinuxGuides
- Instagram: https://www.instagram.com/linuxguides/
- Kontakt: https://www.linuxguides.de/kontakt/
Inhaltsverzeichnis:
-------------------------------------
00:00 Begrüßung
00:25 Was ist PaperlessNGX
02:20 Funktionen und Abläufe
06:30 Automatisierung
14:41 Kompatibilität
Haftungsausschluss:
-------------------------------------
Das Video dient lediglich zu Informationszwecken. Wir übernehmen keinerlei Haftung für in diesem Video gezeigte und / oder erklärte Handlungen. Es entsteht in keinem Moment Anspruch auf Schadensersatz oder ähnliches.
Solo ist ein Website-Builder von Mozilla, der auf Künstliche Intelligenz (KI) und einen maximal einfachen Erstellungsprozess setzt. Nun steht Solo 1.8 bereit und bringt viele Neuerungen.
Im Rahmen der Innovation Week im Dezember 2023 hatte das Mozilla Innovation Studio Solo angekündigt. Dabei handelt es sich um einen sogenannten Website-Builder mit Fokus auf Selbständige, der auf generative Künstliche Intelligenz für einen maximal einfachen Erstellungsprozess setzt.
In diesem Video zeigt Jean eine Designidee für Xfce. Die Desktopumgebung Xfce ist sehr performant und lässt sich ziemlich gut und modern anpassen.
Wenn Du das Video unterstützen willst, dann gib bitte eine Bewertung ab, und schreibe einen Kommentar. Vielen Dank!
Terminal Befehle:
-------------------------------------
- xfce ganz einfach installieren mit
sudo apt install xfce4
Befehl für das Tastenkürzel: xfce4-popup-whiskermenu
Links:
-------------------------------------
- Hier findet ihr alle Themen: https://www.xfce-look.org/browse/
- Direkt zu den Tela Icons: https://www.xfce-look.org/p/1279924/
- Direkt zum Win 11 Gtk-Theme: https://www.gnome-look.org/p/2278411
- Hintergrundbild: https://unsplash.com/photos/green-trees-on-gray-rock-mountain-beside-body-of-water-eWFdaPRFjwE
- Linux Guides Forum: https://forum.linuxguides.de/
- Linux-Guides Merch*: https://linux-guides.myspreadshop.de/
- Professioneller Linux Support*: https://www.linuxguides.de/linux-support/
- Linux-Arbeitsplatz für KMU & Einzelpersonen*: https://www.linuxguides.de/linux-arbeitsplatz/
- Linux Mint Kurs für Anwender*: https://www.linuxguides.de/kurs-linux-mint-fur-anwender/
- Offizielle Webseite: https://www.linuxguides.de
- Unterstützen: http://unterstuetzen.linuxguides.de
- Mastodon: https://mastodon.social/@LinuxGuides
- X: https://twitter.com/LinuxGuides
- Instagram: https://www.instagram.com/linuxguides/
- Kontakt: https://www.linuxguides.de/kontakt/
Haftungsausschluss:
-------------------------------------
Das Video dient lediglich zu Informationszwecken. Wir übernehmen keinerlei Haftung für in diesem Video gezeigte und / oder erklärte Handlungen. Es entsteht in keinem Moment Anspruch auf Schadensersatz oder ähnliches.
Eine Weile hat es so ausgesehen, als wäre »Swift 5« die letzte Auflage meiner Swift-Bücher. Um so mehr freut es mich, dass »Swift — Das umfassenden Handbuch« diese Woche rundumerneuert erschienen ist! Auch wenn der Verlag von der 5. Auflage spricht — aus meiner Sicht ist das Buch praktisch komplett neu. Aus der vorigen Auflage habe ich eigentlich nur einige Grundlagenkapitel übernommen (und aktualisiert), die die Syntax von Swift beschreiben.
Vollkommen neu ist hingegen der Fokus auf SwiftUI. Diese Bibliothek wird längerfristig das UIKit ablösen. SwiftUI erfordert in vielerlei Hinsicht ein Neulernen der UI-Programmierung. Der Aufwand lohnt sich! UIKit funktioniert plattformübergreifend (macOS, iOS etc.), passt sich automatisch an den Dark Mode an, übernimmt die Font-Einstellungen aus den Systemeinstellungen usw. Endlich könnenSie die Oberflächen Ihrer Apps per Code gestalten und sind nicht auf den unübersichtlichen Story-Board-Editor angewiesen.
Geändert hat sich das Buch auch aus einem zweiten Grund: Als ich die vorige Auflage verfasst habe, gab es ChatGPT noch nicht. Mit KI-Assistenten ändert sich der Coding-Alltag aber grundlegend. Sie müssen die Konzepte und Grundlagen verstehen; Details wie die Reihenfolge der Optionen, die Syntax exotischer Klassen etc. können Sie hingegen getrost KI-Tools überlassen. Mit etwas Glück werden brauchbare KI-Werkzeuge demnächst auch in Xcode integriert. (Diesbezüglich hat Apple viel versprochen, aber bisher wenig geliefert.) Bis es so weit ist, liefern auch ChatGPT, Claude oder Gemini verblüffend gute Code-Vorschläge.
Kurz und gut: »Swift — Das umfassende Handbuch« vermittelt Ihnen das Fundament, um selbstständig oder mit KI-Unterstützung eigene Apps zu entwickeln. Mehr Details zum Buch können Sie hier nachlesen:
Bei der manuellen Kontoeinrichtung wird das Server-Feld nun vorausgefüllt. Ein Menü-Eintrag zum Leeren des Spam-Ordners wurde hinzugefügt. Auch auf Android 10 und älter gibt es jetzt die Option zur Verwendung des System-Themes. Bei der Bereinigung von HTML-Inhalten bleibt das Element für durchgestrichenen Text erhalten. Es gab weitere Optimierungen für Android 15. Dazu kommen wie immer weitere Detail-Verbesserungen unter der Haube sowie Fehlerkorrekturen.