Lese-Ansicht

Jahresrückblick 2025 und Ausblick

Das Jahr 2026 steht bevor und ich möchte die Gelegenheit nutzen, um mich bei allen Lesern zu bedanken, die mich auch in diesem Jahr begleitet haben: sowohl auf meinem Blog als auch auf dem Risikozone-Podcast.

Den eigentlichen Jahresrückblick gibt es in der heute erschienenen Risikozone-Episode 90. Dort haben wir schon festgestellt: Abgesehen von ein wenig Cloudflare-„Schluckauf“ war es ein vergleichsweise ruhiges Jahr.

Mit zwölf Artikeln konntet ihr in diesem Jahr jeden Monat etwas von mir lesen. Der Schwerpunkt lag allerdings klar auf dem Podcast: dort kamen noch einmal 26 Episoden dazu.

Für das nächste Jahr – und nebenbei dem Jahr des zehnjährigen Blogbestehens – nehme ich mir vor, den Blog endlich wieder stärker anzupacken, ein paar Neuerungen einzuspielen und vielleicht auch thematische neue Inhalte auszuprobieren. Wie bei vielen OSS-Projekten ist es oft nicht so leicht, dafür konsequent Zeit zu finden - aber gerade deshalb eignet sich der Blog gut für spannende Experimente.

Bis dahin wünsche ich euch einen guten Rutsch in das neue Jahr. Mögen eure Builds stabil sein und die Bugs reproduzierbar (oder am besten gar nicht existieren). Auf ein gutes 2026!

  •  

Daily Stand-ups und Meetings für soziale Interaktion

Am Montag des 24. November 2025 gab es im Matrix-Kanal des TILpod eine kurze Diskussion über den (Un-)Sinn und Nutzen von täglichen Besprechungen (Dailys) und darüber warum der regelmäßige Austausch gerade in ausschließlich verteilt arbeitenden Teams wichtig ist. Die Diskussion hat mich dazu motiviert, einmal aufzuschreiben wie wir dies bei uns im Team handhaben.

Dieser Text soll euch informieren, wie wir es mit den Meetings halten und mag euch als Inspiration dienen. Darüber hinaus freue ich mich, wenn ihr die in eurem Team gelebte Praxis und die Erfahrungen damit in den Kommentaren teilt.

Was ist denn überhaupt ein Team und wenn ja, wie viele?

Inspiriert vom buzzzoom.de habe ich Wikipedia und die Mistral AI befragt, was denn überhaupt ein Team ist:

Der Anglizismus Team [tiːm] (altenglisch in der Bedeutung „Familie, Gespann, Gruppe, Nachkommenschaft“) bezeichnet in der Soziologie eine aus mindestens zwei Personen bestehende Organisationseinheit, die eine bestimmte Aufgabe erfüllen und/oder gemeinsame Ziele verfolgen soll.

Quelle: https://de.wikipedia.org/wiki/Team

Mistral antwortet wie folgt auf die Frage: „Was ist ein Team?“

Ein Team ist eine Gruppe von Menschen, die gemeinsam an einem Ziel arbeiten. Teams zeichnen sich durch folgende Merkmale aus:

  • Gemeinsames Ziel: Alle Mitglieder streben dasselbe Ergebnis an.
  • Zusammenarbeit: Die Mitglieder ergänzen sich mit ihren Fähigkeiten und arbeiten koordiniert.
  • Verantwortung: Jedes Mitglied übernimmt Aufgaben und trägt zur Lösung bei.
  • Kommunikation: Offener Austausch ist essenziell für den Erfolg.

Teams gibt es in vielen Bereichen: im Beruf, im Sport, in der Schule oder auch in der Familie. Wichtig ist, dass die Mitglieder sich gegenseitig unterstützen und Vertrauen zueinander haben.

Möchtest du wissen, wie man ein gutes Team aufbaut oder welche Rollen es in einem Team gibt?

Beruflich betrachte ich mich der obigen Definition folgend als Bestandteil der folgenden Teams:

  • TAM-Team DACH (TAM == Technical Account Management)
  • EMEA TAM Team

Beide Teams haben gemeinsam, dass meines Wissens nach alle TAMs zu 100% remote oder hybrid arbeiten und keiner von uns einem Büro fest zugeordnet ist. Bis auf seltene Ausnahmen treffen und besprechen wir uns also ausschließlich in der Videokonferenzlösung unserer Wahl.

Das EMEA Platform Daily Standup

Diese Besprechung ist ein Angebot an das EMEA Platform TAM Team. Es findet jeden Werktag statt und dauert maximal 30 Minuten. Die Teilnahme ist freiwillig. Hier diskutieren wir offene Fragen, aktuelle Themen und nutzen es zum Informationsaustausch.

Die Teilnehmenden tragen ihre Punkte mit Referenzen in eine fortlaufende Agenda ein, so dass die Informationen auffindbar bleiben. Zuerst werden die Punkte von dieser Agenda nach Reihenfolge des Eintrags besprochen. Anschließend wird gefragt, ob es noch spontan weitere Themen gibt. Falls nicht hören wir einfach früher auf. Wer möchte, darf verbleibende Zeit selbstverständlich für persönliche Gespräche nutzen.

Mir gefällt neben dem sehr guten fachlichen Austausch besonders, dass die Teilnehmenden ihre Kameras immer eingeschaltet haben und wir uns gegenseitig sehen können. Dadurch entsteht zumindest für mich ein Gefühl der Zusammengehörigkeit und Nähe, so dass ich es in keinster Weise vermisse, dass wir nicht zusammen in einem Büro sitzen.

Nicht alle haben jeden Tag Zeit, an dieser Besprechung teilzunehmen, doch gibt es einen harten Kern auf den fast immer Verlass ist. Dieses Standup lebt vom Engagement der Teilnehmenden, die hier ihr Wissen teilen, so dass wir gemeinsam lernen und wachsen können.

Ein wichtiger Unterschied zu vielen anderen Dailys: Hier ist kein Chef oder Manager anwesend, der einen Arbeitsfortschritt kontrollieren oder neue Aufgaben verteilen möchte. Soetwas ist in unserer Job-Rolle als Technical Account Manager unüblich.

Open Coffee Chat und Beer-o-clock

Das Wichtigste gleich vorweg:

  • Wer Tee oder Wasser trinkt, ist im Open Coffee Chat ebenfalls willkommen.
  • Ich habe im Beer-o-clock noch niemanden Bier trinken sehen.

Beides sind wöchentliche Angebote zur sozialen Interaktion und ersetzen den Flurfunk. Auch wenn ich persönlich nicht regelmäßig an diesen Treffen teilnehme, halte ich sie für wichtig. Viele Behörden und sonstige Organisationen funktionieren nur wegen des informellen Informationsflusses. Da man sich in verteilten Teams nur selten an der Kaffeemaschine trifft, sind diese Formate in meinen Augen eine gute Alternative.

Hier wird nicht nur über die Arbeit gesprochen, sondern auch über persönliche Dinge. Was treibt die Kolleg:innen um, wie macht sich der neue 3D-Drucker daheim, etc. Aber auch wenn man eine schwere Zeit mit einem Kunden oder einer Schwesterabteilung hat, findet man hier Trost, Zuspruch und aufmunternde Worte (oder drei Pfund Salz in die Wunde gerieben).

Auch hier ist die Teilnahme selbstverständlich freiwillig und die Zahl der Teilnehmenden schwankt.

Ob ich jetzt mit 3-6 Personen in einem Glaskasten sitze oder mich mit diesen im Coffee Chat treffe, macht für mich persönlich keinen Unterschied. Mir gefällt, dass auch hier alle ihre Kamera eingeschaltet haben und man sich sehen kann.

Gleichzeitig gefällt mir, dass man sich diesen informellen Gesprächen einfach entziehen kann, wenn man Ruhe benötigt. Eine Sache, die mir früher im Büro deutlich schwerer gefallen ist.

Die Kaffee- und Zigaretten-Pause zwischendurch

Manche Büromenschen können dies vielleicht nicht nachvollziehen, doch aus dies gelingt virtuell.

Wenn ich allein in meinem Arbeitszimmer sitze, kann es manchmal ganz schön still sein. Während ich konzentriert an einer Aufgabe arbeite, stört mich dies nicht. Im Gegenteil, ich genieße die Ruhe und bin deutlich effizienter, als wenn ich ständig von irgendetwas oder irgendjemanden abgelenkt werde. Doch gibt es auch Phasen, wo ich die Stimmen von Kollegen vermisse.

Für diese Phasen haben einige Kollegen und ich einen Chat, in dem wir kommunizieren, wenn wir eine Kaffeepause gebrauchen können. Dann schalten wir uns in einer Videokonferenz zusammen und atmen kurz durch.

Wer ungestört arbeiten möchte, hat seinen Chat stumm geschaltet und wird nicht gestört.

Selbst wenn man nicht die ganze Zeit miteinander spricht, sondern jeder für sich an seinen Themen arbeitet, kann das Kamerabild der anderen einem doch das Gefühl vermitteln, nicht allein zu sein. Und nach einem kurzen Gespräch kann es oft mit neuer Energie weitergehen.

Funktioniert das für alle und jeden?

Nein. Natürlich nicht.

Wir Menschen sind verschieden und haben unterschiedliche Bedürfnisse. Ich denke, dass die Fähigkeit zur effizienten und effektiven Remote-Arbeit eine gewissen persönliche Reife, Fähigkeit zur Selbstorganisation und Disziplin voraussetzt. Zudem muss man seine Werkzeuge beherrschen, um nicht von ihnen beherrscht zu werden. Und selbst wenn all diese Dinge auf einen Menschen zutreffen, mag dieser doch in einem Büro unter Seinesgleichen besser aufgehoben sein.

Es gibt nun mal nicht die eine Lösung für alle. Siehe auch: Eierlegende Wollmilchsau.

Es gibt jedoch auch Teams wie unsere, wo dies hervorragend funktioniert. Ich fühle mich hier sehr wohl und kann mir gar nicht mehr vorstellen, täglich in ein lautes Büro zu pendeln.

Noch Fragen? Wie macht ihr das?

Mit diesem Text habe ich euch einen kleinen Einblick in unsere Meeting-Kultur gegeben. Falls ihr dazu Fragen habt, stellt sie doch bitte in den Kommentaren oder in diesem Matrix-Kanal.

Ihr möchtet gerne mitteilen, wie dies bei euch gelebt wird? Dann teilt eure Erfahrungen doch gerne in den Kommentaren oder lasst einen Link zu eurem Blog dort.

Und nun zurück an die Arbeit. ;-)

  •  

Der perfekte Wochenplan für den IT-Betrieb

Dieser Artikel ist mit einem Augenzwinkern zu verstehen. Er soll euch unterhalten und bestenfalls inspirieren.

Und so sieht nun der perfekte Wochenplan für IT-Betriebsabteilungen aus.

Maintenance Monday

Das Wochenende ist gerade erst vorbei. Wir sind ausgeruht, hoch motiviert und voller Tatendrang. Heute ist der Tag für:

  • Deployments neuer Anwendungsversionen
  • Installation von Updates für Anwendungen, Betriebssysteme, Firmware, etc.
  • Kontrolle von Ausführungsplänen und Protokolldateien
  • Berechtigungen geraderücken
  • Dienste prüfen

Aktualisiert, deployt und patcht, als wenn es kein morgen gebe. Diese Woche gibt es keinen Tag, der besser dafür geeignet ist, denn:

  • So einfach kommt ihr nicht wieder an ein Wartungsfenster
    • Einige Stakeholder sind noch im verlängerten Wochenende
    • Andere Stakeholder erzählen sich in der Teeküche von ihrem Wochenende
  • Wenn etwas so richtig schief geht, habt ihr noch vier weitere Werktage, um den Schlamassel wieder zu beheben und riskiert nicht direkt euer Wochenende zu verlieren
  • Ab hier wird es nur noch besser

Zieht man das regelmäßig durch, gewöhnen sich die Kolleginnen und Kollegen daran. Mit Routine geht vieles leichter.

Bonus: Ihr führt hier wirklich wichtige Aufgaben aus. Da muss einfach jeder Verständnis dafür haben, dass ihr nicht gleichzeitig an irgendwelchen Besprechungen teilnehmen könnt.

Und wenn doch etwas klemmt, das ihr nicht sofort lösen könnt, ist das gar nicht schlimm. Schreibt es auf und kümmert euch am Troubleshooting Tuesday darum.

Troubleshooting Tuesday

Machen wir uns nichts vor, es geht nicht immer alles glatt, eigentlich ist immer irgendwas. Ärgert euch nicht darüber, es ist ganz normal und heute ist der Wochentag, wo ihr die Probleme aktiv angehen könnt, die vom Montag übrig sind.

Bedenkt, wie viel ihr gestern schon geschafft habt. Einen großen Teil der Aufgaben für diese Woche habt ihr gestern bereits abgearbeitet. Dadurch habt ihr heute die Zeit, um euch in Ruhe den hartnäckigen Problemen widmen zu können.

Hinzu kommt, dass die gestrigen Änderungen schon zu lange her sind, um jetzt noch zurückzurollen. Es gibt nur noch den Weg nach vorn.

Auch hier hilft euch die Routine. Wenn ihr immer montags Wartungsarbeiten durchführt, gewöhnen sich eure Stakeholder daran, dass es halt dienstags hier und da noch klemmt. Sie wissen aber auch, dass ihr heute nichts anderes macht, als die hartnäckigen Probleme zu analysieren, mit dem Hersteller-Support zu kollaborieren und den störungsarmen Betrieb wiederherzustellen.

Bonus: Wenn man euch beim Troubleshooting stört, gehen die Probleme nicht weg. Ihr werdet somit heute vor unnötigen Besprechungen verschont bleiben.

Waiting on Customer Wednesday

Herzlichen Glückwunsch. Zwei Tage harter Arbeit liegen hinter euch. Heute nutzt ihr den Tag, um die Stakeholder überprüfen zu lassen, welche Aufgaben umgesetzt und welche Probleme gelöst wurden.

Fragt aktiv nach, ob eure Kundschaft zufrieden ist, lasst euch feiern und sammelt die Aufgaben für den nächsten Maintenance Monday ein.

Bonus: Nach zwei Tagen voller Änderungen, Anpassungen und kleinerer Störungen und Totalausfälle, freuen sich die Stakeholder heute endlich richtig arbeiten zu können. Da haben sie keine Zeit, sich mit euch in Besprechungen zu treffen.

Thinking Thursday

Um Störungen zu minimieren, wollen Änderungen gut geplant werden. Daher dient der Donnerstag dem Denken der Gedanken. Heute wird der Plan erstellt, was am kommenden Maintenance Monday aktualisiert, deployt und geändert werden soll.

Der Kreativität sollen hierbei keine unnötigen Schranken gesetzt werden. Verlasst ruhig mal die gewohnte Umgebung eures Arbeitszimmers bzw. Büros und geht zusammen in die Kneipe oder ins Schwimmbad. Studien renommierter Personen belegen, dass es sich positiv auf die Kreativität und Innovationsentwicklung auswirkt, wenn man sich mal aus dem Tagesgeschäft herausnimmt.

Bonus: Wenn ihr nicht da seid, könnt ihr nicht an Besprechungen teilnehmen.

Change Freeze Friday

Das Motto dieses Tages lautet:

  • Wenn etwas funktioniert, mach es nicht kaputt
  • Wenn etwas nicht funktioniert, mach es nicht schlimmer

Lass die Finger von den IT-Systemen und fummel heute nicht dran rum. Es gibt genügend andere wichtige Dinge, die heute getan werden können. Zum Beispiel:

  • Dokumentationen aktualisieren
  • Fehlende Dokumentation erstellen bzw. ergänzen
  • Überflüssige Dokumente löschen
  • Das Büro aufräumen
  • Die Kaffeemaschine reinigen
  • Persönliche Fort- und Weiterbildung

Bonus: Gleich ist Wochenende. Heute kann eh niemand mehr etwas reißen, da braucht ihr auch nicht mehr an unnützen Besprechungen teilnehmen.

Fazit

Dieser Wochenplan bietet Routine und Struktur für IT-Betriebsabteilungen. Die wichtigsten Aufgaben werden direkt zu Beginn der Woche erledigt und dadurch die Motivation und der Stolz auf die eigene Leistung gesteigert.

Bereits nach wenigen Wochen seid ihr so geübt, dass Besprechungen durch eure absolute Routine völlig überflüssig werden. Denn jeder weiß genau, womit ihr an welchem Wochentag beschäftigt seid.

Was wünscht ihr euch da noch mehr?

  •  

Kommentare – Das Salz in der Blogsuppe

Mindestens einmal im Jahr stelle ich mir die Frage: „Soll ich die Kommentarfunktion in meinem Blog beibehalten oder deaktivieren?“

Grund für die wiederkehrende Frage ist der Kommentar-Spam, der viele Bloggerinnen und Blogger quält und der auch meinen Blog im Jahresverlauf mit unterschiedlicher Härte trifft. Die folgende Abbildung 1 gibt euch einen Eindruck von dem Verhältnis zwischen gewünschten Kommentaren und Spam.

Das Bild zeigt das Verhältnis von legitimen Kommentaren zu Spam-Kommentaren. Es gibt 1202 legitime Kommentare und 35771 Spam-Kommentare
Abb. 1: Screenshot der Kommentarstatistik 2025-09-10

Bisher habe ich mich jedes Mal dafür entschieden, die Kommentarfunktion beizubehalten. Für mich gehören die Kommentare zum Blog einfach dazu. Ich freue mich, wenn sich meine Leserinnen und Leser die Zeit nehmen, einen Kommentar zu hinterlassen. So erfahre ich u.a., was sie von meinen Artikeln halten und welche Meinung sie zu einem Thema haben. Auch habe ich schon einige gute Empfehlungen über die Kommentare erhalten. Sie stellen für mich ein wichtiges Mittel dar, um mit meinen Leserinnen und Lesern zu kommunizieren.

Ich selbst nutze auch gern die Kommentarfunktion in anderen Blogs, um mich für interessante Artikel zu bedanken, Fragen zum Thema zu stellen oder mich an einer Diskussion zu beteiligen.

Dabei bevorzuge ich es, wenn Kommentare direkt im Blog zu finden sind und nicht in anderen geschlossenen Plattformen verschwinden, in denen der Artikel geteilt wurde. Mit geschlossener Plattform meine ich jene, für die eine Registrierung und Anmeldung erforderlich ist, um die darin enthaltenen Inhalte abrufen zu können.

Der Kampf gegen den Spam…

…ist wie der Kampf eines berühmten Ritters gegen die Windmühlen. In meinem Kampf steht mir die Antispam Bee zur Seite, ohne die ich die Kommentarfunktion nicht anbieten könnte.

Da ich in diesem Blog fast ausschließlich Artikel in deutscher Sprache veröffentliche, akzeptiere ich auch nur Kommentare in Deutsch. Dies ist eine Einstellung für Antispam Bee, mit der ein Großteil des Kommentar-Spam direkt aussortiert wird.

Die als Spam markierten Kommentare schaue ich einmal die Woche grob durch. Erfreulicherweise habe ich schon lange keine False Positives mehr dabei gehabt.

Fazit

Für mich gehören Kommentare zum Blog wie der Senf zur Bratwurst. Ich freue mich über Kommentare, die ich in meinem Blog erhalte und darüber wenn Blogs eine einfach nutzbare Kommentarfunktion anbieten.

Was denkt ihr über Kommentare im Blog? Lasst es mich doch gerne in einem Kommentar wissen. ;-)

Dieser Beitrag ist Teil der #BlogWochen2025, welche von von Benedikt, Dirk und Robert zum runden Geburtstag ihrer Blogs ausgerufen wurden.

  •  

Was man aus einer Umfrage nicht lernen kann

Viele unter euch kennen bestimmt den Spruch: „Traue nie einer Statistik, die du nicht selbst gefälscht hast.“

Mit Umfrageergebnissen verhält es sich ähnlich. Häufig werden Dinge in diese hineininterpretiert, welche durch die erfassten Daten gar nicht belegt werden können. In diesem Text möchte ich anhand eines einfachen Beispiels erläutern, was man aus einer Umfrage alles nicht ableiten bzw. lernen kann.

Wir unterscheiden zwei Arten von Umfragen

Umfrage ist nicht gleich Umfrage. Dies wird offensichtlich, wenn man sich der englischen Sprache bedient, in der zwischen Poll und Survey unterschieden wird. Ich habe Gemini um eine prägnante Erklärung der Unterschiede gebeten und folgende Antwort erhalten:

Der wesentliche Unterschied zwischen einer Poll und einer Survey liegt in ihrem Umfang und ihrer Komplexität.

  • Eine Poll (Meinungsumfrage oder Abstimmung) ist in der Regel eine schnelle, auf eine einzige Frage beschränkte Erhebung. Sie dient dazu, eine sofortige Meinung oder Präferenz zu einem spezifischen Thema zu erfassen, oft mit einfachen Multiple-Choice-Antworten.
  • Eine Survey (Befragung, Erhebung oder Umfrage) ist ein umfassenderer Prozess, der aus mehreren Fragen besteht und darauf abzielt, detailliertere Daten und tiefere Einblicke zu sammeln. Sie kann verschiedene Fragetypen enthalten, darunter offene Fragen, um qualitative Informationen zu erhalten.

In diesem Text betrachte ich eine Meinungsumfrage bzw. Abstimmung. Nach obiger Definition zeichnet sich daher schon ab, dass daraus kein großer Erkenntnisgewinn zu erwarten ist.

Umfrage auf Mastodon

Stand 28. August folgen mir auf Mastodon 249 Personen Accounts. Ob es sich dabei um natürliche Personen oder Bots handelt, weiß ich nicht sicher. Dies festzustellen, bedarf einer eigenen Analyse.

Am 20. August habe ich die in Abbildung 1 dargestellte Umfrage gestartet. Die Umfrage lief für die Dauer von einer Woche und ist mittlerweile beendet.

Abbildung 1: Screenshot einer Mastodon-Umfrage zur Verwendung verschiedener Container-Werkzeuge

Gewonnene Erkenntnisse

In Abb. 1 ist zu erkennen, dass 21 Personen abgestimmt haben, die Umfrage 5-mal geteilt und 3-mal favorisiert wurde. Laut dem Ergebnis benutzen von den 21 Personen:

  • 6 Personen (29 %) die nativen Podman-Befehle podman {run,start,stop} etc.
  • 9 Personen (43 %) verwenden Quadlets
  • 6 Personen (29 %) verwenden podman-compose

Das ist alles.

Der Erkenntnisgewinn ist tatsächlich recht gering. Aber mehr gibt diese kurze Umfrage einfach nicht her.

Was kann man hingegen nicht aus der Umfrage ableiten?

Einige Menschen neigen dazu, Dinge in Umfrageergebnisse hineinzuinterpretieren, die durch die Daten nicht belegt werden können. Dies passiert oftmals eher unterbewusst und völlig ohne böse Absicht. Um dem zu begegnen, hilft es, sich bewusst zu machen, was man alles nicht ableiten kann:

  • Ich habe keine Ahnung, wer an der Umfrage teilgenommen hat, da die Beantwortung anonym möglich war und ich keinerlei demographische Daten erhoben habe.
  • Da sich in sozialen Medien in der Regel Filterblasen bilden, liegt der Schluss nahe, dass die Antworten vorwiegend aus meiner Filterblase stammen und nicht repräsentativ sind.
  • Da die Umfrage mehrfach geteilt wurde, weiß ich nicht, ob nur direkte Follower oder auch indirekte Kontakte abgestimmt haben.
  • Ob Menschen die kein Podman nutzen, stattdessen Docker oder gar keine Container nutzen, weiß ich auch nicht.
  • Darüber wie viele Menschen in der IT nun Linux-Container betreiben und wie viele davon dies mit Podman tun, weiß ich nichts.
  • Diese Umfrage war sicher nicht repräsentativ.

Ziel der Umfrage – Was interessiert mich eigentlich?

Um ehrlich zu sein, habe ich mir zum Ziel der Umfrage gar nicht viele Gedanken gemacht. Ich habe sie spontan erstellt und wollte mich vom Ergebnis überraschen lassen. Während die Umfrage lief, kam in mir die Frage auf, was Menschen versuchen können, aus diesen Umfragen abzuleiten. Das führte zu diesem Artikel.

Grundsätzlich interessieren mich Antworten auf folgende Fragen:

  • Wie verbreitet werden Linux-Container in der IT eingesetzt?
  • Gibt es signifikante Unterschiede hinsichtlich ihrer Verwendung in Abhängigkeit der Branche?
  • Wie groß ist der Anteil von Docker, HELM, Kubernetes, OpenShift, Operator, Podman, Rancher und weiterer Werkzeuge?
  • Was sind die bevorzugten Werkzeuge?
  • Welche Werkzeuge werden für welchen Zweck bevorzugt genutzt?
  • Ist im zeitlichen Verlauf ein Trend zu erkennen?
  • Mit welchem Konfigurations-Format erreiche ich eine möglichst große Zielgruppe?
  • Wie stelle ich sicher, dass diese Daten unabhängig und repräsentativ erhoben wurden?

Besonders unter Berücksichtigung des letzten Stichpunktes wird deutlich, dass die Beantwortung dieser Fragen mit einer Menge Arbeit verbunden ist. Ich bin nicht so sehr an den Antworten interessiert, als dass ich bereit bin, diese Arbeit und Zeit zu ihrer Erledigung zu investieren.

Kann Künstliche Intelligenz hierbei helfen?

Das herauszufinden, wird Gegenstand eines kommenden Wochenendprojekts sein. Ich sehe dabei grundsätzlich folgende Herausforderungen auf mich zukommen.

Die diversen KI-Chatbots werden meine Fragen grundsätzlich mit einer starken Überzeugung beantworten. Einige listen dabei sogar die Quellen auf, welche sie für die Formulierung ihrer Antwort berücksichtigt haben. Daraus lässt sich dann immerhin ein Quellenverzeichnis erstellen. Die Arbeit liegt dann in der Quellenprüfung:

  • Was sind Primärquellen und Sekundärquellen?
  • Wie erfolgte die Datenerhebung?
  • Gibt es Interessenskonflikte? (z.B. hat der Gewinner eines Vergleichstest den Test bezahlt?)
  • Kann ich die Quellen prüfen oder liegen diese hinter Bezahl- bzw. Login-Schranken?

Ich habe noch Zweifel inwieweit mich die KI bei der Quellenprüfung unterstützen kann. Doch darum wird es in einem zukünftigen Artikel gehen. Hier ist nun für heute Schluss.

  •  

Und schon wieder ist eine FrOSCon vorbei

Am 16. und 17. August 2025 fand die 20. Free and Open Source Conference (FrOSCon) an der Hochschule Bonn-Rhein-Sieg in Sankt Augustin statt.

Ich möchte mich ganz herzlich beim Orga-Team, C3VOC, allen helfenden Händen, Ausstellern, Vortragenden und Besucher:innen bedanken, die dieses Wochenende zu einem schönen Erlebnis gemacht haben.

Es folgt mein kurzer, ganz persönlicher Konferenzbericht.

Anreise am Freitag Nachmittag

Ich hatte am Freitag frei und konnte daher entspannt mit dem Auto bereits am Nachmittag anreisen. Kurz nach meiner Ankunft in Siegburg konnte ich dann schon Dirk, Sujeevan und ein neues Gesicht begrüßen. An dem neuen Gesicht hängt eine Person namens Gerald dran. Gerald, es freut mich dich kennen gelernt zu haben.

Wir sind in Siegburg ein Eis essen gegangen, haben das tolle Wetter genossen und uns mental auf das Abendessen vorbereitet, wo sich Ulf und Andreas zu uns gesellten.

Essen gut, Gespräche gut, Freitag gut.

Samstag – FrOSCon Tag 1

Am Samstag konnte ich dann auch Christoph und Christian begrüßen, die ich ebenfalls schon viel zu lange nicht mehr gesehen habe. Nach einer kurzen Begrüßung schwärmten wir aus und erkundeten die verschiedenen Stände.

Am Stand des Fedora & CentOS Projekts habe ich erstmalig meine Arbeitskolleginnen Julia Bley und Aleksandra Fedorova getroffen. Ich freue mich immer andere Red Hatter zu treffen, welche durch ihre Beiträge Community-Konferenzen unterstützen. Beide haben auch direkt mir Unterstützung angeboten, da ich bei einer der nächsten Konferenzen gerne einmal vorstellen möchte, wie aus Fedora und CentOS Stream ein Red Hat Enterprise Linux Release entsteht.

Kaum habe ich mich umgedreht, habe ich mit Armin Warda und Christoph Görn gleich noch zwei weitere Red Hatter getroffen. Hier muss irgendwo ein Nest sein. Schön auch euch mal wiedergesehen zu haben. :-)

Das Vortragsprogramm hielt dieses Jahr einige interessante Vorträge für mich bereit. So hörte ich um 10:00 Uhr zuerst OpenCloud: Unsere Learnings für eine einfache, stabile Filecloud (Link zur Aufzeichnung) von Tobias Baader und Klaas Freitag. An dieser Stelle nochmals Danke für euren tollen Vortrag und die guten Gespräche, die wir anschließend noch geführt haben. Ich freue mich, wenn wir in Kontakt bleiben.

Verpasst habe ich leider AI slop attacks on the curl project von Daniel Stenberg. Ich werde mir aber auf jeden Fall die Aufzeichnung ansehen, da ich nur Gutes über diesen Vortrag gehört habe.

Um 14:30 habe ich den OpenVox Vortrag (Link zur Aufzeichnung) von und mit Martin Alfke gehört. Es hat mich gefreut zu hören, dass die Foreman und OpenVox Communities offenbar gut zusammenarbeiten und sich gegenseitig unterstützen. Sie tragen somit dazu bei, dass ein etabliertes Konfigurations-Management-Werkzeug weiterhin frei bleibt und nicht hinter einer proprietären Lizenz verschwindet.

Schießlich war ich um 17:00 Uhr mit meinem Vortrag Bootable Containers (Link zur Aufzeichnung; PDF zum Download) dran. Danke an alle Hörer:innen für euer Interesse und eure Aufmerksamkeit. An dieser Stelle gehen Grüße raus an meinen Kollegen Andreas Bleischwitz. Danke für den Post-Talk-QA und schön auch dich mal wiedergesehen zu haben.

Der 1. Tag klang mit dem Social Event aus. ich habe den innenhof der Hochschule schon lange nicht mehr so voll erlebt. Es war wirklich sehr schön.

Sonntag – FrOSCon Tag 2

Ich hatte schlecht geschlafen. Zum Glück gab es im Hotel einen guten Kaffee, der mich auf die Beine brachte.

Auf der FrOSCon führte mein erster Weg nochmals zu Klaas von OpenCloud. Ich hatte versprochen ihnen Informationen zum Red Hat Partnerprogramm zu senden und brauchte noch eine E-Mail-Adresse, um diese Aufgabe direkt abschließen zu können. Ich freue mich, wenn ich euch in der Zukunft als Partner in unserem Ecosystem Catalog finden kann und wünsche euch auf jeden Fall viel Erfolg mit eurem Projekt.

Als nächsten möchte ich mich bei Susanne Schütze für den Vortrag Festplattenverschlüsselung mithilfe vom TPM 2.0 (Link zur Aufzeichnung) bedanken. Dieser war nicht nur unterhaltsam sondern auch sehr informativ. Du ersparst mir damit, selbst durch etliche Kaninchenbauten zu kriechen. Vielen Dank für deinen Vortrag!

Ebenfalls informativ fand ich den Vortrag Delegate authentication and a lot more to Keycloak with OpenID Connect (Link zur Aufzeichnung) von Alexander Schwarz. Ich muss mich aufgrund anderer Projekte beherrschen, hier direkt ein neues Wochenendprojekt zu starten. ;-)

Und ein weiteres Dankeschön geht raus an Dirk für seinen Vortrag Vom Techniker zum Leader (Link zur Aufzeichnung). Danke, dass wir an deiner Erfahrung teilhaben durften.

Damit war ein tolles Wochenende mit guten Vorträgen und tollen Menschen auch schon wieder vorbei. Es hat mir große Freude bereitet dabei gewesen zu sein und ich freue mich auf ein Wiedersehen, vielleicht schon im nächsten Jahr am 15. und 16. August 2026. Save the date!

Links zu weiterführenden Informationen der Projekte

  •  

Meine Anwendungsfälle für die Nutzung großer Sprachmodelle in 2025

Heute berichte ich über meine Nutzung großer Sprachmodelle (engl. Large Language Model, kurz LLM) und freue mich, wenn ihr eure Erfahrungen in den Kommentaren oder vielleicht sogar einem eigenen Blog mit mir teilt.

Ich konzentriere mich in diesem Text auf Beispiele, in denen mich die Nutzung von LLMs in meiner Arbeit unterstützt. Dies soll nicht darüber hinwegtäuschen, dass LLMs halluzinieren und falsche Antworten produzieren können. Auch hierzu finden sich diverse Beispiele, die den Fokus des Artikels jedoch verschieben und den Umfang sprengen würden.

Bilder für Präsentationen

Ich nutze ChatGPT und Gemini, um Bilder für Präsentationen zu generieren. Dabei hat bis jetzt ChatGPT die Nase vorn.

Zuvor habe ich Bilder entweder selbst erstellt oder Stunden mit der Suche in Datenbanken mit lizenzfreien Bildern verbracht. Dies war für mich stets eine sehr frustrierende Erfahrung. Nun kann ich beschreiben, was ich in einem Bild sehen möchte und die Künstliche Intelligenz in Form eines LLM generiert mir entsprechende Bilder. Dies bringt für mich eine große Zeitersparnis und ich habe weniger Stress.

Zusammenfassung langer Texte und Diskussionen

Damit ist jetzt nicht gemeint, dass ich mir E-Mails mit mehr als fünf Sätzen zusammenfassen lasse. Aber auf der Arbeit erlebe ich es häufig, dass ich mal kurz nicht in eine Google Group geschaut habe und plötzlich eine Diskussion mit 40-70 Beiträgen darin finde. Diesen Diskussionen zu folgen war in der Vergangenheit sehr zeitaufwendig bis hinzu unmöglich. Und wir haben sehr viele Maillinglisten.

Wir haben auf der Arbeit Google Workspace und ich gebe gerne zu, dass sich damit bereits ohne KI-Unterstützung super arbeiten lässt. Die nahtlose Integration von Gemini macht es allerdings noch besser.

Wenn ich eine E-Mail Diskussion öffne, kann ich mir mit einem Klick eine Zusammenfassung erstellen lassen. Folgender Prompt hat sich bisher als nützlich erwiesen, um mir einen Überblick zu verschaffen: „Erstelle eine kurze Zusammenfassung, die den Diskussionsgegenstand wiedergibt. Führe auf, wer welche Argumente vertritt. Falls es Lösungsvorschläge und Action Items gibt, liste diese stichpunktartig auf.“

Anhand der Zusammenfassung kann ich in kurzer Zeit beurteilen, ob eine Diskussion für mich von Relevanz ist oder nicht. Auch hier ist der Vorteil durch Nutzung der KI im Allgemeinen die Zeitersparnis und im Speziellen die gute Integration in die vorhandenen Werkzeuge. Ich würde mir nicht die Mühe machen, alle Nachrichten einer langen Diskussion in einen Prompt zu kopieren, um diese dann von einem LLM analysieren zu lassen.

Generierung von Textvorschlägen für E-Mails

Ich weiß, was ich sagen möchte und drücke mich gerne direkt aus. Das kommt in der Kommunikation mit internationalen Empfängern aus anderen Kulturkreisen nicht immer gut an. Ich schätze auch hier die gute Integration von Gemini in Google Mail, wo ich es manchmal als Formulierungshilfe nutze.

Gemini bietet 3-4 Antwortvarianten an, die in einer Vorschau im Nachrichtenfenster angezeigt werden. Manche sind fernab meiner Vorstellung, andere kommen erstaunlich nah heran. So kann ich die am besten zutreffende Antwort auswählen, kürze sie etwas ein, ergänze evtl. noch 1-2 Sätze und bin fertig.

Vorteile auch hier die Zeitersparnis und die etwas höflicher bzw. runder formulierten E-Mails.

Zusammenfassung von Videokonferenzen

Ihr ahnt vielleicht schon, wo es jetzt hingeht. Google Gemini integriert sich auch hervorragend in Google Meet. Und so haben wir in einer internen Besprechung mit Zustimmung aller Beteiligten die Funktion ausprobiert, ein Besprechungs-Protokoll zu erstellen. Wir waren positiv überrascht.

Die Besprechung wurde auf Deutsch durchgeführt. Gemini war für diese Sprache offiziell noch als Alpha markiert, was das Ergebnis umso beeindruckender macht. Nach der Besprechung wurde ein Google Doc mit einer deutschsprachigen Zusammenfassung erstellt und im Kalender in den Termin eingefügt, so dass alle Teilnehmer es finden und darauf zugreifen können.

Ich habe das Protokoll gelesen und musste lediglich einige Schreibfehler bei Namen und englischen Fachbegriffen korrigieren. Alle Teilnehmer waren sich einig, dass die wesentlichen Punkte korrekt zusammengefasst wurden. Bei englischsprachigen Meetings, welche aufgezeichnet werden, enthält die Zusammenfassung sogar die Zeitstempel, zu denen protokollierte Aussagen gemacht wurden.

Es muss nun also kein Protokollant mehr ausgelost werden und alle Teilnehmer:innen können sich auf die Besprechung konzentrieren.

Da sich die Zusammenfassung auf das Wesentliche konzentriert, finde ich diese noch besser als ein Transkript, welches auch die belanglosen Beiträge wiedergibt und viel Redundanz enthalten kann.

Als Organisator verlasse ich mich nicht blind auf die KI. Ich lese das Protokoll zeitnah nach der Besprechung und korrigiere es ggf. Es ist bei uns auch nicht unüblich, dass Teilnehmer:innen auch im Nachgang zu einer Besprechung Ergänzungen und Korrekturen zum gemeinsamen Dokument beitragen.

Google NotebookLM

Google NotebookLM bietet eine Umgebung, in der mit KI-Unterstützung Inhalte von PDFs, Google Docs & Slides sowie Webseiten verarbeitet werden können. Ich möchte die Nutzung anhand eines konkreten Beispiels erläutern.

Leider habe ich mir die konkreten Prompts und detaillierten Antworten nicht gespeichert, so dass ich meine Erfahrung aus dem Gedächtnis aufschreibe.

Ich betreibe einen Server für Laborumgebungen aus der Hetzner-Serverbörse. Zu diesem gab es eine IPv4-Adresse und ein IPv6-Subnetz. Des Weiteren hat Hetzner eine Richtlinie zur Nutzung von MAC-Adressen. In meinem Fall darf nur die MAC der physischen Netzwerkkarte auf dem Switch im Rechenzentrum erscheinen, nicht jedoch die virtuellen MACs meiner virtuellen Maschinen (VM). Möchte ich meinen Server als Hypervisor-Host verwenden und die darauf laufenden VMs im Internet erreichbar machen, benötige ich dafür ein geroutetes Netzwerk auf dem Hypervisor.

Prinzipiell weiß ich, was zu tun ist. Es gibt bei Hetzner auch eine Anleitung, wie man Debian für Proxmox entsprechend konfiguriert, die ich auf RHEL mit Network Manager adaptieren kann. Deshalb schien mir diese Aufgabe geeignet, um zu testen, wie sich ChatGPT und NotebookLM dabei schlagen.

Ich habe beide Lösungen dabei angewiesen, mit folgenden Quellen zu arbeiten:

Bei ChatGPT sind die URLs zu den Quellen in den Prompt einzugeben. Bei NotebookLM kann zu Beginn konfiguriert werden, welche Quellen im aktuellen Notebook zu verwenden sind. Diese kann man flexibel selektieren oder abwählen, um zu steuern, mit welchen Quellen die KI arbeiten soll.

Beiden Werkzeugen habe ich über den Prompt mitgeteilt, welche IPv6-Adresse ich auf der physischen Netzwerkkarte des Hosts nutzen möchte. Anschließend habe ich via Prompt eine zu RHEL 9 passende Schritt-für-Schritt-Anleitung gefordert, mit der die gewünschte Netzwerkkonfiguration umgesetzt werden kann. Die angebotenen Lösungen wurden in beiden Fällen durch weitere Prompts verfeinert.

ChatGPT

Die von ChatGPT generierte Lösung war komplex und falsch. Aufgrund meiner eigenen Erfahrung hatte ich direkt Zweifel und glaubte nicht, dass der vorgeschlagene wilde Mix aus Bridge und Teaming mit Master- und Slave-Interface auf der Bridge funktionieren würde.

Um meine Annahme zu verifizieren, habe ich die vorgeschlagene Lösung trotzdem umgesetzt und nach der Hetzner-MAC-Abuse-Meldung wieder zurückgebaut.

Ich hatte keine Lust, ChatGPT mit dem Ergebnis zu konfrontieren und weiter mit dem Bot zu chatten, da ich wenig Hoffnung hatte, dass ich noch zu einer funktionierenden Lösung komme.

NotebookLM

Hier hat mir die Erfahrung deutlich besser gefallen. Gemini hat auf meinen Prompt mit einer Zusammenfassung reagiert, welche Informationen über die bereitgestellten Quellen zu meinem Prompt bieten. Dabei wurden auch Referenzen mit ausgegeben, um direkt zur Quelle springen zu können. Im Anschluss gab es eine Schritt-für-Schritt-Anleitung mit Code-Beispielen. Zu jedem Code-Beispiel erfolgte dazu eine Erklärung, was man dort sieht und was die einzelnen Parameter bedeuten. Dies hat mir gut gefallen.

Die ersten zwei Anleitungen waren noch etwas ungenau, ließen sich jedoch durch weitere Prompts soweit verfeinern, dass ich sie fast 1-zu-1 übernehmen konnte.

Warum nur fast? Ich habe mir die in der Schritt-für-Schritt-Anleitung referenzierten Quellen angeschaut und mit den dortigen Informationen die Code-Beispiele weiter optimiert, so dass sie besser zu meiner Umgebung passen. Evtl. hätte Gemini dies mit besseren Prompts ebenfalls hinbekommen.

Auch diese Lösung habe ich implementiert und sie läuft bis heute. Die KI hat mich auf dem Weg zur Lösung unterstützt und ich musste nicht die vier Quellen komplett und im Detail lesen, um mir die Lösung komplett selbst zu erarbeiten. Ich bin mit dem Ergebnis sehr zufrieden.

Fazit

Künstliche Intelligenz und deren Nutzung ist nicht unumstritten. Der aktuelle Energiebedarf ist enorm und es ist zu befürchten, dass dies negative Umweltauswirkungen zur Folge hat. KI-Modelle können halluzinieren, was zu Fehlern führt, wenn man die Antworten der Modelle nicht verifiziert.

Die Weigerung, KI im Beruf zu benutzen und ihre Möglichkeiten zu erkunden, führt meiner Einschätzung nach jedoch nur dazu, dass man sich selbst benachteiligt. KI mag Arbeitsplätze nicht so schnell ersetzen. Aber Menschen, die KI effizient nutzen können, werden Menschen von Stellen verdrängen, die dies nicht können. Es erscheint mir daher sinnvoll, den Einsatz von KI im Beruf und Alltag zu erkunden.

Den größten Vorteil bietet mir die KI-Nutzung aktuell dort, wo sie gut in meine Anwendungen und Werkzeuge wie z.B. Mail, Videokonferenzen und Kalender integriert ist. Der Vorteil besteht überwiegend in Zeitersparnis. Ich habe die gewünschten Informationen schneller mit weniger eigenem Aufwand in ausreichender Qualität zur Verfügung, wobei die Qualität mit geringem Aufwand durch manuelle Überarbeitung schnell gesteigert werden kann, um ein gutes Ergebnis zu erzielen.

KI-Assistenten lassen sich nutzen, um die Zeit zur Lösung zu verkürzen. Ich hätte die Dokumentationen alle selbst lesen und mir die Lösung erarbeiten können. Ich bin mir jedoch sicher, dass ich dafür deutlich mehr Zeit hätte investieren müssen.

Im Endeffekt hilft mir KI dabei, mehr Aufgaben im gleichen Zeitintervall zu erledigen.

  •  

Zwischen Microblogging, TikTok-Videos und Social Media – Wo steht das Bloggen heute?

Ich lese und schreibe gerne. Lesen kann ich fast überall, ohne meine Umgebung zu stören. Gleichzeitig habe ich meine Ohren frei, um meine Konzentration schnell auf andere Dinge lenken zu können, ohne dass sich jemand durch Kopfhörer auf bzw. in meinen Ohren ausgeschlossen fühlt.

Ähnlich ist es mit dem Schreiben. Ich kann schreiben, während nebenbei das Fernsehen oder Radio läuft oder ich im Park oder einem Biergarten sitze. Podcasts und Videos lassen sich in diesen Umgebungen nur schwierig aufzeichnen.

Zudem bin ich in einer Zeit aufgewachsen, wo die Internetbandbreite noch so schmal war, dass an die flächendeckende Verbreitung von Audio und Video noch nicht zu denken war.

So ist das geschriebene Wort bis heute mein Favorit für die Aufnahme und Verbreitung von Wissen. Und damit sind Blogs für mich auch heute ein wichtiger und geschätzter Bestandteil des Internets, die für mich einen hohen Stellenwert besitzen.

Ich habe noch kein einziges TikTok-Video gesehen und kann dessen Stellenwert für die Gesellschaft nicht beurteilen. Ich finde generell nur sehr wenig Gefallen an Internetvideos, da sich bei mir der Eindruck verfestigt hat, dass diese häufig in die Länge gezogen werden, um noch eine Werbeunterbrechung oder Produktplatzierung unterbringen zu können. Ich fand bisher nur sehr wenige Videos hilfreich.

Wir Menschen sind jedoch teils sehr unterschiedlich und so ist mir bewusst, dass es natürlich auch eine Nutzergruppe gibt, welche Videos jederzeit den Vorzug vor einem Blogartikel gibt. Das ist auch vollkommen in Ordnung. Nutzt das Medium, welches euch am meisten anspricht.

Microblogging und Social Media sind für mich persönlich Synonyme für Mastodon. Hier folge ich meinen Bekannten, Freunden und interessanten Personen, deren Beiträge mich interessieren. Ich selbst teile hier meine Gedanken, Tageslaune und weise auf neue Artikel in meinem Blog hin. Falls ihr daran interessiert seid, findet ihr mich unter @Tronde@social.anoxinon.de.

Microblogging sehe ich es bestenfalls als Ergänzung zu einem Blog. Mit den Threads auf den diversen Plattformen konnte ich mich nie anfreunden. Wenn jemand etwas in mehr als 512 Zeichen ausdrücken möchte, freue ich mich, wenn dies in einem Blog niedergeschrieben wird, den ich gemütlich am Stück lesen kann.

Dies war nun meine Meinung. Welchen Stellenwert besitzen Blogs für euch?

Dieser Beitrag ist Teil der #BlogWochen2025, welche von von Benedikt, Dirk und Robert zum runden Geburtstag ihrer Blogs ausgerufen wurden.

  •  

Kurz notiert: SMLIGHT SLZB-MR2 vorgestellt

SMLIGHT hat mit dem SLZB-MR2 einen weiteren ZigBee und Thread Multiradioadapter vorgestellt. Dieser kombiniert den CC2652P von Texas Instruments mit dem EFR32MG21 von Silicon Labs im bekannten Gehäuse der SLZB06 Reihe. Oder mit anderen...

  •  

Kurz notiert: SMLIGHT SLZB-MR3 vorgestellt

SMLIGHT hat mit dem SLZB-MR3 einen weiteren ZigBee und Thread Multiradioadapter vorgestellt. Dieser kombiniert den CC2674P10 von Texas Instruments mit dem EFR32MG24 von Silicon Labs im bekannten Gehäuse der SLZB06 Reihe. Oder mit anderen...

  •  

Smarte Außenbeleuchtung mit Zigbee-Schnittstelle

Anzeige – Ich habe für diesen Artikel Produkte der Firma Paulmann zur Verfügung gestellt bekommen.
Wie man sein Smart Home mithilfe von Home Assistant und vielen kleinen Helferlein aufbaut, beschreibe ich nun schon seit geraumer Zeit hier im Blog. Dabei genieße ich es, dass die meisten Smart Home Anwendungen über den ein oder anderen Standard verfügen, mit dem sich Komponenten verbinden lassen. Bei Zigbee ist das generell zwar auch so, aber im Speziellen ist die Sache dann doch etwas komplizierter. Viele Anbieter von smarter Hardware haben auch eine Bridge, Gateway oder ähnliches im Portfolio, mit dem die Zigbee-Anbindung bewerkstelligt werden kann. So ist es auch bei meinen ersten Zigbee Produkten gewesen. Im Folgenden beschreibe ich, wie man die Zigbee Leuchten der Firma Paulmann aus der Serie „Plug & Shine“ einrichtet. Hierfür verwende ich deren Gateway namens Smik.

Bei der Sanierung unseres Außenbereichs haben wir viel Energie in die Auswahl der Materialien gelegt. Sowohl die Terrassenplatten, als auch die Mauersteine haben uns viel Kopfzerbrechen bereitet. Bei der Außenbeleuchtung war es glücklicherweise nicht ganz so schwierig, da die Auswahl an smarten Außenleuchten deutlich kleiner ist. So sind wir auf die Firma Paulmann aufmerksam geworden, die Zigbee-fähige Außenleuchten anbietet und noch dazu einen sehr einfachen Weg zu deren Einbindung bereithält.

Außenleuchten, welche Produkte habe ich verwendet?

Die Gartenmauer lassen wir uns mit der Leuchte „Plug & Shine Floor“ bescheinen. Sie leuchtet in weiß, die Farbtemperatur kann man hier einstellen. Außerdem hat sie alle RBG-Farben. Das ist ein tolles Feature, das man bei Gartenpartys verwenden kann. Über die Farbtemperatur vom weiß kann man die Lichtstimmung auf der Terrasse maßgeblich beeinflussen.

Den Treppenaufgang beleuchten wir mit der Pollerleuchte Ito. Diese ist von Haus aus leider nicht smart, lässt sich über den „Plug & Shine Controller“ aber smart machen. Mit diesem Controller kann man den gesamten Kabelstrang ein- bzw. ausschalten. Hier lassen sich weitere Paulmann-Produkte, die nicht von Haus aus smart sind, in die Steuerung einbinden und danach über das Smart Home steuern.

Die Einfassung der Terrasse beleuchten wir mit dem LED-Streifen „Plug & Shine Smooth Strip RGBW„, der Zigbee-fähig ist. Wie man dem Namen schon entnimmt, kann dieser in allen RGB-Farben leuchten. Für die Farbe weiß ist die Farbtemperatur wählbar.

Bäume und Sträucher setzen wir mit der smarten Leuchte „Plug & Shine Pike“ in Szene. Die Farben sind, ihr ahnt es schon, wieder in allen RBG-Farben möglich. Die Farbtemperatur von weiß ist wieder wählbar.

Elektrisch verkabelt werden die Leuchten mit Kabeln namens „Plug & Shine Connector„, die man in verschiedenen Längen und Anzahl von Abgängen erwerben kann. Das System ist einfach, aber genial: Eine 24 VDC-Spannungsquelle stellt die Spannung zur Verfügung. Die Kabel verfügen über Schraubverbinder, an die man wiederum die Leuchten verbinden kann. Auch Kabelabgänge als Verlängerungsleitung sind hiermit möglich. Die Kabel und die Verbinder sind dabei IP68 wasserfest – sogar für Pools geeignet. Die Anbindung der Leuchten ist somit werkzeuglos, verpolungssicher und sehr einfach möglich. Die Intelligenz der Leuchten steckt bereits in den Leuchten drin, sodass hier keine Bastel- oder Verkabelungsarbeit anfällt. Somit lässt sich das Projekt auch nach und nach erweitern.

Als Spannungsquelle verwende ich die „Plug & Shine Einspeisung 230/24V DC„. Diese sind mit IP67 ebenfalls für den Außenbereich geeignet. Ihre Größe kann man an der Gesamtleistung aller Leuchten berechnen. Es stehen mehrere Größen zur Verfügung. Durch die Kunststoff-Abdeckung „Plug and Shine Trafoabdeckung“ lässt sich das Netzteil sogar unauffällig verkleiden.

Zur Steuerung verwende ich die Fernbedienung „Plug & Shine Gent 2„. Mit ihr kann man die Leuchten gruppenweise an- bzw. ausschalten sowie die Farben vorgeben. Das ist sehr nett gelöst, da man über ein Farbfeld intuitiv die Farben auswählen kann. Großer Pluspunkt für die Fernbedienung! Dafür ist für die Einrichtung bzw. das Anlernen der Leuchten etwas Übung notwendig. Die Anleitung dazu liegt der Fernbedienung bei. Mit etwas Konzentration versteht man aber die Logik dahinter.

Einrichtung des Zigbee Gateways und der Leuchten

Dreh- und Angelpunkt für die Steuerung der Außenbeleuchtung ist das Gateway. Hier ist die Schnittstelle zwischen der Smartphone App und den Leuchten. Die Einrichtung ist denkbar einfach. Man schließt das Gateway mittels Ethernet-Kabel an das Netzwerk an (z.B. an eine Fritzbox) und stellt die Spannungsversorgung her. Die Schwierigkeit besteht in der sehr geringen Reichweite des Signals. Sie wird mit 100 m angegeben, berücksichtigt aber weder Wände noch Fensterscheiben. Folglich muss das Gerät sehr nahe an den Garten gebracht werden.

Auf dem Smartphone installiert man sich die App „Paulmann Smik“ und folgt den Anweisungen auf dem Bildschirm. Man muss im Laufe der Einrichtung den QR-Code auf der Rückseite des Gateways scannen. Hierdurch gelingt die Einrichtung sehr schnell und einfach.

Neue Leuchten fügt man hinzu, indem man sie auf Werkseinstellungen zurückstellt. Das ist etwas herausfordernd, da man die Leuchten hier schnell an- und ausschalten muss, insgesamt 5 mal hintereinander. Die Leuchte darf dabei nicht länger als 2 Sekunden an und nicht länger als 5 Sekunden aus sein. Ich habe das geschafft, indem ich die Spannungsversorgung an eine schaltbare Steckdose angeschlossen habe. Mit ihr kann ich über einen Schalter die Ein- und Ausschaltdauer sehr gut timen. Sobald sie zurückgesetzt wurden, können sie über die App gefunden werden.

Best Practises und Tipps

Gruppiert eure Leuchten am besten thematisch, um zusammengehörige Leuchten gemeinsam zu schalten. Ich habe beispielsweise die Mauerspots gruppiert. Sie liegen in der Fernbedienung auf der Schnellwahltaste 1. Ist die Gruppe gewählt, steuere ich alle Mauerspots gemeinsam. Die Fernbedienung erlaubt auch das Steuern von mehreren Gruppen gleichzeitig. Dadurch kann man die Farben von allen Leuchten gemeinsam verändern. Sehr nice!

Macht die Steckdose schaltbar. Wenn die Spannungsversorgung an einer schaltbaren Steckdose angeschlossen ist, könnt ihr die Leuchten sehr viel komfortabler zurücksetzen und für die Einrichtung vorbereiten.

Setzt das Gateway möglichst nahe an den Außenbereich. Die geringe Reichweite ist relativ nervig, daher muss das Gateway recht nahe an den ersten Teilnehmer. Das Signal wird vom ersten Teilnehmer verstärkt, sodass alle weiteren Leuchten dann gutes Signal haben sollten. In der Praxis muss man das ein bisschen ausprobieren, was gut funktioniert.

Ausblick: Einbindung in Home Assistant

Die Einbindung der Außenbeleuchtung in Home Assistant ist möglich. Hat man einen Zigbee-Stick, zum Beispiel den von Nabu Casa selbst, kann man die Lampen damit einbinden. Hierfür muss man eine Instanz von Zigbee2MQTT installiert haben. Bei vielen Home Assistant Anwendern geht das über den Addon Store oder über einen Docker Container, wie es bei mir der Fall ist. Aus zwei Gründen habe ich das bei mir allerdings nicht getan.

1) Die Steuerung über die Paulmann App bzw. über die Gent 2 Fernbedienung ist sehr komfortabel. Es sind viele Funktionen voreingestellt, die Wahl der Farbtemperatur zum Beispiel oder die sehr einfache Auswahl der Farbe über das Farbfeld ist sehr cool. In Home Assistant müsste man sich diese Funktionen erst selbst konfigurieren. Ich bin mir sicher, dass viele Leute das schaffen würden. Für mich steht der Aufwand in keinem Verhältnis.

2) Während er Zeit auf der Terrasse möchte ich weitestgehend auf das Smartphone verzichten. Für die Lichtsteuerung möchte ich deshalb nicht aufs Smartphone angewiesen sein. Im Gegenteil: ich möchte auch unseren Gästen die einfache Möglichkeit geben, unsere Beleuchtung zu kontrollieren. Die Fernbedienung ist hierfür ideal geeignet.

Für die Einbindung in Home Assistant gibt es jedoch ebenfalls gute Argumente

1) Das ganze Haus lässt sich über eine zentrale Steuereinheit kontrollieren. Hier wäre es nur konsequent, die Außenbeleuchtung mit einzubinden.

2) Logging und Kontrolle von den Lampen: Von unterwegs aus sehen, ob die Lampen noch an sind? Kann man mit Home Assistant.

3) Kombination mit anderen Systemen. Die Sensoren und Aktoren könnten auch von anderen Herstellern kommen. Dämmerungs- und Bewegungsmelder von Paulmann könnten dann auch andere smarte Aktoren schalten.

The post Smarte Außenbeleuchtung mit Zigbee-Schnittstelle first appeared on bejonet - Linux | Smart Home | Technik.

  •  

Codeberg.org mit Forgejo Actions, Runner, Workflows und ich

In diesem Artikel halte ich fest, was es mit den genannten Begriffen auf sich hat und was ich in den vergangenen Tagen mit ihnen angestellt habe. Dabei gehe ich auch auf das Warum ein, während Fragen nach dem Wie vorwiegend in den Verweisen im Text beantwortet werden.

Der Artikel dient mir als Dokumentation und meinen Leser:innen zur Unterhaltung und zum Wissenstransfer.

Codeberg.org

Codeberg ist eine demokratische, gemeinschaftsgetriebene, gemeinnützige Softwareentwicklungsplattform, die von Codeberg e.V. betrieben wird und sich um Codeberg.org, eine auf Forgejo basierende Software, dreht. Der Sitz des Vereins ist in Berlin. Hier wird Codeberg.org auch gehosted.

Auf Codeberg könnt ihr eure eigenen Freie Software-Projekte entwickeln, zu anderen Projekten beitragen, inspirierende und nützliche Freie Software durchstöbern, euer Wissen teilen oder euren Projekten mit Codeberg Pages ein Zuhause im Web geben, um nur einige Beispiele zu nennen.

Die beiden vorstehenden Abschnitte wurden übersetzt mit DeepL.com (kostenlose Version) und anschließend leicht angepasst und mit Links angereichert.

Mit Codeberg.org werden keine kommerziellen Interessen verfolgt. Man ist hier (nur) Nutzer und/oder Unterstützer, jedoch nicht selbst ein Produkt. Mir gefällt die Mission des Projekts. Daher bin ich dazu übergegangen, einen Teil meiner Repositories hier zu verwalten. Zwar bin ich kein Mitglied des Vereins, unterstütze diesen jedoch durch gelegentliche Spenden.

Actions, Runner und Workflows

Plattformen wie Codeberg.org, GitHub und GitLab unterstützen Softwareentwicklungsprozesse durch CI/CD-Funktionalität.

Ein Forgejo-Runner ist ein Dienst, der Workflows von einer Forgejo-Instanz abruft, sie ausführt, mit den Protokollen zurücksendet und schließlich den Erfolg oder Misserfolg meldet.

Dabei ist ein Workflow in der Forgejo-Terminologie eine YAML-Datei im Verzeichnis .forgejo/workflows eines Repositories. Workflows umfassen einen oder mehrere Jobs, die wiederum aus einem oder mehreren Steps bestehen. Eine Action ist eine Funktion zur Erfüllung häufig benötigter Aufgaben, bspw. Quelltext auschecken, oder sich bei einer Container-Registry einloggen etc. Siehe für weitere Informationen Abschnitt Hierarchy ff. im Forgejo Actions user guide.

Motiviert, meinen eigenen Forgejo-Runner zu installieren, haben mich zwei Blog-Artikel von meinem Arbeitskollegen Jan Wildeboer:

Durch den Betrieb eigener Forgejo-Runner kann ich bereits vorhandene Rechenkapazität nutzen. Es fallen für mich und den Verein Codeberg e.V. dadurch keine zusätzlichen Kosten an. Für die Installation auf RHEL 9 bin ich dem Forgejo Runner installation guide gefolgt, da das in Jans Artikel erwähnte Repository ne0l/forgejo offensichtlich nicht mehr gepflegt wird und nur eine veraltete Version des Runner enthält.

Ein Dankeschön geht raus an Jan für unseren kurzen und produktiven Austausch dazu auf Mastodon.

Wozu das Ganze?

Ich beschäftige mich beruflich seit einiger Zeit mit dem RHEL image mode und möchte demnächst einen meiner KVM-Hypervisor damit betreiben. Bis es soweit ist, arbeite ich eine Weile im „Jugend forscht“-Modus und baue immer wieder neue Versionen meiner Container-Images. Der Ablauf ist dabei stets derselbe:

  1. Containerfile(5) erstellen bzw. anpassen
  2. Container-Image mit podman-build erstellen
  3. Das erstellte Image mit podman-push in eine Container-Registry hochladen
  4. Das Deployment auf diversen Zielsystemen testen

Dazu verwende ich das RHEL 9 Bootc Base Image aus der Registry registry.redhat.io.

The rhel-bootc and user-created containers based on rhel-bootc container image are subject to the Red Hat Enterprise Linux end user license agreement (EULA). You are not allowed to publicly redistribute these images.

Quelle: https://docs.redhat.com/en/documentation/red_hat_enterprise_linux/9/html/using_image_mode_for_rhel_to_build_deploy_and_manage_operating_systems/introducing-image-mode-for-rhel_using-image-mode-for-rhel-to-build-deploy-and-manage-operating-systems#introducing-image-mode-for-rhel_using-image-mode-for-rhel-to-build-deploy-and-manage-operating-systems

Um vorstehender Anforderung gerecht zu werden, speichere ich das erzeugte Container-Image in einem privaten Repository auf Quay.io. Sowohl für registry.redhat.io als auch für quay.io ist ein Login erforderlich, bevor es losgehen kann.

Für mich bot sich hier die Gelegenheit, die Nutzung von Forgejo Workflows zu lernen und damit den Ablauf zur Erstellung meines RHEL Bootc Images zu automatisieren.

Forgejo Workflow und Runner-Konfiguration

Im folgenden Codeblock findet ihr meinen Forgejo Workflow aus der Datei .forgejo/workflows/build_image.yaml, gefolgt von einer Beschreibung der einzelnen Schritte. Zur Erklärung der Begriffe name, on, env, jobs, steps, run, etc. siehe Workflow reference guide.

name: build_image

on:
  push:
    branches: main

env:
  REPO_URL: https://codeberg.org/Tronde/rhel-bootc.git
  REPO_NAME: rhel-bootc
  IMAGE_NAME: quay.io/rhn-support-jkastnin/rhel-bootc:9.5

jobs:
  build:
    runs-on: podman
    steps:
      - run: dnf -y install git
      - run: echo ${{ secrets.RH_REGISTRY_TOKEN }} | podman login -u ${{ secrets.RH_REGISTRY_USERNAME }} --password-stdin registry.redhat.io

      - run: echo ${{ secrets.QUAY_ROBOT_TOKEN }} | podman login -u ${{ secrets.QUAY_USERNAME }} --password-stdin quay.io

      - run: git clone ${{ env.REPO_URL }}
      - run: podman build -f /workspace/Tronde/rhel-bootc/rhel-bootc/Containerfile -t ${{ env.IMAGE_NAME }}
      - run: podman push ${{ env.IMAGE_NAME }}
  1. Der Workflow wird jedes Mal ausgeführt, wenn ich einen Commit in den Branch main pushe
  2. Ich definiere einige Umgebungsvariablen, um bei Änderungen nicht alle Schritte im Workflow einzeln auf notwendige Änderungen prüfen zu müssen
  3. Mit `runs-on: podman` bestimme ich, dass der Workflow auf einem Runner mit dem Label podman ausgeführt wird; der entsprechende Runner started dann einen rootless Podman-Container, in dem die folgenden Schritte innerhalb von rootful Podman ausgeführt werden (nested Podman bzw. Podman in Podman)
  4. Git wird installiert
  5. Anmeldung an registry.redhat.io erfolgt
  6. Anmeldung an quay.io erfolgt
  7. Das Git-Repository wird geklont, um es auf dem Runner verfügbar zu haben
  8. Der Runner baut ein Container-Image (Erinnerung an mich selbst: Ersetze den hardcodierten Pfad durch eine Variable)
  9. Das erstellte Image wird in die Registry gepusht

Damit mein Runner den obigen Workflow ausführen kann, existiert auf diesem die Konfigurationsdatei /etc/forgejo-runner/config.yml, welche ich mit dem Kommando forgejo-runner generate-config > config.yml erstellt und anschließend angepasst habe. Der folgende Codeblock zeigt nur die Abschnitte, die ich manuell angepasst habe.

…
  fetch_interval: 20s
…
  labels: [
    "rhel-9-ubi:docker://registry.access.redhat.com/ubi9/ubi",
    "podman:docker://registry.access.redhat.com/ubi9/podman",
    "ubuntu-latest:docker://ghcr.io/catthehacker/ubuntu:act-latest",
    "act-runner:docker://node:20-bullseye",
    "centos-stream-9:docker://quay.io/centos/centos:stream9"]
…
  privileged: true
…

Ich greife mal die Zeile podman:docker://registry.access.redhat.com/ubi9/podman heraus:

  • podman: am Beginn der Zeile beinhaltet das Label, welches im Worflow mit runs-on verwendet wird
  • Mit dem Rest der Zeile wird bestimmt, in welchem Container-Image der Workflow ausgeführt wird
  • Ich habe mich für ubi9/podman entschieden, weil
    • ich bei Red Hat arbeite und daher
    • mit den Prozessen zur Erstellung unserer Images vertraut bin,
    • wodurch sich ein gewisses Vertrauen gebildet hat.
    • Ich vertraue unseren Images mehr, als jenen, die irgendein Unbekannter gebaut hat und deren Inhalt ich nicht kenne (man kann den Inhalt aber selbstverständlich überprüfen)
    • und ich so prüfen konnte, ob sich ein Image mit „unseren“ Werkzeugen bauen läst (nicht, dass ich daran gezweifelt hätte).

Die Angabe von privileged: true ist erforderlich, wenn man innerhalb des Containers ebenfalls mit podman oder docker arbeiten möchte.

Entscheidungen

Meinem weiter oben abgebildeten Workflow ist zu entnehmen, dass ich auf die Verwendung von Forgejo Actions verzichtet habe. Das hat folgende Gründe:

  • Für die Verwendung ist node auf dem Runner erforderlich
  • node ist im Image ubi9/podman standardmäßig nicht installiert
  • Node.js ist für mich das Tor zur Hölle und ich vermeide dessen Nutzung wenn möglich
  • Die Nutzung ist keine Voraussetzung, da ich mein Ziel auch so ohne Mehraufwand erreicht habe

Sobald die Workflows länger und komplexer werden, mag sich meine Einstellung zu Actions ändern.

Zusammenfassung

Ich habe gelernt:

  • Forgejo Runner zu installieren und zu konfigurieren
  • Wie Forgejo Workflows funktionieren und auf Codeberg.org genutzt werden können
  • Wie ich mir damit zukünftig die Arbeit in anderen Projekten erleichtern kann
  • Was für großartige Open Source Projekte Codeberg.org und Forgejo sind
  •  

Was uns antreibt zu bloggen

Vorwort

Die Blogs von Benedikt, Dirk und Robert feiern dieses Jahr Geburtstag. Zu diesem Anlass haben die Drei die #BlogWochen2025 ausgerufen. Jede Bloggerin und jeder Blogger ist eingeladen, dabei mitzumachen. Details könnt ihr in den Blogs der drei nachlesen:

Zum Thema des heutigen Tages steuere ich gerne einen Beitrag bei.

Was mich zum Bloggen antreibt

Ich verfolge mit meinem Blog drei Ziele:

  • Dinge aufschreiben, die mir hilfreich waren bzw. die ich nützlich finde und die ich in Zukunft noch einmal gebrauchen kann – Mein Blog ist mein Gedächtnis für IT-Dinge
  • Mein Wissen mit der Welt teilen, damit andere davon profitieren können
  • Meine Meinung mit der Welt teilen, um mit anderen ins Gespräch zu kommen und andere Meinungen kennenzulernen

Da es im IT-Bereich bereits sehr viele gute Blogs in englischer Sprache gibt, habe ich mich zu Beginn entschieden, in Deutsch zu bloggen, um zur deutschsprachigen Gemeinschaft beizutragen. Meine Idee war und ist, damit denen zu helfen, für die Englisch gegebenenfalls noch eine Hürde darstellt. Diesen Grundsatz behalte ich bis auf ganz wenige Ausnahmen bis heute bei. Meine Artikel in englischer Sprache veröffentliche ich an anderer Stelle.

Ich freue mich, wenn ich Rückmeldungen erhalte, dass jemand meine Texte hilfreich und nützlich fand und meine Leser Gefallen daran finden. Besonders freue ich mich, wenn darunter Perlen aus der Vergangenheit sind. Dies zeigt mir, dass selbst Artikel von vor über 10 Jahren noch eine gewisse Relevanz besitzen.

Diese Rückmeldungen sind es, die mich motivieren, nach immer neuen Themen zu suchen und diese für den Blog zu verschriftlichen.

Zudem muss ich jedes Mal schmunzeln, wenn ich im Internet die Antwort auf eine Frage suche und diese dann in meinem eigenen Blog finde. So stellt mein Blog inzwischen für mich eine wertvolle Wissensdatenbank dar, auf die ich regelmäßig und gerne zurückgreife.

Wie ist das bei euch? Lest und stöbert ihr gerne in Blogs? Favorisiert ihr andere Formate? Bloggt ihr selbst? Ich freue mich über eure Kommentare oder Blogposts zu diesem Thema.

  •  

Kurz notiert: SMLIGHT SLZB-MR1 vorgestellt

SMLIGHT hat mit dem SLZB-MR1 den ersten ZigBee und Thread Multiradioadapter vorgestellt. Dieser kombiniert den CC2652P7 von Texas Instruments mit dem EFR32MG21 von Silicon Labs im bekannten Gehäuse der SLZB06 Reihe. Oder mit anderen...

  •  

Hybride Informationsverarbeitung nervt

Kürzlich habe ich für eine anstehende Modernisierungsmaßnahme im Haus einen Kredit-vorfinanzierten Bausparvertrag abgeschlossen. In diesem Text möchte ich den Medienbruch hervorheben, der mich dabei genervt hat und aufzeigen, wie es besser gemacht werden kann.

Der Prozess im Überblick

  1. Recherche von Anbietern im Internet
  2. Erster Angebotsvergleich im Internet
  3. Terminvereinbarung eines Beratungsgesprächs via E-Mail und Telefon
  4. Erstes Termin in einer Filiale eines Anbieters
  5. Übermittlung der erforderlichen Unterlagen via E-Mail
  6. Zweiter Termin zum Vertragsabschluss mit jeder Menge Unterschriften und Papier

Die Punkte Terminvereinbarung, Informationsübermittlung und Vertragsabschluss verdienen in meinen Augen eine genauere Betrachtung

Terminvereinbarung

Die Anbieter, welche ich zuerst ins Auge gefasst hatte, boten eine Online-Terminvereinbarung via Webformular an, wo unter freien Terminen ein passender ausgewählt und gebucht werden konnte. Ich bevorzuge diese Art der Terminvereinbarung, da ich so zu einer Zeit die mir gut passt, direkt einen mir passenden Termin buchen kann, ohne E-Mails hin und her zu schreiben oder in einer Telefonwarteschleife zu hängen. Leider waren im gewünschten Zeitraum keine Termine frei und ich wollte die Angelegenheit nicht weiter aufschieben. Also schieden diese Anbieter aus.

Als nächstes habe ich in der nächstgelegenen Filiale einer bekannten Bausparkasse angerufen. Leider habe ich auch hier beim ersten Versuch niemanden erreicht. Also habe ich eine Terminanfrage mit zwei Terminvorschlägen via E-Mail gesendet. Um ein E-Mail-Ping-Pong zu vermeiden, habe ich auch eine Rückrufnummer mitgesendet. Der Rückruf hat mich dann auch prompt aus meinem Tunnel gerissen, als ich mich auf meine Arbeit konzentriert habe. Die Störung konnte ich verschmerzen, da die Freude überwiegte, noch in der gleichen Woche einen Termin vereinbaren zu könnnen.

Ich bin kein Freund von unangekündigten Anrufen, da sie mich entweder bei der Arbeit unterbrechen oder zu einer Zeit erreichen, in der ich lieber meine Ruhe hätte. Allerdings bevorzuge ich ein kurzes Telefonat oder eine Videokonferenz, wenn sich eine Angelegenzeit damit schneller und sicherer regeln lässt, als mehrere E-Mails austauschen zu müssen. Mein Favorit bleibt jedoch die Online-Terminbuchung.

Informationsübermittlung via E-Mail

Während des Beratungstermins in der Filiale wurde mir eine Finanzierungsmöglichkeit vorgeschlagen, die mir zusagte und wir haben geklärt, welche Unterlagen für den Abschluss benötigt werden.

Auf meine Frage, ob ich sämtliche Unterlagen als PDF via E-Mail senden kann oder alles in Papierform mitbringen muss, wurde zu meiner Freude geantwortet: „Selbstverständlich können Sie mir die Unterlagen als PDF per E-Mail senden oder auf einem USB-Stick mitbringen. Dies erleichtert mir die Ablage und ich muss nicht alles einscannen.“

Unterlagen wie Kontoauszüge und Verdienstbescheinigungen per E-Mail zu versenden, bereitet mir keine Sorgen, da mein E-Mail-Provider Mailbox.org eine Funktion bietet, um E-Mails definitiv sicher zu versenden. Kann zum Mailserver des Empfängers keine verschlüsselte Verbindung aufgebaut werden, wird der Versand abgebrochen. In diesem Fall hätte ich die PDFs auf einem USB-Stick mitgebracht. Dies war in diesem Fall jedoch nicht notwendig.

Exkurs E-Mail-Transport: In meinen Augen ist es eine Selbstverständlichkeit, dass Mailserver verschlüsselten Empfang und Versand unterstützen. Allerdings erfolgt der traditionelle Versand mit dem Simple Mail Transfer Protocol (SMTP) unverschlüsselt. Daher schätze ich die zuvor genannte Funktionalität bei Mailbox.org, um ohne technisches Know-how und zusätzlichen Aufwand sicherstellen zu können, dass eine E-Mail nur versendet wird, wenn dies auf einem verschlüsselten Transportweg erfolgt. Dies erleichtert mir auch die Kommunikation mit meinem Steuerberater.

Während ich persönlich die digitale Kommunikation bevorzuge, befürworte ich zugleich, die Möglichkeit beizubehalten, notwendige Unterlagen ohne Mehrkosten in Papierform einreichen zu können. Zumindest so lange es noch Kunden gibt, die diesen Weg bevorzugen (kein Digitalzwang).

Vertragsabschluss mit vielen Unterschriften und noch mehr Papier

Zum Vertragsabschluss wurde ich dann doch von der Bürokratie eingeholt. Ich musste X Seiten unterschreiben und mir wurden Y Seiten an Papierkram mitgegeben.

Ich finde es richtig, dass Anbieter ihren Kunden Verbraucherschutzinformationen in geeigneter Weise zur Verfügung stellen müssen. Aber sind Anbieter wirklich verpflichtet, dies in Papierform zu tun? Warum geht das nicht wahlweise als PDF? Gleiches gilt für die europäischen Standard-Informationen für Verbraucher-Darlehen. Ich behaupte, die meisten Verbraucher werden diese informationen nicht lesen und das Papier landet ungelesen in der Tonne.

Vorschlag zur Verbesserung

Da sind wir so weit gekommen und am Ende liegt doch wieder ein Stapel Papier von ca. 1 cm Höhe auf dem Tisch. Das muss nicht sein. Das kann auch anders gehen. So können unterschriftsreife Unterlagen vorab als PDF versendet oder auf Tablets bwz. E-Ink-Readern zur Durchsicht/Präsentation zugänglich gemacht werden. So kann das Kleingedruckte auch einfach vergrößert werden. ;-)

Und die eigenhändige Unterschrift kann rechtssicher durch die qualifizierte elektronische Unterschrift mit dem Personalausweis geleistet werden. Dank der Fernsignatur ist dies sogar spontan mit dem neuen Personalausweis und der Ausweisapp auf dem Smartphone möglich.

Es gibt also rechtssichere Alternativen zur eigenhändigen Unterschrift. Was (noch) fehlt, sind Angebote auf Seiten diverser Anbieter. Wenn ihr euch ebenfalls die Möglichkeit der elektronischen Unterschrift wünscht, fragt danach und fordert dies von den Anbietern ein. Ohne Nachfrage wird kein Angebot geschaffen!

Quellen und weiterführende Links

  •  

SLZB OS v2.8.1.dev9 veröffentlicht

SMLIGHT hat am 13. Februar 2025 die Version v2.8.1.dev9 von SLZB OS mit folgenden Neuerungen veröffentlicht: Generell: SLZB-06Mg24: Verbesserte Unterstützung. SLZB-06Mg24: Neue Zigbee- und Thread-Firmware v20250212 verfügbar. Option zur Aktivierung des IPv6-Protokolls (nur für...

  •  

SLZB OS 2.8.0 Beta veröffentlicht

SMLIGHT hat am 31. Januar 2025 die Beta von SLZB OS 2.8.0 mit folgenden Neuerungen veröffentlicht: Zigbee–Hub–Modus – Ihr SMLIGHT–Coordinator kann jetzt als eigenständiger Zigbee–Hub fungieren! Sie benötigen keinen separaten Mini-PC oder Server –...

  •  

Update 2025-01 zur Dokumentation für den Notfall

Während ich den Jahresrückblick 2024 schrieb, wurde mir bewusst, dass ich das im April 2024 behandelte Thema Dokumentation für den Notfall bzw. das digitale Erbe immer noch nicht angegangen hatte. Dies ärgerte mich und so nutzte ich die Zeit zwischen den Jahren, um dies zu ändern.

Der Umschlag für „wichtige Passwörter“

Im ersten Schritt habe ich meine KeePassXC-Datenbank in eine CSV-Datei exportiert und die Zeilen gelöscht, die für meine Erben keine Bedeutung haben. Damit mir die CSV-Datei nicht abhanden kommt, habe ich diese bewusst nur in einem Verzeichnis auf meinem Laptop verarbeitet, das nicht synchronisiert wird und dessen Partition verschlüsselt ist.

Im Anschluss habe ich die CSV-Datei ausgedruckt und in einen Briefumschlag gesteckt. Der Umschlag wurde beschriftet, verklebt und an einem Ort deponiert, der nur meiner Frau und mir bekannt ist.

Kommen im Laufe der Zeit weitere wichtige Passwörter hinzu, wird dieser Prozess wiederholt und der vorhergehende Umschlag vernichtet.

Die IT-Notfalldokumentation

Jeder Systemadministrator schätzt eine gute Dokumentation. Kein Systemadministrator schreibt gerne Dokumentation.

Meinung des Autors

Da die Dokumentation allerdings nicht von allein entsteht, nahm ich mir vor, jeden Tag wenigstens 10 Minuten daran zu arbeiten. Ich öffnete also TeXstudio und tippte auf die Tasten. Die Aussicht, ein feines LaTeX-Dokument zu produzieren, welches in ein gut lesbares PDF mündet, motivierte mich zusätzlich. Einmal angefangen, ging es dann deutlich schneller, als zuerst gedacht und am 27. Dezember war die erste Fassung fertig.

Screenshot der ersten Seite des fertigen PDF

Die roten Rahmen in obigen Bild zeigen an, dass es sich um klickbare Links im PDF handelt. Im Ausdruck erscheinen diese nicht.

Das Dokument enthält Abbildungen der eingesetzten Hardware mit einer Standortbeschreibung, so dass man diese im Zweifel auch schnell findet. Informationen zu Vertrags-, Kundennummern, Online-Kundencentern und Einwahldaten gehören ebenfalls dazu. Ich habe mich bei der Frage, welche Informationen ich aufnehmen soll, daran orientiert, wonach ich gefragt habe, wenn ich bei Kunden vor Ort war und Probleme mit dem Internetzugang oder dem Netzwerk beheben sollte. Eine schematische Übersicht der Netzwerkinfrastruktur gehört natürlich auch dazu:

Schematische Darstellung der heimischen IT-Infrastruktur

Das ausgedruckte Dokument habe ich meiner Frau in die Hand gedrückt mit der Bitte um Korrektur und Meinung. Es gefällt ihr und Sie findet es gut, dieses für den Notfall zu haben.

Eine zu Hilfe gerufene IT-Fachkraft kann sich damit schnell einen Überblick verschaffen, was die Zeit zur Lösung eines etwaigen Problems deutlich verkürzen sollte.

Erkenntnisse

Der Aufwand ist geringer als gedacht

Einmal angefangen war die Dokumentation schnell erstellt. Ich habe nicht auf die Uhr geschaut. Doch habe ich, denke ich, nicht länger als drei Stunden daran gesessen. Mich zum Anfangen zu überwinden war schwer, danach lief es wie geschmiert.

Es kommen auch gar nicht viele Seiten zusammen, wenn man sich auf das Wesentliche beschränkt.

Diese Dokumentation ist nicht vollständig

Mir ist bewusst, dass diese Dokumentation nicht vollständig ist. Je länger ich darüber nachdenke, desto mehr Dinge werden mir einfallen, die ich noch aufnehmen möchte. Und das ist vollkommen in Ordnung.

Es ist gut, richtig und wichtig mit den wichtigsten Punkten zu beginnen. Weitere Abschnitte können im Laufe der Zeit ergänzt werden. Wartet bitte nicht, bis ihr glaubt, eine vollständige Gliederung vorliegen zu haben, bevor ihr mit dem Schreiben beginnt. Ich kann mir z.B. vorstellen, noch einen Abschnitt zum Multifuntionsgerät in unserem Netzwerk und zum Troubleshooting häufig auftretender Probleme zu ergänzen.

Mit der Verfügbarkeit steigt auch die Komplexität

Gibt es nur einen Internetanschluss, stellt man schnell fest, ob dieser funktioniert oder nicht. Hat man zwei Internetanschlüsse, die an einer Firewall in einer Failover-Gruppe zusammengeführt werden, wird es schwieriger, denn fällt ein Anschluss aus, merkt man es zuerst gar nicht, wenn der Failover funktioniert.

Kamen früher nur DNS, das WLAN und die ConnectBox in Verdacht, gesellt sich nun die OPNsense zum Kreis der Verdächtigen hinzu. Dies ist evtl. nicht für jeden Heimnetzwerkadministrator oder Laien sofort ersichtlich. Und auch nicht alle Kundendienst-Techniker von Internetdiensteanbietern sind mit der Konfiguration von professionellen Firewalls vertraut.

Mit der vorhandenen Notfalldokumentation und den darin enthaltenen Verweisen auf die OPNsense-Dokumentation kommt man im Notfall zurecht. Ich werde mir jedoch noch Gedanken machen, wie ich dies weiter verbessern kann.

Fazit

Die nun existierende IT-Dokumentation ist definitiv besser, als gar keine zu haben. Es ist keine Schritt-für-Schritt-Anleitung zur Dienst-/Zugangs-Wiederherstellung, bietet aber die wichtigsten Informationen, um sich selbst helfen zu können.

Die Informationen sind ausgedruckt auch dann verfügbar, wenn die gesamte IT ausfällt und z.B. das WLAN oder der Zugriff auf das Dokumenten-Management-System nicht verfügbar sind.

Ich habe ein gutes Gefühl, diese Doku im Schrank liegen zu haben.

  •  

Der My-IT-Brain Jahresrückblick 2024

Zum Jahresende möchte ich kurz zurückblicken und reflektieren, wie dieses Jahr für meinen kleinen Blog verlaufen ist.

Anzahl veröffentlichter Artikel

Behandelte Themen

Thematisch haben sich fast alle Artikel mit Freier Software und Open Source beschäftigt oder waren daran angelehnt. Wie auch in den vorangegangenen Jahren habe ich keine bewussten Themenschwerpunkte gesetzt, sonder über die Themen geschrieben, dich mich in der jeweiligen Zeit interessierten und mich beschäftigt haben.

Zu Beginn des Jahres hatte es mir das Thema IPv6 angetan, wozu vier Beiträge erschienen sind:

Das Thema begleitet mich auch weiterhin, jedoch gibt es bisher keine spannenden Neuigkeiten, die ich für berichtenswert halte. Ich fürchte, IPv6 wird sobald nicht die Weltherrschaft an sich reißen.

Ein Thema, welches mir sehr wichtig war und ist, ist die Dokumentation für den Notfall bzw. das digitale Erbe. Wie die Kommentare zu diesem Artikel bezeugen, bin ich nicht der Einzige, der sich darum Gedanken macht. Leider bin ich 2024 kaum damit vorangekommen und schiebe es weiter vor mir her. Dies ärgert mich etwas, da ich mir wünsche, mich für ein so wichtiges Thema besser aufraffen zu können.

In 2024 wurden wir auf allen Kanälen mit Künstlicher Intelligenz, Maschinellem Lernen und großen Sprachmodellen überflutet. Es fällt schon fast schwer noch irgendeine Anwendung oder ein Produkt ohne AI kaufen zu können. Abseits des Hypes habe ich mich ebenfalls mit dem Thema beschäftigt und zwei Beiträge ( [1] und [2]) dazu geschrieben. Ich bin überzeugt, dass die verschiedenen Spielarten der künstlichen Intelligenz unser Leben und unsere Art zu Arbeiten stark beeinflussen und verändern werden. Daher werde auch ich hier am Ball zu bleiben, um nicht von der laufenden Entwicklung abgehängt zu werden.

Fazit

Damit sind 2024 insgesamt 26 Artikel erschinen. Das sind 19 weniger als in 2023. Mein selbst gestecktes Ziel, jeden Monat mindestens zwei Artikel zu veröffentlichen habe ich ebenfalls nicht erreicht. Da dies mein Hobby ist und mir primär Freude bereiten soll, setze ich mich durch diese Zielverfehlung nicht unter Druck.

Das Jahr 2025 lasse ich ohne große Ziele und Bestrebungen auf diesen Blog zukommen. Nur eines ist sicher, ich werde meine Texte weiterhin selbst und ohne KI-Unterstützung schreiben. Denn damit würde ich mir nur selbst die Freude am Bloggen nehmen.

Ich freue mich, wenn ich auch 2025 wieder interessantes Wissen in meinen Texten mit euch teilen kann. Ich wünsche euch einen guten Rutsch ins Jahr 2025!

  •  

Künstliches Scheitern: Technische Diagramme mit KI-Tools zeichnen

Unser Buch Coding mit KI wird gerade übersetzt. Heute musste ich diverse Fragen zur Übersetzung beantworten und habe bei der Gelegenheit ein paar Beispiele aus unserem Buch mit aktuellen Versionen von ChatGPT und Claude noch einmal ausprobiert. Dabei ging es um die Frage, ob KI-Tools technische Diagramme (z.B. UML-Diagramme) zeichnen können. Die Ergebnisse sind niederschmetternd, aber durchaus unterhaltsam :-)

UML-Diagramme

Vor einem halben Jahr habe ich ChatGPT gebeten, zu zwei einfachen Java-Klassen ein UML-Diagram zu zeichnen. Das Ergebnis sah so aus (inklusive der falschen Einrückungen):

+-------------------------+
|         Main            |
+-------------------------+
| + main(args: String[]): void |
| + initializeQuestionPool(): List<Question> |
+-------------------------+

+-------------------------+
|        Question         |
+-------------------------+
| - text: String          |
| - answers: List<Answer> |
| - correctAnswers: List<Answer> |
+-------------------------+
| + Question(text: String, answers: List<Answer>, 
|            correctAnswers: List<Answer>) |
| + askQuestion(): void   |
| - validateAnswer(userInput: String): boolean |
+-------------------------+

Dabei war ChatGPT schon damals in der Lage, PlantUML- oder Mermaid-Code zu liefern. Der Prompt Please generate PlantUML code instead liefert brauchbaren Code, der dann in https://www.planttext.com/ visualisiert werden kann. Das sieht dann so aus:

ChatGPT lieferte den Code für das UML-Diagramm, planttext.com visualisiert ihn

Heute habe ich das ganze Beispiel noch einmal ausprobiert. Ich habe also den Java-Code für zwei Klassen an ChatGPT übergeben und um ein UML-Diagramm gebeten. Vorbei sind die ASCII-Zeiten. Das Ergebnis sieht jetzt so aus:

ChatGPT nennt diesen von DALL-E produzierten Irrsinn ein »UML-Diagramm«
Etwas mehr Kontext zum obigen Diagramm

Leider kann ich hier keinen Link zum ganzen Chat-Verlauf angeben, weil ChatGPT anscheinend nur reine Text-Chat-Verläufe teilen kann.

Visualisierung eines Docker-Setups

Beispiel zwei ergibt sich aus zwei Prompts:

Prompt: I want to build a REST application using Python and Django. The application will run in a Docker container. Do I need a proxy server in this case to make my application visible to the internet?

Prompt: Can you visualize the setup in a diagram?

In der Vergangenheit (Mitte 2024) lieferte ChatGPT das Diagramm als ASCII-Art.

+---------------------------+
|      Client Browser       |
+-----------+---------------+
            |
            v
+-----------+---------------+
|       Nginx Reverse Proxy |
|  (Handles SSL, Load       |
|   Balancing, etc.)        |
+-----------+---------------+
            |
            v
+-----------+----------------+
| Docker Container Network   |
|                            |
|  +----------+   +---------+|
|  |  Web     |   |  DB     ||
|  | Container|   |Container||
|  +----------+   +---------+|
|   (Django)       (Postgres)|
+----------------------------+

Erst auf die explizite Bitte liefert es auch Mermaid-Code, der dann unter https://mermaid.live/ gezeichnet werden kann.

Heute (Dez. 2024) gibt sich ChatGPT nicht mehr mit ASCII-Art ab sondern leitet den Diagrammwunsch an DALL-E weiter. Das Ergebnis ist eine Katastrophe.

ChatGPT’s jämmerlicher Versuch, ein einfaches Docker-Setup zu visualisieren

Auch Claude.ai zeichnet selbstbewusst ein Diagramm des Docker-Setups. Dabei wird intern Mermaid verwendet.

Claude leidet offensichtlich unter bedrohlichen Farbstörungen, aber inhaltlich ist das Ergebnis besser als bei ChatGPT
Hier der relevante Teil des Chat-Verlaufs mit Claude

Fazit

Die Diagramme haben durchaus einen hohen Unterhaltungswert. Aber offensichtlich wird es noch ein wenig dauern, bis KI-Tools brauchbare technische Diagramme zeichnen können. Der Ansatz von Claude wirkt dabei erfolgsversprechender. Technische Diagramme mit DALL-E zu erstellen wollen ist doch eine sehr gewagte Idee von OpenAI.

Die besten Ergebnisse erzielen Sie weiterhin, wenn Sie ChatGPT, Claude oder das KI-Tool Ihrer Wahl explizit um Code in PlantUML oder Mermaid bitten. Den Code können Sie dann selbst visualisieren und bei Bedarf auch weiter optimieren.

  •  

Meine privaten Arbeitsmittel 2024

Dies ist ein Update des Artikels aus dem letzten Jahr. Eine aktuelle Hardwareübersicht gibt es hier.

Smartphone

Als privates Mobiltelefon benutze ich seit 2022 ein Samsung Galaxy S22 mit einem Congstar-Tarif, welcher mich im Monat 10,- EUR kostet. Ich bin mit dem Gerät weiterhin zufrieden und plane, es in 2025 ebenfalls zu nutzen.

Im Folgenden führe ich einige von mir genutzte Apps auf, mit einer kurzen Erklärung, wofür ich diese verwende. Wo möglich verlinke ich in den F-Droid Store. Wo dies nicht möglich ist, führen diese in den Google Play Store.

Hier die am häufigsten verwendeten Apps zählen in alphabetischer Reihenfolge:

Zu den eher sporadisch genutzten Apps zählen in alphabetischer Reihenfolge:

Evtl. ist euch aufgefallen, dass eine prominente App in obiger Aufzählung fehlt. Tatsächlich widerstehe ich weiterhin dem sozialen Druck und verweigere mich der Nutzung von WhatsApp. Der Verzicht auf WhatsApp schnitt mich leider ausgerechner bei der Freiwilligen Feuerwehr von einem Teil der Kommunikation ab. Daher freue ich mich nun umso mehr, dass unsere Feuerwehr zur Planung von Dienstabenden, Veranstaltungen und sonstigen Terminen auf Spond (Google Play Store) umgestiegen ist.

Ich nutze auch Online-Banking-Apps auf dem Smartphone. ich nutze diese z.B., um am Laptop getätigte Überweisungen oder Online-Einkäufe zu autorisieren. Darüber hinaus schätze ich die Benachrichtigung über getätigte Umsätze.

Insgesamt sind aktuell 168 Apps installiert. Ehrlicherweise werde ich vermutlich erst ausmisten, wenn der Speicher knapp wird.

Ach ja, telefonieren tue ich damit natürlich auch. ;-)

Tablet

Seit Mitte 2019 [verwende ich] auch ein Samsung T830 Galaxy Tab S4 Wi-Fi Tablet. Durch seine 10,5 Zoll (ca. 27 cm) Bildschirmdiagonale, das geringe Gewicht und mit der App ReadEra eignet es sich hervorragend zum Lesen von PDF-Dateien und E-Books.

https://www.my-it-brain.de/wordpress/meine-privaten-arbeitsmittel-anfang-2022/

Darüber hinaus nutze ich das Gerät:

  • Für Online-Shopping (mehr als das Smartphone)
  • Lesen im Internet (Blogs, Dokus, etc.) mit Firefox Klar

Dabei verwende ich mehr oder weniger die gleichen Apps wie auf dem Smartphone. Für den Zugriff auf Mastodon verwende ich hier statt Fedilab die App Tusky (F-Droid).

Seit 2024 neu auf dem Tablet sind FeedMe (Google Play Store) und Wallabag (Google Play Store). FeedMe teste ich als Alternative zu Feedly (Google Play Store), da dieser die Synchronisierung mit meiner FreshRSS-Instanz unterstützt. Er ist etwas langsam, ansonsten zufriedenstellend. In Wallabag speichere ich Artikel, die ich später lesen oder für Workshops, Talks und Blog-Artikel nutzen möchte.

Laptop

  • Ich arbeite weiterhin mit einem Lenovo ThinkPad T14s (seit 2021)
  • Das Betriebssystem wurde im Laufe der Zeit von Fedora 37 auf Fedora 40 aktualisiert; Das Upgrade auf Fedora 41 folgt bald
  • Nach Rambox ist auch hamsket entsorgt worden, da mich diese Apps im Laufe der Zeit doch mehr genervt als unterstützt haben
    • Dienste wie Element, Mastodon, GMail, Slack, etc. nutze ich jetzt direkt im Webbrowser
    • Ich nutze die Funktion Tabs zu pinnen, um häufig verwendete Dienste im Browser im schnellen Zugriff zu haben

Der Laptop ist mein Hauptarbeitsmittel, den ich für so gut wie alle anfallenden Aufgaben verwende. Lediglich zum Lesen von E-Books bevorzuge ich das Tablet und zum Instant Messaging das Smartphone.

  • Mein Lieblingsbrowser ist Firefox
  • Mein Lieblingseditor ist Vim
  • Thunderbird ist die Anwendung meiner Wahl für Aufgaben, E-Mail und Kalender
  • TeXstudio ist mein Lieblings-LaTeX-Editor

Ich habe immer mal wieder Evolution ausprobiert, da dies eine bessere Integration in GNOME bietet. Doch bin ich nie damit warm geworden. Da ich mehrere E-Mail-Konten bei verschiedenen Anbietern sowie Kalender für verschiedene Zwecke habe, finde ich die Zusammenführung und Nutzung in Thunderbird ideal.

Desktop-/Server-PC

Mein ehemaliger Desktop-PC ist in ein 19-Zoll-Gehäuse und mit diesem in einen Serverschrank im Keller umgezogen. Die ganze Geschichte dazu kann in „Ein Serverschrank mit Kompromissen“ nachgelesen werden.

  • Ein Selbstbau mit RHEL dient mir als Libvirt/KVM-Hypervisor für virtuelle Maschinen

Auf diesem Rechner laufen dauerhaft zwei virtuelle Maschinen:

Als dauerhaft laufender Rechner führt dieser Host meine Cronjobs und Ansible-Playbooks aus, erzeugt Backups und kopiert/synchronisiert Daten von hier nach dort.

Die Untersützung von Podman bzw. der weiteren Container-Tools Buildah und Skopeo in RHEL ist super. Die kostenlose Developer Subscription for Individuals ermöglicht mir die produktive Nutzung von bis zu 16 RHEL-Servern. Das sind mehr als genug für meine privaten Zwecke.

Sonstige Geräte im Netzwerk

  • Mein Brother DCP-540CN wurde dieses Jahr nach 18 Jahren ausgemustert; ich nutze jetzt einen Brother MFC-J890DW im Haus mit, falls ich mal etwas drucken muss
  • Meine Synology Diskstation DS213air dient mir seit 2013 als Netzwerkspeicher (NAS)
    • Dient als Backup-Senke
    • Beheimatet Foto-, Video- und Musiksammlung
    • Stellt Netzlaufwerke für Windows und Linux bereit
    • Bietet aktuell 2,7 TB Speicherkapazität (2 Disks als RAID 1)
    • Externe USB-Festplatte (500 GB) für lokale Backups
    • Sie ist alt, aber verrichtet zuverlässig ihren Dienst
  • Neu seit diesem Jahr dabei ist eine Protectli VP2410 – 4 Port Intel ® CeleVP2410 – 4 Port Intel ® Celeron J4125ron J4125 mit OPNSense
    • Dieses Gerät lag seit 2023 ungenutzt herum, da sich die Anschaltung des Glasfaseranschlusses um ein Jahr verzögert hat; jetzt ist er in Betrieb
    • Die OPNSense wird in 2025 meinen Pi-Hole ablösen und den Zugang zum Internet über Dual-WAN bereitstellen

Cloud-Dienste

Hier hat es im laufenden Jahr keine Änderungen gegeben. Ich gehe davon aus, dass es hier in 2025 ebenfalls keine Änderungen geben wird. Drei neue Dienste sind hinzugekommen, die ich bei adminforge.de nutze. Dies sind:

  • DNSforge
  • Bandbreite messen
  • ToDo App
  • FreshRSS Reader
  • Linkwarden
  • Wallabag

Die letzten vier befinden sich noch in der Testphase. Ob die Nutzung in 2025 anhält, werdet ihr im nächsten Rückblick erfahren können.

Ich freue mich, wenn euch dieser kleine Überblick gefällt und ihr vielleicht die ein oder andere Inspiration darin findet. Ich freue mich auch, wenn ich in euren Blogs lesen kann, womit ihr 2024 so gearbeitet habt.

  •  
❌