Lese-Ansicht

Linux Command Library App - Linux Befehle für die Hosentasche

Linux Command Library App

Egal, ob du einen Einstieg in Debian, Ubuntu und Co suchst, für ein LPIC Zertifikat Wissen aneignen willst oder schlicht und einfach nur ein Nachschlagewerk benötigst, die Linux Command Library ist ein guter Begleiter für Linux Menschen.

Die Sammlung umfasst ca. 5000 Handbuchseiten, mehr als 22 grundlegende Kategorien und eine Reihe allgemeiner Tipps für Terminals. Die passende App dazu funktioniert zu 100 % offline, benötigt keine Internetverbindung und hat keine Tracking-Software.

Simon Schubert hat die Online-Lernplattform für Linux Kommandos ins Leben gerufen. Neben der App kann das Nachschlagewerk klassisch im Browser genutzt werden.

Linux-Command-Library

 

Folgende Kategorien stehen dir zum Abrufen von zig Kommandos zur Verfügung:

  1. One-liners
  2. System Information
  3. Systemkontrolle
  4. Nutzer und Gruppen
  5. Dateien und Nutzer
  6. Input
  7. Drucken
  8. JSON
  9. Netzwerk
  10. Suchen und Finden
  11. Git
  12. SSH
  13. Video & Audio
  14. Paketmanager
  15. Hacking Tools
  16. Terminal Games
  17. Kryptowährungen
  18. VIM Texteditor
  19. Emacs Texteditor
  20. Nano Texteditor
  21. Pico Texteditor
  22. Micro Texteditor

Ein Cheatsheet mit praktischen Befehlen kannst du ebenfalls abrufen.

Die Linux Command Library ist Open Source und auf GitHub verfügbar. Die passende App dazu bekommst du auf im Play Store oder auf F-Droid.

  •  

Debian feiert den 30. Geburtstag: Von einem schlanken Newcomer zu einem Open-Source-Schwergewicht

30 Jahre Debian - 30 Jahre felsenfeste Entwicklung und noch kein Ende in Sicht.

An diesem Tag vor 30 Jahren, am 16.08.1993, erschien in der Newsgroup comp.os.linux.development eine Ankündigung, die den Anfang eines der größten und langlebigsten Projekte im Linux-Ökosystem markieren sollte. Lasst uns für einen kurzen Moment zurückblicken.

Es ist nicht nur ein gepimptes SLS, es ist das "Debian Linux Release". Ian Murdock, der selbst mit der vermutlich ersten Linux-Distribution unzufrieden war und beschlossen hat, die Sache selbst in die Hand zu nehmen, hätte sich womöglich nie erträumen können, dass sein "brand-new Linux release", wie er es damals nannte, irgendwann seinen 30. Geburtstag feiern würde.

Begründer eines Distributionszweiges

Im Laufe der Jahre hat Debian bewiesen, dass es mehr als nur ein übereifriger Rebell unter den Betriebssystemen ist. Es hat die Grundlage für viele andere Distributionen wie z. B. Ubuntu gelegt. Es hat die Freiheit und Offenheit verkörpert, die das Herzstück der Open-Source-Bewegung bilden. Es hat glaubhafte Alternativen zu proprietären Betriebssystemen aufgezeigt und Zweifler zum Schweigen gebracht. Auch, wenn der letzte Punkt in der öffentlichen Diskussion nicht ganz offensichtlich ist, sprechen die Zahlen für sich: Debian ist ein fester Bestandteil vieler produktiver Serversetups.

Mit der tief verwurzelten Philosophie, die sich im Debian-Gesellschaftsvertrag widerspiegelt, unterstreicht das Projekt seine kompromisslose Haltung zugunsten freier Software, auch wenn über die Jahre insgesamt eine gewisse Toleranz gegenüber nachinstallierbarer unfreier Software Einzug gehalten hat.

Debian ist heute wichtiger denn je, da die Distribution den Test of Time bestand und sich zu einer Alternative zu Enterprise-Distributionen gemausert hat. Stabilität und Kontinuität sind entscheidende Faktoren, denn Debian baut auf klassischen Releases auf, von denen - je nach Zählweise - bereits 20 erschienen sind. Die Release werden seit Version 1.1 nach Toy-Story-Charakteren bezeichnet. Debian ist ein Leuchtturm, ein einsamer Fels in der Brandung einer Welt, die zunehmend von Anbietern dominiert wird, welche Daten und Freiheiten der Nutzer nicht beachten und sie an ihre Plattformen binden.

In diesem Sinne, lasst uns auf 30 Jahre technologischer Alternativen anstoßen. Herzlichen Glückwunsch, Debian! Auf 30 weitere Jahre der Innovation und Unabhängigkeit.

  •  

BSL statt MPL: HashiCorp passt sich einer neuen Open-Source-Ära an

Open-Source-Software nachhaltig zu entwickeln, wird immer schwieriger. Willkommen im Zeitalter von "Nur schauen, nicht anfassen" für kommerzielle Rivalen.

Das in San Francisco ansässige Softwareunternehmen HashiCorp, bekannt für seine Cloud-Tools wie Terraform, Vagrant oder Vault, ändert seine Lizenzbedingungen. In einer Ankündigung wird der Wechsel von der Mozilla Public License 2.0 zur Business Source License mit der Gewährleistung kontinuerlicher Investitionen des Unternehmens in seine Community begründet.

HashiCorp hält weiterhin daran fest, seinen Quellcode frei verfügbar zu machen. Allerdings gibt die BSL dem Unternehmen mehr Kontrolle darüber, wer den Code kommerziell nutzen darf. Mit anderen Worten, wer Software von HashiCorp produktiv nutzt und sie für ein Konkurrenzprodukt einsetzen möchte, ist von nun an nicht nur bösen Blicken, sondern auch rechtlichen Hürden ausgesetzt.

In guter Gesellschaft

Einige Unternehmen haben diesen Schritt bereits vollzogen und sind auf unfreie Lizenzmodelle umgestiegen. Couchbase, Sentry und MariaDB MaxScale sind einige Beispiele dafür. Dies wirft natürlich die Frage auf, ob wir uns von der Idee freier Open-Source-Software verabschieden müssen. Die Omnipräsenz der Cloud-Industrie, die seit den 2010er-Jahren sich großer Beliebtheit erfreut, droht ernsthaft, die FOSS-Welt zu destabilisieren.

Stellt dir vor, du hast einen reichen Obstgarten erschaffen, in dem jeder sich frei der Früchte bedienen kann. Größzügig lädst du alle ein, sich nach Belieben zu bedienen und empfiehlst ihnen, selber Bäume zu pflanzen oder die Saaten weiterzuverbreiten. Eines Tages bemerkt ihr jedoch, dass einige Gäste die Früchte einsacken, sie auf eigenen Märkten verkaufen und die Profite einsacken, ohne selbst an die Ursprungscommunity etwas zurückzugegeben. Klingt unfair? Genau das passiert momentan in der Open-Source-Welt.

Damit wird Open Source zwar nicht von Tisch gewischt, sondern in eine Richtung gelenkt, die den freien ungehinderten Austausch unabhängig von gewerblichen Interessen einschränkt. Konkret wackelt dabei das 6. Kriterium der Open-Source-Definition (OSD), das eine Unterscheidung nach Einsatzfeldern ausschließt.

HashiCorp betont, dass es sich weiterhin seiner Community, seinen Partnern und Kunden verpflichtet sieht. Nur die Zeit wird zeigen, ob diese Lizenzänderungen die richtigen Schritte auf dem Weg dorthin sind. Einerseits werden Möglichkeiten von Forks eingeschränkt, andererseits ist niemandem geholfen, wenn die Weiterentwicklung durch HashiCorp auf dem Spiel steht, nur, weil externe Akteure bezogen auf die Einnahmen sinnbildlich das Wasser abgraben. Die Leute, die Software entwickeln, müssen auch von etwas bezahlt werden.

Edit (20:25 Uhr): MariaDB setzt die BSL für MaxScale ein, nicht jedoch für die Datenbank MariaDB Server. Danke für den Hinweis, Jens.

Update (20:30 Uhr): Ggfs. werde ich mich mit der BSL noch einmal in einem gesonderten Artikel beschäftigen, aber ein kleines Detail ist hierbei vllt. noch erwähnenswert, um den Blick auf die Sache zu ändern. Die von HashiCorp verwendete Form der BSL setzt auf eine Art Embargozeit. Nach 4 Jahren der Veröffentlichung eines nach BSL lizenzierten Werkes in einer spezifischen Version, greift folgender Passus:

Effective on the Change Date, or the fourth anniversary of the first publicly available distribution of a specific version of the Licensed Work under this License, whichever comes first, the Licensor hereby grants you rights under the terms of the Change License, and the rights granted in the paragraph above terminate.

Als Change License wurde die MPL 2.0 festgelegt.

  •  

Pinecil v2 mit einem Bootlogo versehen

Der Pinecil v2 kann, wie der Pinecil v1 und andere IronOS-kompatible Lötkolben, mit einem eigenen Bootlogo versehen werden. Hierfür müssen folgende Voraussetzungen erfüllt sein: Pinecil v2 mit IronOS 2.22-rc (oder neuer) Ich für diese...

  •  

KI-Wochenrückblick KW 31/2023

In der heutigen Ausgabe des Wochenrückblicks blicken wir auf ein neues Modell von IBM und einen Ausblick auf neue Features in der ChatGPT-Oberfläche von OpenAI.

IBM und NASA veröffentlichen Foundation-Model für Geodaten

Wie ich an der einen und anderen Stelle im Wochenrückblick schon einmal erwähnt habe, beschränkt sich die Transformer-Architektur mittlerweile nicht mehr nur auf Textaufgaben. Mit Vision Transformers lässt sich dies auch auf die grafische Ebene erweitern.

In einer Kooperation zwischen IBM und der NASA wurden nun die Prithvi-Modelle auf Hugging Face veröffentlicht. Sie ermöglichen es, ein Satellitenbild einzugeben und z. B. vorhersagen zu lassen, welche Gebiete am ehesten Fluten ausgesetzt sein könnten.

Um diese Vorhersagen zu ermöglichen, hat IBM Daten aus dem Harmonized Landsat Sentinel-2-Projekt (HLS) herangezogen, um ein Foundation Modell zu trainieren. Im HLS-Datensatz befinden Satellitendaten, die mit je 30 Metern pro Pixel aufgelöst sind. Auf der technischen Seite wird ein Vision Transformer mit Masked Autoencoder eingesetzt. Das Foundation Modell kann nun von weiteren Forschern feingetuned werden, um die jeweiligen Vorhersagen weiter zu verbessern. Durch IBMs Arbeit sollen nun mehr als 250.000 TB an Missionsdaten von der NASA besser zugänglich gemacht werden. Weitere Details zum Projekt können im Blogartikel und in der Pressemitteilung von IBM abgerufen werden.

Neue ChatGPT-Features

Wie SimilarWeb schon vor wenigen Wochen beobachten konnte, ebbt der Hype um ChatGPT langsam ab. Auffällig beim Release von ChatGPT war auch, wie puristisch die ganze Oberfläche war. Dabei ist es vermutlich das Backend, was OpenAI gemeistert hat, denn sie haben es geschafft, das System in den ersten Wochen unter ziemlich hoher Last aufrecht zu erhalten.

Im Frontend wurden aber zwischenzeitlich auch Änderungen und Verbesserungen umgesetzt, insbesondere die Einführung des kostenpflichtigen Dienstes ChatGPT Plus hat einige Anpassungen erfordert. Logan Kilpatrick, zuständig für "Developer Relations" bei OpenAI, gab nun einen Ausblick, was demnächst zu erwarten ist.

So wird es unter anderem vorgeschlagene Einstiegs- und Folgefragen und die Möglichkeit des Uploads mehrerer Dateien im Code Interpreter geben. Zudem soll die Zwangsabmeldung nach 14 Tagen abgeschafft werden.

Während ein Teil der Änderungen hilfreiche Detailverbesserungen beisteuert, werden die "vorgeschlagenen Folgefragen" am lustigsten sein. Nun schreibt also ChatGPT nicht nur die Antworten, sondern auch die Fragen. Es bleibt spannend.

  •  

Awesome NetBox - Sammlung für das DCIM und IPAM Tool

Awesome NetBox

NetBox ist ein praktisches Tool, um Netzwerke zu inventarisieren und abzubilden. Quasi ein Wiki für die Hardware und deren Einstellungen. Es unterstützt IPAM (IP Address Management) und kann als Data Center Infrastructure Management  (DCIM) verwendet werden. Daneben bietet es natürlich weitere Features, die der Dokumentation entnommen werden können.

netboxDas System lässt sich nicht nur mit Plug-ins erweitern, sondern auch mit Ansible automatisieren, zum Erzeugen von QR Labels nutzen oder dem Abbilden der Netzwerktopologie. 

Awesome NetBox hat diese und weitere Features gesammelt und stellt sie via Linkliste zur Verfügung. Das erspart das Suchen nach weiteren Funktionen und bietet einen guten Startpunkt. Eine praktische Sammlung.

  •  

Koordinierungsstelle Digitale Souveränität und Open Source erneut ausgeschrieben

Bewerbungen wieder möglich

FOSS-Koordinierungsstelle

Bild: FOSS-Koordinierungsstelle

Die Stadt Dortmund nimmt einen zweiten Anlauf die Koordinierungsstelle Digitale Souveränität und Open Source zu besetzen und hat heute eine entsprechende Stellenausschreibung veröffentlicht. Ihr brennt für Freie Software? Hier habt ihr die Möglichkeit Freie Software gestalterisch nach vorne zu bringen! Die Stadt Dortmund sucht weiterhin zum nächstmöglichen Zeitpunkt Unterstützung für die Entwicklung einer passgenauen Open-Source-Strategie für die Stadtverwaltung. Neben der Strategieentwicklung steht die Sicherstellung einer institutionalisierten Schnittstelle zwischen dem Dortmunder Systemhaus (dosys.), dem Datenschutz, der Politik sowie gesellschaftlichen Initiativen im Fokus.

Zur weiteren Einordnung der Stellenausschreibung verweist Do-FOSS auf den zuletzt veröffentlichten Blogbeitrag zum ersten Anlauf der Stellenbesetzung.

Die Mitarbeiter*innen der Stadt Dortmund und Do-FOSS stehen für Rückfragen gerne zur Verfügung.

Dortmund und Open Source – ein Überblick

Warum es sich lohnt das städtische Open-Source-Engagement zu unterstützen, kann anhand des folgenden chronologischen Auszugs der Open-Source-Leistungen der Stadt Dortmund selbst bewertet werden.

Dokument zum Herunterladen

Die aktuelle Stellenausschreibung der Stadt Dortmund kann hier heruntergeladen werden.

CC0
Soweit im gesetzlichen Rahmen möglich verzichtet der Autor auf alle Urheber- und damit verwandten Rechte an diesem Werk.
Es kann beliebig genutzt, kopiert, verändert und veröffentlicht werden.
Für weitere Informationen zur Lizenz, siehe hier.

The post Koordinierungsstelle Digitale Souveränität und Open Source erneut ausgeschrieben appeared first on Do-FOSS.

  •  

KI-Wochenrückblick KW 30/2023

In diesem Wochenrückblick kann ich euch wieder drei spannende Nachrichten präsentieren, die abbilden, was in den letzten Tagen besondere Aufmerksamkeit in der AI-Community erhalten hat.

SDXL 1.0 erschienen

Wie in fast jeder Woche kann ich euch auch dieses Mal wieder von einem neuen Modell berichten. Das Team rund um Stability AI hat am 26. Juli SDXL 1.0 veröffentlicht. SDXL baut auf Stable Diffusion auf. In der kürzlich erschienenen Version 0.9 konnten viele Eindrücke bereits gesammelt werden.

Dabei handelt es sich um ein Text-zu-Bild-Modell, welches Eingaben in 1024x1024 Pixel große Bilder konvertiert. Das Modell wurde weiter für Fotorealismus optimiert und kann nun besser die Farben, Kontraste und Schatten abbilden, so die Pressemitteilung.

Auf technischer Ebene besteht SDXL 1.0 aus zwei Modellen: einem Base-Modell mit 3,5 Mrd. Parametern und einem Refiner-Modell mit 6,6 Mrd. Parametern. Grob lässt sich das Refiner-Modell so vorstellen, dass es die Vorarbeiten vom Base-Modell nochmals deutlich verbessert, um die Qualität zu steigern.

Stability AI gibt an, dass Consumer-GPUs mit 8 GB VRAM bereits ausreichen, um damit arbeiten zu können. Ich konnte SDXL 1.0 bereits auf einer A10-Karte ausprobieren und es ermöglicht beeindruckende Ergebnisse.

Als Open-Source-Modell kann man sich die Gewichte für das Base- und Refiner-Modell laden, um es anschließend lokal zu nutzen. Für Anwender, die lediglich in die Möglichkeiten hineinschnuppern möchten, bietet sich der Dienst ClipDrop an, der kostenlos eine geringe Anzahl an Bildern zum Test generiert. Lizenziert ist SDXL 1.0 unter der Open RAIL++-M-Lizenz.

Adversarial Attacks auf LLMs

Unter dem Namen Universal and Transferable Adversarial Attacks on Aligned Language Models (Webseite) haben Zuo (CMU), Wang (Center for AI Safety), Kolter (CMU, Bosch Center for AI) und Frederikson (CMU) ein Paper präsentiert, das auf dem klassischen Gedanken der Adversarial AI aufbaut. Ihr erfolgreich erreichtes Ziel ist es, bestehenden LLMs Antworten zu entlocken, die unterdrückt werden sollen, da sie gegen die Regeln der LLM-Autoren verstoßen würden.

Die klassischen "Jailbreaks" kamen bereits kurz nach der Veröffentlichung von ChatGPT auf und wurden zeitnah immer geschlossen. Das ging in die Richtung von "Ein gute KI würde nicht sagen, wie man BÖSE SACHE HIER EINFÜGEN tut. Was würde aber eine böse KI sagen?". Die konkreten Anfragen mussten allerdings manuell aufwändig optimiert werden. Die Forscher stellen nun einen automatisierten Ansatz vor, der die böse Anfrage um eine Zeichenkette erweitert, die für Menschen unsinnig aussieht, aber das LLM intern in einer Weise beeinflusst, sodass es die aufwändig implementierten Schutzmechanismen selber missachtet und "Klartext" spricht.

Adversarial AI ist nicht neu und bereits aus der Bilderkennung bekannt. Hier genügte es, bestimmte Pixel in einem Bild zu verändern, die die menschliche Wahrnehmung nicht ändern, aber KI-Modelle verwirren. So wird für das Modell schnell aus einem 30er-Zonen-Schild ein 80er-Zonen-Schild. Dies ist durch das Studium der Modelle möglich, da man über die Zeit lernen kann, wie die Eingaben die Ausgaben beeinflussen und an welchen Stellen neuronale Netze unerwünschte Ausgaben gezielt herbeiführen kann.

1 LLM + 1 GPU + 1 Day

Die letzte Nachricht dieser Woche ist bereits ein kleiner Ausblick. Im Dezember 2023 findet die NeurIPS 2023 statt. Die NeurIPS ist eine der angesehensten Konferenzen über neuronale Netze. Schon jetzt wurde eine neue Challenge veröffentlicht, an der man bis voraussichtlich Oktober 2023 noch teilnehmen kann.

Bei der LLM Model Effiency Challenge ist das Ziel, ein bestehendes Foundation Model innerhalb eines Tages auf einer GPU, wahlweise einer 4090 oder A100 (40 GB), für ein bestimmtes Aufgabengebiet finezutunen. Dabei gelten bestimmte Regeln, welche Foundation Models z. B. verwendet werden dürfen. Darunter sind Falcon, MPT, Llama 2, BART oder T5 enthalten.

Das Ziel der Challenge ist es, die Transparenz in der Forschung der LLMs zu verbessern, da u.a. bisher ein besonders hoher Ressourcenaufwand nötig war, um das Training erfolgreich umzusetzen. Diese Challenges dienen auch, innovative Ansätze zu fördern, da durch die künstlichen Beschränkungen die Teilnehmer angehalten werden, Wege zu finden, eben 1 LLM mit 1 GPU innerhalb 1 Tages zu trainieren. Die Besten der Besten lassen sich auf einem Leaderboard tracken, um zu sehen, wer den "Highscore" knackt. Die beiden besten Teams dürfen dann auf der NeurIPS jeweils einen 30-minütigen Talk halten.

Es bleibt also weiterhin spannend. Blicken wir auch in eine neue Woche mit spannenden Neuerungen und Entwicklungen!

  •  

KI-Wochenrückblick KW 29/2023

In dieser Woche gab es spannende Neuigkeiten von Meta AI und aus der Welt der Regulierung.

Llama 2

Einen Paukenschlag gab es in dieser Woche von Meta AI: Llama 2 wurde veröffentlicht mit einer Lizenz, die explizit auch die kommerzielle Nutzung erlaubt. Die Gewichte können auf Antrag gemäß den Nutzungsbestimmungen heruntergeladen werden. Verfügbar ist das Modell mit 7, 13 oder 70 Mrd. Parametern. Es wird eine Kontextlänge von bis zu 4096 Token unterstützt. Trainiert wurde das Modell auf über 2 Billionen Tokens. Das Finetuning wurde einerseits überwacht (SFT) und andererseits auf menschlichen Präferenzen (RLHF) vorgenommen.

Im Wettbewerb der LLMs geht es weiter um die Stellung der Vorherrschaft. Wer das beste Modell möglichst frei zur Verfügung stellt, bildet einen wichtigen Ankerpunkt, auf dem Forscher ihre Arbeiten aufbauen. Das ist auch bei kommerziellen Interessen sinnvoll, da eine große Nutzerbasis erreicht werden kann, die innovative Forscher und Entwickler hervorbringt, die wiederum den Ruf und die Marktposition des Unternehmens stärken.

Meta Platforms erhält nun die Möglichkeit, vom einstiegen Social-Media-Riesen zum Multimedia-Konzern aufzusteigen, der die Möglichkeiten hat, alle Medien zu bedienen. Die AI-Abteilung hat sich einen guten Ruf gemacht und versucht diesen nun im stark umkämpften Feld der LLM-Foundation-Models zu verteidigen. Dass Meta AI sich dieser Situation bewusst ist zeigt auch der Vergleich zwischen Llama 2 und MPT-7B, Vicuna-13B oder Falcon-40B im eigenen Paper zu Llama 2.

WormGPT

Dass LLMs auch für zweifelhafte Zwecke eingesetzt werden können, sollte jedem von Anfang an klar gewesen sein. In meinen Augen kann so etwas auch gar nicht durch Embargos verhindert werden, da es bei Technologien immer Akteure gibt, die sich nicht an die Regeln halten. Vielmehr sollten Gegenmaßnahmen eingesetzt werden, die auf die Ursache abzielen und nicht nur die Symptome bekämpfen.

SlashNext gibt in einem Blogeintrag einen interessanten Einblick in ein LLM-System mit dem Namen "WormGPT". Es soll auf dem 2021 erschienenen GPT-J aufbauen, um BEC-Tasks aufzuführen, also Business E-Mail Compromise. Da LLMs besonders dazu in der Lage sind, Texte nach bestimmten Stilen oder Gattungen zu entwerfen, kann ohne entsprechende Sicherheits-Checks ein System auf bösartige Aufgaben trainiert werden, um zum Beispiel eine Nachricht im Stil des eigenen Chefs oder Kunden zu schreiben.

Ratschläge, besonders auf die Rechtschreibung von eingehenden, echt aussehenden E-Mails zu achten, laufen mit der aktuellen Entwicklung somit zunehmend ins Leere. Bleibt also nur noch die Ursachenbekämpfung, der mit z. B. einem Konzept, das auf digitale Signaturen aufbaut, oder weiteren innerbetrieblichen Abläufen begegnet werden kann, damit nicht auf einfache Anweisung riesige Summen ins Ausland überwiesen werden.

Selbstverpflichtung

Der Wunsch der Politik, mit der Regulierung dem technischen Wandel Schritt halten zu können, wurde auch in dieser Woche spürbar. Sieben große AI-Organisationen, darunter Google, OpenAI und Anthropic, haben sich gegenüber der US-Regierung zu Risikomanagement verpflichtet. Dieses soll auch Tests und den Austausch mit Behörden und Gesellschaft einschließen.

Damit lässt sich in westlichen Ländern der Trend beobachten, die Gefahren, die sich aus der Entwicklung ergeben, möglich schnell eindämmen zu können. Andererseits - und auch das ist Bemerkenswert - verpflichten sich die Unternehmen zur Entwicklung von Systemen, um Herausforderungen in der Gesellschaft anzugehen. Statt also nur KI einzuschränken, soll die Entwicklung aktiv forciert werden.

Besonders die Kennzeichnung von KI-Inhalten wird diskutiert. In meinen Augen gibt es hier Vorteile wie Nachteile. Einerseits ist es sinnvoll, zu wissen, auf welcher Basis bestimmte Texte entstanden sind (ich schreibe diese Zeilen gerade zum Beispiel selber), andererseits werden Lösungen damit gefördert, die in einer weiteren Ausbaustufe jeden Datensatz personifiziert zuordenbar machen, was zunehmend den Datenschutz aushölt.

Diese Woche zeigt nichtsdestotrotz, dass es im hohen Tempo weitergeht und jede Woche einige Überraschungen bereithält - wie diese Woche Llama 2. Schauen wir also, was uns auch die nächste Woche bringt!

  •  

KI-Wochenrückblick KW 28/2023

Heute habe ich die Timeline aktualisiert, die einen Überblick über aktuelle und wichtige Modelle gibt. Es wird schnell ersichtlich, dass wir uns in der KI-Welt mittlerweile wieder in der Detailarbeit befinden und der große Schub an neuen LLMs immer weiter abnimmt. Aber was hat uns diese Woche beschert?

"Low Ressource" Text Classification

Diese Woche wurde ein Paper diskutiert, das recht unscheinbar daherkommt: "Low Resource" Text Classification: A Parameter-Free Classification Method with Compressors. Kurz gefasst wollen die Forscher die Tatsache feiern, dass ihr Modell weniger ressourcenintensiv ist.

Dafür haben sie eine reizend unaufwändige KI-Methode für Textklassifikation vorgestellt, die eine vergnügliche Kreuzung aus einem simplen Kompressor - ähnlich wie gzip - und einem k-Nearest-Neightbor-Klassifikator ist. Und das spannendste an der Sache? Sie kommt komplett ohne Trainingsparameter aus. Was für eine erfrischende Neuheit, denn das Modell spielt etablierte Konkurrenten wie BERT auf allen fünf OOD-Datensätzen gnadenlos aus.

Was uns das Paper zeigt, ist, dass nicht alles nur durch Deep Neural Networks beherrscht wird. Wer eine clevere, einfache Methode entwickelt, kann trotzdem erstaunliche Ergebnisse erreichen. Der Quellcode für das Verfahren ist beachtenswert kurz und unter GitHub abrufbar.

x.AI

Wer sich noch an den Anfang von OpenAI erinnern kann, wird um die Rolle von Elon Musk wissen. Er hat sich für OpenAI eingesetzt und viele Ressourcen bereitgestellt. Später kam der Rückzug aus OpenAI und eine auf Twitter propagierte kritischere Haltung gegenüber dem Start-up.

Mittlerweile baut Elon Musk fleißig die Infrastruktur rund um Twitter um, welches zunehmend einfach nur noch als "X" bezeichnet wird. Im April kam die Nachricht über eine große Bestellung von Grafikkarten durch Twitter. Jetzt dürfte klar sein, welche Richtung eingeschlagen wird.

xAI soll ein Unternehmen werden, das die wahre Natur des Universums verstehen möchte, wie auf der Landing Page auf x.ai bekannt gegeben wird. Neben der Zielsetzung werden auf der Seite noch einige Informationen über das Team bereitgestellt, wobei schnell klar wird, dass viele Leute, die zuvor bei DeepMind, OpenAI und in den Research-Abteilungen von Microsoft und Google gearbeitet haben, am Start-up mitarbeiten. xAI ist zwar ein getrenntes Unternehmen, soll aber eng mit Twitter und Tesla zusammenarbeiten. Noch gibt es keine genauen Informationen, was geplant ist, wir können aber mehr hierzu in den nächsten Wochen erwarten.

OpenOrca

Vor einigen Wochen habe ich bereits berichtet, dass Microsoft eine Methode veröffentlicht hat, mit der sehr leistungsstarke LLMs mit wenigen Parametern trainiert werden können. Das Team von OpenOrca hat bereits vor einigen Tagen das gleichnamige Dataset auf Hugging Face gezeigt, nun folgte in dieser Woche die Veröffentlichung des ersten eigenen richtigen Modells, OpenOrca-Preview1-13B.

Das Team von OpenOrca nutzt das Dataset, um in dem Modell ein LLaMA-13B entsprechend finezutunen. Dabei wurden bisher weniger als 6% des Datensatzes zum Training eingesetzt und dieser Release soll nur als Vorschau einen Einblick in den aktuellen Entwicklungsstand geben.

Es bleibt also weiterhin spannend. Neue Methoden und Techniken ermöglichen hochwertige und leistungsstarke Modelle, die es auch mit ihrer proprietären Konkurrenz aufnehmen können. Schauen wir, was uns auch nächste Woche erwartet!

  •  

KI-Wochenrückblick KW 26/2023

Im heutigen Wochenrückblick schauen wir auf einen spannenden Essay, ein interessantes Tool für Code-Migrationen und ein neues Open-Source-LLM für große Sequenzlängen.

The Rise of the AI Engineer

Beginnen wir den heutigen Wochenrückblick mit einem Artikel, der in der Woche disktutiert wurde. swyx hat auf Latent Space den Artikel The Rise of the AI Engineer veröffentlicht. Im Artikel geht es um die Entstehung eines komplett neuen Berufszweiges: dem AI Engineer. Dabei ist der AI Engineer die Weiterentwicklung des Prompt Engineers und wird im Essay auf einer Skala eingeordnet. Der AI Engineer beschäftigt sich wenig mit der genauen Funktionsweise von ML-Modellen, vielmehr versteckt ihm die API wie z. B. von OpenAI die technischen Details und ermöglicht ihm, sich auf das Wesentliche zu konzentrieren: sein Produkt.

War es vor zehn Jahren noch ein forschungsnahes Vorhaben, ein Produktempfehlungssystem zu entwerfen, ist es durch die Verfügbarkeit von schnell einsetzbaren Diensten heutzutage möglich, die gewünschte Funktionalität zu integrieren. Integration, das ist es, was den AI Engineer ausmacht. Er muss nicht wissen, wie ein LLM genau funktioniert, er muss nur wissen, was es tut. Insbesondere erwähnt der Autor des Essays, dass die Few-Shot-Modelle dazu geführt haben, dass ML-Forscher selber nicht mehr das Modell wie GPT-4 auf den Einsatzzweck abstimmen, sondern diese Aufgabe von Anwendern übernommen wird, die Zeit mit dem Modell und der Schnittstelle verbringen und ausprobieren, was man damit tun kann.

Das alles wird nicht einfach sein, vor allem, da klassische ML-Forscher über lange Zeit hinweg dieses Feld noch belächeln werden. Behält man diesen Wandel allerdings im Hinterkopf, kann man sich schon jetzt darauf einstellen und wird nicht überrascht, wenn in fünf Jahren Menschen, deren Vollzeitjob die Integration von ML-Systemen ist, hohe Gehälter und einen substantiellen Einfluss auf den Geschäftsbetrieb vieler Firmen erhalten.

GPT-Migrate

Wie so eine konkrete Anwendung aussehen kann, zeigt bereits GPT-Migrate. Hier handelt es sich um ein interessantes Produkt, das eine Codebase von einer Programmiersprache in eine andere umwandelt.

Das Projekt selber setzt auch nur auf bestehende LLMs, nutzt sie aber in einer besonders abgestimmten Art und Weise. Der Code soll nicht nur starr umgewandelt, sondern auch idiomatisch sinnvoll ausgegeben werden. Wandelt man beispielsweise ein Python-Projekt in eine Node.js-Application um, besteht die Arbeit aus mehr als nur einer 1:1-Umwandlung der Statements. Vielmehr müssen die Frameworks beachtet werden mit ihrer individuellen Weise, Lösungen abzubilden.

Betrachten wir ein solches Projekt aus der akademischen Sicht, ist so ein Projekt ein Himmelfahrtskommando: Wir können nicht mit hinreichender Sicherheit sagen, ob es immer zuverlässig funktioniert. In der Praxis hat dieser Umstand für den durchschnittlichen Anwender allerdings eine untergeordnete Rolle: wenn es auch nur regelmäßig funktioniert, bringt es viele Entwickler für ihre Durchschnittsprojekte schon weiter. So sind Informatiker heutzutage auch nicht durchgängig mehr damit beschäftigt, richtige Algorithmen für z. B. Sortierung zu entwerfen, sondern reihen eher fertige Programmfragmente und -prozeduren aneinander. Eine unbeaufsichtigte Dienstleistung für Codeumwandlung sollte dennoch nicht auf so einem einfachen System aufgebaut werden. Die Abstimmung, die feinen Anpassungen und die Risikoanalyse - auch das werden in meinen Augen Aufgaben des AI Engineers sein.

Salesforce XGen

Neue Modelle sollen auch in diesem Wochenrückblick nicht fehlen. In dieser Woche haben wir diesbezüglich wieder einen alten Bekannten dabei: Salesforce, bekannt von BLIP2 oder CodeT5. Diesmal hat sich das Forschungsteam rund um Nijkamp, Xie, Hayashi, Pang und Xia mit Open-Source-LLMs für besonders hohe Sequenzen beschäftigt.

Die Sequenzlänge als maximale Länge einer Eingabe für das LLM ist neben der Parameterzahl einer der wichtigsten numerischen Einflussfaktoren für die Leistungsfähigkeit von LLMs. Soll ein solches Modell beispielhaft einen Text zusammenfassen, kann ein LLM mit 8 Tsd. Tokens Sequenzlänge deutlich mehr Text in einem Zug verarbeiten als ein LLM mit 2 Tsd. Tokens Sequenzlänge. Dass die Sequenzlänge in Tokens statt Wörtern gemessen wird, ist auf die mathematische Darstellung der Eingaben für LLMs zurückzuführen. Im Wochenrückblick der vergangenen Woche habe ich für diese Thematik Lehrmaterial vorgestellt.

Salesforce hat unter dem Namen XGen-7B Modelle mit einer Sequenzlänge von 8 Tsd. Tokens und einer Parameterzahl von 7 Mrd. trainiert, die den bisherigen Open-Source-Modellen mit nur 2 Tsd. Tokens wie LLaMA, MPT oder Falcon in standardisierten Benchmarks wie MMLU oder SCROLLS mindestens gleichauf sind. Die kommerzielle Konkurrenz kommt mit GPT-4 auf 32 Tsd. Tokens oder mit Claude auf 100 Tsd. Tokens. Das Training wurde mit 1,5 Billionen Tokens (hier nicht Sequenzlänge, sondern Anzahl der Tokens, auf deren Basis trainiert wurde) durchgeführt und hat über 150.000 US-Dollar gekostet.

Weitere Informationen zu XGen sind im Blogartikel von Salesforce Research zu finden. Die XGen-7B-Modelle sind in verschiedenen Varianten auf HuggingFace unter der Apache-2.0-Lizenz verfügbar, der zugrundeliegende Code kann unter GitHub abgerufen werden.

Und so geht wieder eine spannende Woche zu Ende, in der wir beobachten konnten, wie einerseits weiterhin neue Open-Source-Modelle mit Verbesserungen veröffentlicht werden und andererseits die Anwendung solcher Modelle zunehmend in den Vordergrund tritt. Schauen wir, was uns auch in den nächsten Tagen wieder erwartet!

  •  

KI-Wochenrückblick KW 25/2023

Und wieder ist eine Woche um! Im heutigen Wochenrückblick geht es um drei Nachrichten und einen Lesetipp.

MPT-30B

In fast jeder Woche erscheinen neue KI-Modelle. Seien es komplett neue Modelle wie Falcon oder Vertreter bestehender Modellfamilien wie das diese Woche veröffentlichte MPT-30B.

Konkurrenz belebt das Geschäft. Während Falcon-40B als eines der leistungsstärksten Open-Source-LLMs viele Benchmarks für sich entscheidet, ist das Deployment aufgrund der hohen Parameteranzahl teilweise mitunter herausfordernd. MPT-30B stellt sich hier als Alternative auf und gibt an, dass es auf einer A100-80G mit 16-Bit-Präsizion oder einer A100-40GB mit 8-Bit-Präsizion bereitgestellt werden kann. Ansonsten baut das Modell auf dem bereits vor einigen Wochen vorgestellten MPT-7B auf und wird durch seine Programmierfähigkeiten charaketerisiert, die durch die Auswahl der Trainingsdaten angelernt werden konnten. Das Modell ist wieder in verschiedenen Facetten verfügbar: als Basismodell, für Instruktionen optimiert oder für Chat optimiert.

SDXL 0.9

Stable Diffusion XL (SDXL) ist eine Weiterentwicklung aus dem Hause Stability AI. Deren erstes Produkt Stable Diffusion hat schon überzeugt, weil es eine Alternative zu OpenAI DALL-E war. Bei Stability AI werden öffentlichkeitswirksam die Entwicklungen im Blog vorgestellt und so war bereits SDXL Beta interessant, weil es nochmals die Fähigkeiten des Bildgenerators erweitert.

SDXL 0.9 ist nun der Nachfolger von SDXL Beta. Im Blogeintrag kann im direkten Vergleich nachvollzogen werden, dass SDXL 0.9 Bilder generiert, die deutlich besser zu den Bildbeschreibungen passen. Technisch wurde der Fortschritt durch eine Erhöhung der Parameterzahl erreicht. Mit 3.5 Mrd. Parametern als Basismodell und einer 6.6 Mrd. Parameter starken Ensemble-Pipeline handelt es sich dabei um das nach eigenen Angaben parameterstärkste Open-Source-Bildmodell. SDXL 0.9 ist bereits auf ClipDrop für den Einsatz verfügbar und kann über HuggingFace direkt bezogen werden.

Mercedes-Benz testet ChatGPT

Die Entwicklung der LLMs macht momentan vor den Systemen halt, bei denen man Sprachfähigkeiten am ehesten erwartet: Sprachassistenten auf Smartphones. Hier müssen wir uns bei den verbreiteten Systemen weiterhin noch auf die voreingestellten Fähigkeiten beschränken, die einprogrammiert wurden. Konkurrenz kommt nun von ungewohnter Seite: Mercedes-Benz hat in den letzten Tagen für die US-Kunden bekanntgegeben, in einer frühen Betaversion ChatGPT für die Sprachassistenz in ausgewählten Automodellen mit MBUX zu unterstützen.

Die Teilnahme an dem Programm ist optional. In der Pressemitteilung wird insbesondere der Datenschutz und die Hoheit über IT-Prozesse hervorgehoben. Technisch wird dieses Vorhaben über eine Kooperation mit Microsoft und dem Azure OpenAI Service umgesetzt.

Embeddings

KI ist ein sehr komplexes Thema, das viele Disziplinen umfasst. Umso wichtiger ist es, hochwertige Lernmaterialien zu beziehen. Vicki Boykis hat mit What are embeddings ein umfangreiches Handbuch ausgearbeitet, das sich mit einem wichtigen Kernelement beschäftigt, das LLMs heutzutage erst möglich macht. Konkret geht es dabei um Verfahren, natursprachliche Texte in Zahlen zu verwandeln, um sie mathematisch verarbeitbar zu machen.

Das Handbuch umfasst neben Erklärungen und mathematischen Hintergründen auch Codebeispiele, um selber einmal am Beispiel auszuprobieren, wie Embeddings konkret funktionieren.

Bis zur nächsten Woche!

  •  

KI-Wochenrückblick KW 24/2023

Während der letzte KI-Wochenrückblick etwas kürzer ausfiel, da die gefühlt gesamte Tech-Welt nach Cupertino geschaut hat, gibt es in dieser Woche etwas mehr zu berichten. Starten wir also rein!

AI und Compliance

Üblicherweise steht bei Tech-Themen die Technologie im Vordergrund. Nicht so bei KI. Man kann es vielleicht dem Zeitgeist oder den Erfahrungen mit dem Internet zuschreiben, aber bei rechtlichen oder gesellschaftlichen Auswirkungen wird bei KI ein strenger Maßstab angelegt. So hat in dieser Woche das EU-Parlament den lange diskutierten AI Act eine Stufe weitergeschoben. Im wesentlichen bedeutet der AI Act, dass man nicht mehr jede beliebige KI-Anwendung auf den Markt werfen kann. Erfüllt eine Anwendung bestimmte Kriterien, müssen zusätzliche, bürokratische Schritte zur Qualitätssicherung und Folgenabschätzung vorgenommen werden. Welche Kriterien das sind und was daraus folgt, ist im aktuellen Prozess schwer zu verfolgen, reicht(e) aber von "ChatGPT wird praktisch verboten" bis "Es wird sehr aufwändig".

Besonders schwierig ist es, die Auswirkungen eines solchen Regelwerks anhand konkreter Beispiele nachzuvollziehen. Risihi Bommasani vom Stanford CRFM hat diese Woche auf Twitter demonstriert, wie das aussehen könnte. Er und sein Team haben für 10 verschiedene KI-Anbieter in einer Punktematrix dargelegt, wo welche Anbieter punkten und wo noch Nachbesserungsbedarf ist. Besonders gut kam BigScience (BLOOM) an, hier wurden 36 von 48 möglichen Punkten geholt, besonders bei "Data sources", "Data governance" und "Downstream documentation" konnte BigScience punkten.

Sehen, was der andere sieht

Typische Ermittlerdokus sind der KI schon seit Jahrzehnten voraus und können die Regeln von Raum und Zeit auf Überwachungsvideos außer Kraft setzen. Aktuelle Entwicklungen in der KI ziehen aber langsam nach. Mit Seeing the World through Your Eyes haben Alzayer et al. von der University of Maryland, College Park gezeigt, dass die Reflexion der Pupillen eines Menschen in Bildsequenzen genutzt werden kann, um das Gesehene aus seiner Perspektive als 3D-Modell abzubilden.

So wird "Point of View" real und kann benutzt werden, um Gegenstände, die die Person sieht, wiederzuerkennen. Natürlich ist die Technologie nicht perfekt und verfügt über eine geringe Auflösung, zeigt aber, dass in den verschiedensten Bereichen der Musterverarbeitung Entwicklung stattfindet. Dieses Paper setzt auch neuronale Netze lediglich am Rande ein, was noch einmal verdeutlicht, dass KI nicht nur aus LLMs und Transformers besteht.

LLMs und Secret Sauce

Nichtdestotrotz bleiben die LLMs ein Thema. Galine Alperovich hat im letzten Monat eine Zusammenstellung von Tricks veröffentlicht, um 100K Context Windows zu ermöglichen. Mit Claude haben wir bereits ein System gesehen, was so ein enormes Kontextfenster umsetzt, auch MPT weist mittlerweile Kontextfenster um die 65.000 Token auf.

Ihre dargelegten Hinweise können genutzt werden, um das Training von eigenen Modellen zu optimieren, denn das stellt heutzutage die große Kunst dar. Dass das Training generell möglich ist, haben wir gesehen. Es aber auch aufwandsarm umzusetzen, kann einerseits die Kosten senken, aber auch das Training für kleinere Akteure generell erst möglich machen.

Abschließend für den heutigen Wochenrückblick können wir auch nochmal auf OpenLLaMA schauen. Viele Teams haben sich in der Zwischenzeit rangesetzt, um Meta AIs Arbeit zumindest zu reproduzieren. Die Ergebnisse trudeln Woche für Woche ein. Seit dieser Woche sind nun auch die Gewichte für OpenLLaMA-13B auf HuggingFace verfügbar.

Bleiben wir gespannt, was uns auch die nächste Woche wieder an Neuigkeiten bringt!

  •  

Koordinierungsstelle Digitale Souveränität und Open Source ausgeschrieben

Bewerbungen ab sofort möglich

FOSS-Koordinierungsstelle

Bild: FOSS-Koordinierungsstelle

Die Stellenausschreibung der Stadt Dortmund zur Besetzung der Koordinierungsstelle Digitale Souveränität und Open Source wurde heute veröffentlicht. Do-FOSS bittet um Mithilfe beim Streuen der Stellenausschreibung an Interessierte! Ausgeschrieben wird die Einrichtung einer Planstelle in Vollzeit für eine wissenschaftliche Mitarbeit in der Wertigkeit Entgeltgruppe 13 des Tarifvertrags des öffentlichen Dienstes, welche die Koordinierung und Umsetzung zum Thema Digitale Souveränität und Open Source auf kommunaler Ebene übernimmt. Es soll eine Open-Source-Strategie für die Stadt Dortmund erarbeitet werden, die anhand standardisierter Bewertungskriterien die Entscheidungsfindung für den Einsatz von Open-Source-Software unterstützt und einen Fahrplan zur Sicherstellung der digitalen Souveränität enthält. An dieser Stelle sendet Do-FOSS auch Grüße in die Nachbarstadt Bochum, wo das Zentrum für Digitale Souveränität der Öffentlichen Verwaltung (ZenDiS) neu eröffnet werden wird.

Nähere Hintergründe zum Open-Source-Pionierweg der Stadt Dortmund wurden auf der virtuellen Veranstaltung: Kommunen brauchen Freie Software – Dortmund geht als Referenzkommune voran gegeben. Die Free Software Foundation Europe hat die Veranstaltung aufgenommen und die Aufzeichnung öffentlich zur Verfügung gestellt.



Link zum Video
Veranstaltung: Kommunen brauchen Freie Software. Link zu YouTube!
Zeitmarke des Einzelbeitrags von Do-FOSS 28,46

Neue Mailingliste zum Fachaustausch

Wer Informationen zu aktuellen Entwicklungen rund um Freie Software in Kommunen beziehen möchte und auch den Fachaustausch mit anderen sucht, könnte sich für die neu eingerichtete Mailingliste der Free Software Foundation Europe interessieren. Auch Do-FOSS ist dort vertreten. Darüber hinaus steht Do-FOSS wie üblich für Rückfragen gerne zur Verfügung und freut sich bereits auf die Einarbeitung der neuen Stelle in Kooperation mit der Stadt Dortmund.

CC0
Soweit im gesetzlichen Rahmen möglich verzichtet der Autor auf alle Urheber- und damit verwandten Rechte an diesem Werk.
Es kann beliebig genutzt, kopiert, verändert und veröffentlicht werden.
Für weitere Informationen zur Lizenz, siehe hier.

The post Koordinierungsstelle Digitale Souveränität und Open Source ausgeschrieben appeared first on Do-FOSS.

  •  

KI-Wochenrückblick KW 23/2023

Diese Woche war Tech-mäßig durch die WWDC 2023 dominiert. AI war bei Apple speziell bei macOS eher ein Randthema, das Augenmerk der Konferenz lag auf VR.

In aller Kürze also nun wichtige Nachrichten der Woche.

  • Generative AI gibt es bei Google Vertex AI nun für alle. Das berichtet TechCrunch. Bisher waren die Systeme nur auf einen kleinen Kreis von "trusted testers" beschränkt, der Zugriff steht nun allen zur Verfügung.
  • Orca von Microsoft wurde veröffentlicht. Dabei handelt es sich um ein 13 Mrd. Parameter starkes Modell, das insbesondere über verbesserte Schlussfolgerungsfähigkeiten verfügt. Damit soll Orca besser als Vicuna-13B und gleich auf mit ChatGPT bei z. B. dem BBH-Benchmark sein.
  • Simon Willison hat in seinem Blog einen umfangreichen Artikel samt Demo veröffentlicht, in dem es um GPT-Tokenizers und deren Funktionsweise geht. Sehr sehenswert!

Bis zur nächsten Woche!

  •  

Neuer Service: Gitea

Ein neuer adminForge Service kann ab sofort genutzt werden. Ein Heim für deinen Code – deine Projekte. Git Ein Heim für deine Projekte. https://git.adminforge.de Features: Organisationen erstellen Repositories erstellen Mirrored Repo zu bspw. GitHub...

by adminForge.

  •  

NGINXConfig - performanten, sicheren und stabilen NGINX-Server automatisch konfigurieren

DigitalOcean, ein Cloudservice Anbieter, bietet auf seiner Webseite eine kleine Toolsammlung an. Teil dieser Sammlung ist NGINXConfig, ein auf nodeJS basierendes Nginx Konfigurations-Tool.

nginxconfig

Als Vorbild diente unter anderem der Mozilla SSL Config Generator, denn genauso wie das Mozilla Tool bietet NGINXConfig einige extra Optionen an.

Angefangen von PHP Unterstützung, bis zur Certbot Einbindung oder dem Reverse Proxy lassen sich granular Optionen setzen. Selbst Security Optionen wie Request Limiter oder Beschränkungen für GET/POST sind konfigurierbar.

Alleine als Übersicht für verfügbare Nginx Features ist das Tool sehr praktisch:

  • HTTPS
  • HTTP/2
  • IPv6
  • certbot
  • HSTS
  • security headers
  • SSL profile
  • OCSP
  • resolvers
  • caching
  • gzip
  • brotli
  • fallback
  • routing
  • reverse
  • proxy
  • www/non-www
  • redirect
  • CDN
  • PHP (TCP/socket WordPress, Drupal, Magento, Joomla)
  • Node.js support
  • Python (Django) server
  • etc.

Nachdem du alle gewünschten Optionen gesetzt hast, kannst du die komplette Konfiguration herunterladen oder kopieren. Parallel dazu kannst du die Setup Routine durchlaufen, die dich Schritt für Schritt bis zum Anschalten deiner Konfiguration führt.

Praktischerweise ist NGINXconfig Open Source und du kannst es auf deinen eigenen Server packen oder verbessern und aktualisieren.

Zusätzlich findest du noch weitere praktische Tools in der Digital Ocean Sammlung:

  • SPF Explainer
  • DNS Lookup
  • Bandwidth Calculator
  • JavaScript Minify Tool

https://github.com/digitalocean/nginxconfig.io

 

  •  

Open-Source-Saatgut-Stadt Dortmund

Open-Source-Gärten blühen nun dauerhaft in Dortmund

Die Open-Source-Tomate

Bild: Die Open-Source-Tomate

Die von Do-FOSS angestoßene Initiative für Open-Source-Saatgut wurde letztes Jahr von der Stadt Dortmund mit der Open-Source-Saatgut-Stadt Dortmund als zentrales Klimaschutzprojekt aufgenommen. Pünktlich zur diesjährigen Pflanzperiode gibt das Umweltamt der Stadt Dortmund das Ergebnis des Pilotjahres bekannt und verstetigt ihr Open-Source-Saatgut-Engagement, welches von einer Vielzahl an engagierten Bürger*innen getragen wird. Alle aktuellen Informationen zu ihrer Open-Source-Saatgut-Arbeit stellt die Stadt Dortmund regelmäßig auf dortmund.de/saatgut zur Verfügung. Samenfestes Saatgut ist die Zukunft der Landwirtschaft, so wie Freie Software die Zukunft der Digitalisierung ist. Mit der Open-Source-Saatgut-Stadt Dortmund sowie der Koordinierungsstelle Digitale Souveränität und Open Source wird die Stadt Dortmund ihrem Ruf der Open-Source-Stadt Dortmund auf vielfältige Weise gerecht. Dank der Open-Source-Copyleft-Eigenschaft können bei Saatgut wie bei Software für alle Menschen die dauerhaften Verfügungsrechte gewährleistet werden. Das Prinzip Open ist damit inklusiv und nicht exklusiv.

Das Thema Open-Source-Saatgut ist nun nach fünfjähriger Begleitung von Do-FOSS dauerhaft in die eigenständige Verantwortung der Stadt Dortmund übergeben. Nach der erfolgreichen Implementierung der Open-Source-Saatgut-Erkenntnisse und dem erblühen von Open-Source-Gärten in Dortmund freut sich Do-FOSS auf die weitere Entwicklung der Dortmunder Open-Source-Saatgut-Community. Den Mailverteiler der Saatgutcommunity betreibt Do-FOSS gerne auf Basis Freier Software weiter. Auch darüber hinaus wird Do-FOSS dem Thema Open-Source-Saatgut weiterhin verbunden bleiben, denn Saatgut wie Software, ist eine Frage der Lizenz.

Pressemitteilung der Stadt Dortmund im Wortlaut


Collage eines Workshops zur Saatgutgewinnung der Open-Source-Tomate Sunviva
Saatgutgewinnung der Open-Source-Tomate Sunviva
© s. Logos

Open-Source-Saatgut-Stadt: Pflanzen und Ernten für eine gerechte, nachhaltige Zukunft / WWF Earth Hour am 25. März

Die Etablierung der „Open-Source-Saatgut-Stadt-Dortmund“ ist das erste Vorhaben aus dem Handlungsfeld Landwirtschaft und Ernährung des städtischen Klimaschutzprogramms Klima-Luft 2030.

„Open-Source“-Saatgut bedeutet, dass das Saatgut frei von privatrechtlichen Schutzrechten und somit als Gemeingut frei nutzbar ist. Die Open-Source-Lizenz sorgt dafür, dass dies auch in Zukunft so bleibt. Mit Open-Source-Saatgut kann Offenheit gesät, Freiheit geerntet und leckeres Gemüse gegessen werden.

Möglichst viele Dortmunder*innen sollen Open-Source-Saatgut nutzen und untereinander als Community teilen. Die Stadt Dortmund stellt als Impulsgeberin zum Initiieren des Community-Kreislaufs Open-Source-Tomatensaatgut der Sorte Sunviva bereit. Das Umweltamt übernimmt dabei die Saatgutverteilung zum Aufbau einer Open-Source-Saatgut-Community. Dortmunder*innen, die mitmachen, engagieren sich für das so wichtige Thema „Saatgut als unsere Ernährungsgrundlage“ und produzieren gemeinsam und gemeinwohlorientiert Open-Source-Saatgut.

Saatgut kann heute mehr wert sein als Gold

Das Ziel der bürgerschaftlich getragenen Initiative der Open-Source-Saatgut-Stadt Dortmund ist es jährlich ein Kilogramm Sunviva-Open-Source-Saatgut für einen lebenswerten Planeten zu produzieren. Für einen Wertvergleich der Leistung der Initiative: bis zu 400.000 € kostet ein Kilogramm Saatgut gelber Cherrytomaten. Zum Vergleich des Werts von Saatgut: ein Kilogramm Gold kostet ca. 57.000 € (Börse Frankfurt, Stand: 2. Januar 2023). So gesehen ist das Ziel der Open-Source-Saatgut-Stadt Dortmund ein Kilogramm Saatgut zu produzieren am Markt rund siebenmal mehr wert als Gold. Anders als Gold hat das Saatgut außerdem den Vorteil perspektivisch zur Ernährung beitragen zu können.

Lebensmittel von Menschen für Menschen

Das erste Erntejahr der offenen Dortmunder Saatgutgemeinschaft mit ca. 50 Akteur*innen erbrachte 385 g Open-Source-Saatgut der Tomate Sunviva. Dr. Uwe Rath, Leiter des Dortmunder Umweltamtes meint: „Ein tolles Ergebnis, auf das alle Beteiligten stolz sein können!“ Christian Nähle, der das Projekt im Umweltamt koordiniert, stellt fest: „Ein Kilogramm Saatgut bedeutet mehr als eine Pflanze je Dortmunder*in. Dieses einfache Beispiel zeigt den enormen Ertrag der gemeinwohlorientierten Arbeit der Dortmunder Bürger*innen. Außerdem wird deutlich, dass unsere Nahrungsmittelversorgung ganz anders gestaltet werden kann.“ Jörg Lüling, Vorstand des Vereins Ernährungsrat Dortmund und Region e.V. ergänzt: „Das Menschenrecht auf Nahrung kann nur gewährleistet werden, wenn wir in der Lage sind, dies auch selbstorganisiert zu leisten. Deshalb freuen wir uns gemeinsam mit der Stadt Dortmund an einem solch wegweisenden Projekt wie der Open-Source-Saatgut-Stadt Dortmund zu arbeiten.“ Weitere Personen sind willkommen, sich auch dieses Jahr an der gemeinschaftlichen Dortmunder Saatgutproduktion zu beteiligen. Künftig soll auch die Arten- und Sortenvielfalt der gemeinsamen Saatgutherstellung verbreitert werden.

Saatgut soll breit gestreut werden

Das geerntete Open-Source-Saatgut wird nun unter allen interessierten Bürger*innen verteilt. Entweder direkt vor Ort im Umfeld der erzeugenden Saatgut-Akteur*innen oder über das Umweltamt. Die Saatguttüten sind von der Shanti Leprahilfe Dortmund e.V. bereitgestellt worden. Diese Tüten sind aus nachwachsendem Seidelbastrindenpapier und wurden von schwer behinderten Menschen in der beschützenden Werkstatt von Shanti in Kathmandu (Nepal) extra für die Open-Source-Saatgut-Stadt Dortmund gefertigt. Außerdem wurde die Verpackungsarbeit zur Versendung des Saatguts ehrenamtlich in Dortmund von Freiwilligen der Shanti Leprahilfe organisiert. Im Gegenzug wurde Open-Source-Saatgut als Beitrag zur Ernährungssicherheit in Nepal bereitgestellt. „Diese Gemeinschaftsaktion ist nur ein Beispiel von vielen für das solidarische Engagement der Bürger*innen in unserer Stadt.“ freut sich Marianne Grosspietsch, Vorsitzende der Shanti Leprahilfe e.V. und Trägerin des Bundesverdienstkreuzes am Bande.

WWF Earth Hour im Lichte von Landwirtschaft und Ernährung

Am 25. März feiert die Stadt Dortmund die WWF Earth Hour im Lichte von Landwirtschaft und Ernährung in der Pauluskirche (Schützenstr. 35, 44147 Dortmund). Das Programm beginnt um 17:00 Uhr. Näheres unter www.dortmund.de/wwf-earth-hour
Auch die Open-Source-Saatgut-Stadt Dortmund wird mit einem Stand präsent sein. Darüber hinaus wird es darum gehen, mehr Menschen für eine Zusammenarbeit für eine nachhaltige Landwirtschaft und Ernährung zu gewinnen. Der Ernährungsrat Dortmund und Region e.V. bietet der Zivilgesellschaft hierfür eine Plattform und arbeitet bereits mit der Stadt Dortmund zusammen, um das Dortmunder Ernährungssystem nachhaltig zu gestalten. Die Stadt Dortmund entwickelt derweil einen partizipativen Prozess für die Entwicklung einer Ernährungsstrategie. Auch hier wird das Thema Saatgut eine Rolle spielen.

Weitere Informationen und Saatgutbestellung

Alle Hintergründe für das städtische Engagement zu Open-Source-Saatgut finden sich hier: dortmund.de/saatgut Das Dortmunder Open-Source-Saatgut kann bestellt werden unter:
https://service.dortmund.de/open-source-saatgut

Für Rückfragen von Bürger*innen steht zur Verfügung:
Umweltamt – Koordinierungsstelle Klimaschutz und Klimafolgenanpassung
Christian Nähle, cnaehle@stadtdo.de, 50 – 2 87 74

Redaktionshinweis:
Dieser Medieninformation hängen folgende Bilder/Grafiken (Quelle: Stadt Dortmund) an:
– Collage eines Workshops zur Saatgutgewinnung der Open-Source-Tomate Sunviva
– Visual: Sunviva-Saatgut ab sofort über das Umweltamt der Stadt Dortmund per Kontaktformular bestellbar
– QR-Code: https://service.dortmund.de/open-source-saatgut

Pressekontakt: Christian Schön


Sunviva-Saatgut ab sofort über das Umweltamt der Stadt Dortmund per Kontaktformular bestellbar
© OpenSourceSeeds – AGRECOL

Dokumente zum Herunterladen

Die Pressemitteilung der Stadt Dortmund vom 07.03.2023 kann hier und ein QR-Code, der zum Bestellformular für Open-Source-Saatgut verlinkt, kann hier heruntergeladen werden.

CC0
Soweit im gesetzlichen Rahmen möglich verzichtet der Autor auf alle Urheber- und damit verwandten Rechte an diesem Werk.
Es kann beliebig genutzt, kopiert, verändert und veröffentlicht werden.
Für weitere Informationen zur Lizenz, siehe hier.

The post Open-Source-Saatgut-Stadt Dortmund appeared first on Do-FOSS.

  •  

Salt Grafana - freies Dashboard für Saltstack Master

Saltstack ist ein Infrastructure as Code Tool zur Automatisierung der Infrastruktur. Je größer die damit automatisierte Infrastruktur, desto schwerer ist es den Überblick über gelaufene oder fehlerhafte States zu behalten oder gar Performancedaten auszuwerten.

Salt Grafana

Mit Salt Grafana ist ein neues freies Tool zur grafischen Darstellung der Abläufe auf dem Salt Master erschienen. Das neue Tool macht bereits vorhandenen Auswertungstools wie Alcali, SaltGUI oder Molton nur teilweise Konkurrenz, da es einen anderen Ansatz nutzt.

Wie der Name schon sagt, steck Grafana mit Loki, Prometheus, Tempo und PostgreSQL dahinter. Dies ermöglicht ein reichlich geschmücktes Dashboard mit verschiedensten Werten vom Salt Master.

dashboard-salt-grafana

Die Architektur dahinter sieht dahingehend auf den ersten Eindruck etwas komplex aus und die Installationsanleitung hat ein paar mehr Punkte zum Abarbeiten.

Dafür steht am Ende eine Reihe an Features zur Verfügung, die unabhängig vom Salt Master genutzt und konfiguriert werden können, egal ob bestimmte Überwachungsmetriken oder Alarmmeldungen.

 

salt-grafana-architecture

Anders als in der Grafik dargestellt, kann natürlich auch Grafana on premise verwendet werden.

Was Salt Grafana noch nicht auswerten kann, sind salt-call Aufrufe mit state.apply oder highstate. Dies könnte aber in kommenden Releases nachgereicht werden. Bis dahin ist das Tool auf jeden Fall einen Blick bzw. eine Testinstallation wert.

 

Download

  •  

Passwort vergessen, was ist zu tun

Bei der Menge an Passwörtern, die man heute im alltäglichen Gebrauch benötigt, kann es schon mal vorkommen, dass man sein Passwort vergisst oder nicht mehr richtig zusammenbekommt. Es gibt verschiedene Möglichkeiten, um Passwörter auszulesen oder zurückzusetzen. Wenn ihr euch also mal nicht mehr bei Windows einloggen könnt oder sich eure Mails nicht mehr abrufen lassen, nicht gleich in Panik geraten, es könnte noch was zu retten sein.

Nehmen wir als Erstes den Windows Fall, ihr habt euer Passwort vergessen oder es wurde zufälligerweise geändert. Ein praktisches Tool, welches gut funktioniert, ist der Offline NT Password & Registry Editor. Dieses Tool ist sehr einfach zu verwenden. Dazu lädt man einfach die .zip Datei herunter, entpackt diese und brennt die .iso auf eine CD. Nun bootet man das betroffene System von der CD und folgt den Anweisungen (Walkthrough). Im Normalfall setzt das Tool euer Benutzerkonto zurück und ihr könnt euch wieder bei Windows anmelden. Bei einem Mac ist das ganze noch einfacher, dort ist auf der Installation-DVD ein Tool vorhanden, das Passwörter zurücksetzen kann. Also einfach von DVD booten ("C" drücken) und unter "Dienstprogramm" "Kennwort zurücksetzen" auswählen.

NT Offline

Jetzt könnt ihr euch wieder an eurem System anmelden, jedoch fehlen euch noch die Passwörter für Thunderbird und Outlook. Auch dafür gibt es Abhilfe. Mit dem Programm Mail Password View sollte es kein Problem sein, die Kontodaten eures Mailprogramms auszulesen. Sogar speziell für die Outlook *.pst Dateien steht ein Tool zur Verfügung. Die Mails lassen sich jetzt wieder abrufen, nur mit dem Browsen klappt es noch nicht, da im Browser auch wichtige Daten hinterlegt sind, auf die der Zugriff fehlt. Auch hier gibt es für jeden Browser eine Lösung. Sei es Firefox, InternetExplorer, Opera oder Chrome, für jeden ist etwas dabei, das den alten Zustand wiederherstellt.

Nun sollte man sich auf seinem eigenen PC wieder frei bewegen können und eventuell die Passwörter besser sichern oder anders abspeichern. Ein gutes Tool dafür ist Keypass, das ist ein Passwortcontainer, in dem ihr eure Passwörter hinterlegen könnt. Diese werden verschlüsselt abgespeichert und sind mit einem Masterpasswort bzw. mit einem Keyfile abrufbar.

  •  

Schnell und einfach IPs im Netzwerk scannen

Wen man mal schnell ein Netzwerk nach den vorhandenen IP Adressen scannen möchte, dann ist man mit dem Angry IP Scanner ganz gut bedient. Sicherlich gibt es zig Tools, die dafür genauso gut geeignet sind, der kleine (900KB) und schnelle Scanner ist mir jedoch ans Herz gewachsen und wird bei Bedarf immer wieder gerne benutzt. Mit der neuen Version 3, momentan noch Beta4, ist es sogar möglich den Scanner unter Linux und Mac OS zu nutzen. Bisher wurden nur Windows Systeme unterstützt. Toll finde ich, dass der Scanner von Haus aus portabel ist und somit auf keinem USB-Stick fehlen sollte.

Angry IP Scanner

Die Bedienung ist denkbar einfach. Man gibt einfach die gewünschte IP-Range ein und bekommt nach dem Scan alle Ergebnisse aufgelistet. In der Standardansicht sind das die IP-Adresse und der Hostname.

Wer mehr erfahren möchte, z. B. NetBios Informationen, der kann unter "Tools/Fetchers" zusätzliche Abfragen aktivieren. Im gleichen Menü unter "Tools/Preferences" hat man außerdem die Möglichkeit, die nicht erreichbaren Adressen im Ergebnis auszublenden. Ist man mit seinem Scan zufrieden, kann man die Ergebnisse in .csv .txt oder .xml Dateien exportieren und gut zur weiteren Verarbeitung nutzen. Alle Funktionen können in der ausführlichen Doku nachgelesen werden.

Viel Spaß beim Scannen.

  •  

Facebook kostenlos über E Plus

Facebook kostenlos über E Plus. Na, das ist doch mal was. Internationale Provider bieten so etwas ja schon etwas länger an. Unter 0.facebook.com haben ab sofort alle E Plus Kunden (dazu zählen auch Handy-Verträge von Base Simyo) die Möglichkeit eine abgespeckte Version von Facebook zu nutzen.

Abgespeckt heißt in diesem Fall nur Text, was etwas schade ist, den interessant wären natürlich auch Bilder und Videos. Wer dies jedoch nutzen will, der muss weiterhin bezahlen und auf m.facebook.com zurückgreifen.

Facebook
  •  

Online lernen Teil II - Cobocards

Nachdem ich heute Morgen Babbel vorgestellt habe, möchte ich nun noch Cobocards vorstellen.

Dabei handelt es sich um eine Seite, die das klassische Karteikartensystem online zur Verfügung stellt.  Man hat die Möglichkeit eigene Karteikarten zu erstellen oder aus einem vorhandenen Pool bestimmte Themen anderer User auszusuchen. Das Lernen mit Karteikarten sollte ja bekannt sein, darum ich werde darauf nicht weiter eingehen. Der große Vorteil an Cobocards ist jetzt, dass die Leistungen mitgeloggt werden und man somit nicht schummeln kann. Neu im Vergleich zum klassischen Karteikarten lernen ist der gemeinschaftliche Hintergrund. Es ist möglich, Sets in Gruppen abzulegen und im Team zu lernen. Dies macht mehr Spaß und wie man es aus der klassischen Lerngruppe kennt, kann man sich auch über die Chatfunktion mit seinen Kollegen austauschen. 

cobocards

Wer ständig unterwegs ist oder kurz vor der Prüfung nochmal Karten durchgehen möchte, der kann auf die App fürs iPhone oder Android zurückgreifen. Die Seite selbst erfreut sich ständig wachsender Beliebtheit, so sind es inzwischen (Stand Juni 2010) 1,6 Mio. Karteikarten und 22 000 registrierte Nutzer, die auf das System zurückgreifen. Die Anmeldung ist kostenlos und geht schnell von der Hand, leider kann man im "Free Modus" nur 3 Kartensätze erstellen. Wem das nicht ausreicht, der kann in den "Pro Modus" wechseln, welcher mit 5 € pro Monat bzw. 4 € für 3 Monate berechnet wird.(Preisliste mit allen Features). Wer Fragen hat oder Antworten sucht, dem steht ein Forum zur Verfügung, wahlweise auch ein Blog mit aktuellen News.

 

  •  

Online lernen Teil I Babbel

Viele kennen wahrscheinlich noch die "Green Line" Reihe des Ernst Klett Verlags. Anhand dieser Bücher wurde mir in der Schule die englische Sprache beigebracht, was auch mehr oder weniger geklappt hat.

Das Ganze ist natürlich schon etwas her und die Lernmethoden haben sich geändert. Heute lässt man Bücher immer öfter links liegen und sucht sich andere Lernmöglichkeiten. Eine davon, neue Sprachen im Netz zu lernen, ist Babbel. Diese Seite bietet die Möglichkeit die Sprachen Deutsch, Englisch, Französisch, Italienisch, Spanisch, Portugiesisch und Schwedisch online zu lernen. Die Aufmachung der Seite ist recht modern auf Web 2.0 getrimmt und bietet Möglichkeiten den eigenen Wortschatz in diversen Kursen spielerisch zu lernen.

Babbel

Die Lerninhalte wie Vokabeln, Grammatik und Redewendungen werden in kleinen Übungen bzw. Rätseln vermittelt. Diese werden von Audiokommentaren und Bildern begleitet, was das lernen vereinfachen soll. Auch eine Spracherkennung ist integriert, mit der die eigene Aussprache geübt werden kann. Wie die Übungen und Wiederholungen abgelaufen sind, kann in einer ausführlichen Statistik nachgelesen werden.

Eine Anmeldung beim Service ist kostenlos und man kann erste Übungen beschnuppern ohne etwas bezahlen zu müssen. Wenn man den Dienst jedoch länger nutzen möchte, werden pro Monat 8,95 € fällig bzw. 4,95 € für 3 Monate. Das ist nicht wenig, aber auch nicht sonderlich viel, wenn man 3 Monate bucht. Allen, die gerne unterwegs lernen möchten, wird eine App für das iPhone, den iPod Touch und das iPad zur Verfügung gestellt.

Beim Ausprobieren war ich von Babbel sehr angetan und werde bestimmt, falls ich mal mehr Zeit finden sollte, auf einen Kurs zurückgreifen.

  •  

Wöchentlicher Google Analytics Report per Mail

Ist euch Google Analytics zu überladen und ihr verliert schnell den Überblick über eure Daten. Dann könnte Metric Mail genau das richtige für euch sein. Dieser Service (natürlich noch Beta) schickt euch wöchentlich einen Analytics Report per Mail zu. Klar bei Google Analytics kann man sich auch Mails schicken lassen, ich finde den wöchentlichen Report von Metric Mail dennoch ganz nett, denn man muss keine Einstellungen vornehmen. Die Anmeldung geht schnell über den Google Account und die Wochenreporte im PDF Format sind auch sehr übersichtlich. Also einfach mal austesten, kostet ja Nichts.

metric mail

 

  •  
❌