Normale Ansicht

Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Ältere BeiträgeHaupt-Feeds

Tuxedo OS 1 mit einer ISO-Datei – kurzer Test mit vielen Bildern

Von: jdo
03. Oktober 2022 um 06:19

Bisher konntest Du Tuxedo OS nur über die hauseigene Entwicklung WebFAI (Full Automated Installation) installieren. Das hat zwar gut funktioniert, aber damit wurde bei einer Installation die komplette Festplatte gelöscht. Ich wollte eigentlich schon auf das neue Tuxedo OS umsteigen, das auf Ubuntu 22.04 LTS und KDE Plasma basiert. Allerdings hätte mir das meine Hauptinstallation – Linux Mint – gebügelt und deswegen ist mein Dual-Boot bisher Linux Mint und Tuxedo OS, das auf Ubuntu 20.04 LTS basiert. Ab sofort gibt […]

Der Beitrag Tuxedo OS 1 mit einer ISO-Datei – kurzer Test mit vielen Bildern ist von bitblokes.de.

ChatGPT: Microsoft hostet OpenAI-Services

18. Januar 2023 um 10:11

Microsoft hat angekündigt, die KI-gestützten Services wie Dall-E und ChatGPT von OpenAI auf seiner Azure Cloud zu hosten, vorerst in den USA. Dort lassen sich die Services stündlich oder per Token mieten.

Der Azure OpenAI Service umfasst laut Microsoft GPT-3.5, Codex und DALL-E 2. In Kürze werde dann über Azure auch Zugriff auf ChatGPT angeboten, eine laut Microsoft fein abgestimmte Version von GPT-3.5, die auf der Azure-KI-Infrastruktur trainiert wurde.

Microsoft baut damit seine Services für KI und Machine Learning aus und hat bereits angekündigt, mit rund 10 Milliarden US-Dollar bei OpenAI einsteigen zu wollen.

KI-Agenda von Microsoft. Quelle: Microsoft

In dem Blogpost zu den Azure OpenAI Services sind auch die Services Copilot von Github, das Kreativprogramm Microsoft Designer und das GPT-3-basierte Tool Power-BI genannt. Die KI-gestützte Programmierhilfe Copilot, die auf Github zum Einsatz kommt, ist wegen dem von Kritikern vermuteten Verstoß gegen OpenSource-Lizenzen in der Diskussion. Copilot holt sich Codeschnipsel aus diversen Projekten.

Der Beitrag ChatGPT: Microsoft hostet OpenAI-Services erschien zuerst auf Linux-Magazin.

ChatGPT: OpenAI trainiert AI-Erkennung

01. Februar 2023 um 09:29

Nachdem das KI-basierte Chattool ChatGPT derzeit einen Höhenflug erlebt, was Nutzung und mediales Interesse anbelangt, hat Anbieter OpenAI damit begonnen, ein neues Tool zu trainieren, das Texte erkennt, die mit Hilfe von künstlicher Intelligenz verfasst sind.

Der AI-Classifier von OpenAI soll zwischen von Menschen geschriebenen Texten und von KI verfassten Texten verschiedener Anbieter unterscheiden können. Auch wenn es unmöglich sei, alle von KI geschriebenen Texte zuverlässig zu erkennen, könnten gute Klassifikatoren Informationen für falsche Behauptungen liefern, dass KI-generierter Text von einem Menschen geschrieben wurden. Zu diesen Fällen zählt OIpenAI in einem Blogbeitrag etwa automatisierte Fehlinformationskampagnen, die Verwendung von KI-Tools für Betrügerein bei akademischen Arbeiten und die Positionierung eines KI-Chatbots als Mensch.

Der Klassifikator arbeite derzeit aber noch nicht zuverlässig, raumt OpenAI ein. Bei der Auswertung eines “Challenge Set” englischer Texte habe er 26 Prozent der von KI geschriebenen Texte korrekt als “wahrscheinlich von KI geschrieben”, während er von Menschen geschriebene Texte in 9 Prozent der Fälle fälschlicherweise als von KI geschrieben eingestuft habe (false positiv). Die Zuverlässigkeit des AI-Classifier verbessere sich in der Regel mit zunehmender Länge des Eingabetextes. Im Vergleich zu einem zuvor veröffentlichten Klassifikator sei der neue bei Texten von neueren KI-Systemen deutlich zuverlässiger.

Der Klassifikator steht öffentlich zur Verfügung. OpenAI erwartet sich Feedback darüber, ob Werkzeuge wie dieses nützlich sind, auch wenn sie nicht gänzlich zuverlässig arbeiten. Die Arbeit an der Erkennung von KI-generiertem Text werde fortgesetzt. Der kostenlos nutzbare Work-in-Progress-Klassifikator lässt sich hier ausprobieren.

Der Beitrag ChatGPT: OpenAI trainiert AI-Erkennung erschien zuerst auf Linux-Magazin.

OpenAI bringt API für ChatGPT und Whisper

03. März 2023 um 08:34

OpenAI hat für ChatGPT- und die Speech-to-Text-Funktionen von Whisper APIs verfügbar gemacht. Entwicklern sollen damit ihre Anwendungen an den Chatbot anbinden können. Auch für das Speech-to-Text-Modell Whisper gibt es ein API.

OpenAI rühmt sich, durch systemweite Optimierungen die Kosten für ChatGPT seit Dezember um 90 Prozent gesenkt zu haben. Davon sollen nun auch die API-Nutzer profitieren, heißt es in der Ankündigung.

Entwickler könnten jetzt das Open-Source-Modell Whisper large-v2 in der API mit viel schnelleren und kostengünstigeren Ergebnissen verwenden. ChatGPT-API-Nutzer sollen mit kontinuierlichen Modellverbesserungen und der Option rechnen können, dedizierte Kapazitäten für eine tiefere Kontrolle über die Modelle wählen zu dürfen.

Zu den Preisen für die kostenpflichtige API sagte OpenAI: Die ChatGPT-Modellfamilie, die man freigebe, gpt-3.5-turbo, sei das gleiche Modell, das in dem ChatGPT-Produkt verwendet werde. Der Preis liegt bei 0,002 US-Dollar pro 1000 Tokens. Das sei rund zehnmal günstiger ist als die bestehenden GPT-3.5-Modelle.

Der Tokenizer berechnet die Zahl der Tokens in einem Text. Unten sind die jeweiligen Zeichenfolgen des Token farblich markiert.

Tokens stehen dabei für Zeichenfolgen, die ChatGPT im Text ausmacht. OpenAI hat einen Rechner online gestellt, mit dem sich die Anzahl der Tokens für Textpassagen ausrechnen lässt.

Der Beitrag OpenAI bringt API für ChatGPT und Whisper erschien zuerst auf Linux-Magazin.

OpenAI veröffentlicht GPT-4

14. März 2023 um 17:21

Kurz notiert: soeben hat OpenAI GPT-4 angekündigt. Das Modell ist in ChatGPT+ verfügbar, API-Nutzer können sich bereits auf einer Warteliste eintragen. Neuerungen sind u. a. die größere Anzahl an Tokens und die Fähigkeiten, auch Grafiken zu verarbeiten – das Modell wird somit multimodal.

Die Fähigkeiten werden heute in einem Livestream um 1 PM PT bzw. 21 Uhr deutscher Zeit vorgestellt. Der Livestream ist auf YouTube verfügbar.

Das Paper zu GPT-4 wurde ebenso veröffentlicht.

KI-Wochenrückblick KW 11/2023

19. März 2023 um 21:10

Der KI-Wochenrückblick fasst die Nachrichten der Kalenderwoche 11 des Jahres 2023 zusammen. In dieser Woche gab es viele Neuigkeiten, darunter die Veröffentlichung von GPT-4, Midjourney 5, PyTorch 2.0 oder Alpaca.

Treue Leser des Blogs können sich noch an das Jahr 2018 und den Wochenrückblick erinnern. Über ein halbes Jahr habe ich im Wochentakt das Geschehen der Woche zusammengefasst. Der Wochenrückblick wurde nach kurzer Zeit wieder eingestellt und sollte auch nur als Experiment dienen.

Im Jahr 2023 wird allerdings der Wochenrückblick aus einem anderen Blickwinkel wieder relevant. Wir erleben momentan etwas, was mich an die Erfindung des iPhones erinnert: eine neue Technologie ist da und man möchte den ganzen Tag die Funktionalität ausprobieren. Dies fing bereits 2022 mit GPT-3 und DALL-E an setzt sich nun mit Stable Diffusion, ChatGPT und den ganzen neuen Modellen fort.

Um die Flut an Informationen zu sortieren, möchte ich die Gelegenheit nutzen und im KI-Wochenrückblick das Geschehen der Woche aufarbeiten und kurz zusammenfassen.

GPT-4 erschienen

Den Anfang macht ganz klar OpenAI mit GPT-4. Um die neue Version des bekannten Large Language Models (LLM) gab es schon seit einiger Zeit einen gewissen Hype. Am Dienstag war es dann soweit: OpenAI hat GPT-4 veröffentlicht. In einem Demo-Livestream wurden die Möglichkeiten vorgestellt. GPT-4 soll multimodal sein und neben Text auch Bilder verarbeiten können. Die Anzahl der Tokens steigt von 2048 auf 32k Tokens, was in etwa 25.000 Wörtern entspricht. Eine Eingabe kann also deutlich länger sein als bisher.

Das mit Spannung erwartete Paper, welches jetzt auf arxiv.org liegt, bietet allerdings recht wenig Einblicke in die Funktionsweise. Hier wurde der Fokus besonders auf Vergleiche bei standardisierten Tests gelegt, Details zur Architektur wurden nicht verraten. Diese Politik enttäuscht teilweise die Forschungswelt und wird bisher mit dem Konkurrenzdruck begründet. (Blogartikel von Dienstag)

Midjourney V5 Alpha veröffentlicht

Bei den Text-zu-Bild-Wandlern gibt es auch Neuigkeiten. Midjourney ist als Alpha in Version 5 verfügbar, wie das Team auf Twitter berichtet. Mit dem neuen Release werden die Bilder deutlich realistischer und die Qualitätssteigerungen werden sichtbar.

Midjorney ist allerdings, im Gegensatz zu OpenAI-Produkten, aktuell nicht als API verfügbar und kann nur teils kostenpflichtig über den Discord-Server erreicht werden.

ViperGPT: Visuelle Inferenz mittels Python-Ausführung

Eines meiner persönlichen Highlights der Woche ist die Vorstellung von ViperGPT und dem dazugehörigen Paper. Es geht ein Problem an, welches insbesondere bei Bild-Tasks präsent ist: während jeweils die Erkennung von Objekten oder die Codegenerierung für ein Problem relativ zuverlässig sind, ist die Kombination aus beidem fehleranfällig.

Beispiel: wir haben ein Bild mit verschiedenen Pizzastücken und Personen vorliegen. Die Frage "Wie viele Stücke könnte jede Person erhalten, wenn die Pizza fair aufgeteilt wird?" ist schwierig zu beantworten, wenn wir einen End-to-End-Ansatz fahren. ViperGPT wählt allerdings einen anderen Ansatz: hier wird ein Python-Programm generiert, welches Platzhalter für die eigentlichen Image-Recognition-Tasks im Rahmen von speziellen find()-Funktionsaufrufen lässt. Die eigentliche Aufteilungberechnung pizzastueckzahl // personenanzahl wird vom Codegenerator-Modell zwar formuliert, dann aber ganz normal deterministisch in Python auf einer CPU ausgeführt. Somit wird einerseits das Modell erklärbarer und andererseits auch deterministischer.

Ich freue mich schon auf den Code, um das Verfahren auszuprobieren. Wenn das funktioniert, lassen sich in meinen Augen die Vorteile unscharfer Large Language Models und präsizer Computerberechnungen besser kombinieren.

PyTorch 2.0 erschienen

PyTorch ist ein wichtiger Baustein in der ML-Forschung, da es als wichtiges Framework und TensorFlow-Konkurrent die Modelle erst implementierbar und trainierbar macht. Umso spannender ist es, dass hier eine neue Version erschienen ist.

In Version 2.0 sind allerdings glücklicherweise keine substantiellen Breaking Changes zu erwarten, es ist eine umgebrandete Version 1.14. Hinzu gekommen ist insbesondere torch.compile(), sodass Modelle vorkompiliert werden können und nicht mehr zwangsläufig im "eager mode" arbeiten müssen. (Blogartikel von Samstag)

Alpaca: Do-it-yourself GPT?

Ein großer Nachteil der aktuellen KI-Forschung liegt in der Verfügbarkeit der Modelle. Dabei müssen wir zwischen Modellen und Modellen unterscheiden – leider wird beides oft mit dem gleichen Namen bezeichnen. Modelle können einerseits die Architektur beschreiben (GPT-3, LLaMA, AlexNet, ...), andererseits aber auch die Architektur plus die dazugehörigen Gewichte (= das Herzstück für den Einsatz eines Modells) bedeuten. Die Gewichte sind das Ergebnis des Trainings.

Die Architektur wird meist offengelegt (in GPT-4 jetzt nicht mehr, wie wir gesehen haben), die Gewichte sind oft unter Verschluss, sind aber die Voraussetzung für den Betrieb eines vortrainierten Modells. LLMs wie GPT-4 oder PaLM sind prioprietär, Meta beschreitet mit LLaMA einen Mittelweg mit einer restriktiven Lizenz und andere Modelle wie die Spracherkennung Whisper sind komplett offen.

Um nun aber zügig ein lauffähiges, lokales LLM aufzubauen, haben die Stanford-Forscher mit Alpaca einen Trick angewandt. Sie nehmen das LLaMA-Modell und führen mittels Instructions, die mit ChatGPT synthetisiert werden, über das Self-Instruct-Verfahren ein Fine-Tuning durch. Herauskommen soll ein Modell, welches mit GPT-3 konkurrieren kann, aber unter 600 USD im Training gekostet hat. Das ist für bisherige Verhältnisse sehr billig.

Das Modell gibt es noch nicht zum Download, hier möchte das Alpaca-Team in Verhandlung mit Meta treten. Die Auswirkungen wären tatsächlich enorm, da einerseits die Entwicklungen lokal nachvollziehbar werden (für die Wissenschaft unerlässlich), andererseits aber der Alleinstellungswert von LLM-Providern sinkt, wenn ein anderes Modell einfach ihr Modell imitieren kann.

Weitere Neuigkeiten

  • Microsoft 365 Copilot hält Einzug in Office
    Dieser Schritt war aus meiner Sicht seit dem 10 Mrd.-Investment erwartbar und wird nun umgesetzt. Effektiv wird dadurch ChatGPT direkt in Office nutzbar.
  • Google führt KI-Systeme in Google Workspace ein
    Google zieht nach und bietet ähnliche Funktionen in den eigenen Produkten mit den eigenen Modellen an. Auch hier geht es darum, das Prompting innerhalb der Dokumente zu ermöglichen. Durch die enge Einbindung von Gmail in die Business-Suite können aber auch über die Schnittstellen z. B. E-Mail-Vorlagen schnell modifiziert werden.

Künstliche Intelligenz: Mozilla gibt Gründung von Mozilla.ai bekannt

22. März 2023 um 20:30

Künstliche Intelligenz ist derzeit in aller Munde, nicht zuletzt dank ChatGPT. Nun hat Mozilla mit Mozilla.ai die Gründung eines neuen Tochterunternehmens bekannt gegeben, welches sich der Künstlichen Intelligenz widmet.

Mozilla gründet Mozilla.ai

Wenn in den letzten Wochen und Monaten eine Sache klar wurde, dann dass sogenannte Künstliche Intelligenz eines der bestimmenden Themen in den kommenden Jahren sein wird. Worin einerseits ein gigantisches Potential steckt, liegt auf der anderen Seite aber auch eine große Gefahr, insbesondere wenn die großen Tech-Unternehmen, welche ihre jeweils ganz eigenen Ziele verfolgen, die Technologie kontrollieren.

Mit dem Thema vertrauenswürdige Künstliche Intelligenz beschäftigt sich Mozilla bereits seit mehreren Jahren und betreibt auch aktuelle Forschung dazu. Nun hat Mozilla die Gründung eines neuen Unternehmens in diesem Bereich bekannt gegeben. Anfänglich wird Mozilla.ai mit einem Budget von 30 Millionen USD ausgestattet sein.

Mozilla.ai beschreibt sich selbst als Startup und Community, welche ein vertrauenswürdiges, unabhängiges und quelloffenes KI-Ökosystem aufbauen möchte. Zu Beginn soll der Fokus auf die Entwicklung von Werkzeugen gelegt werden, welche generative KI-Technologien sicherer und transparenter machen, sowie Empfehlungssysteme, welche nicht falsch informieren.

Mozilla wächst als Organisation

Viele denken bei Mozilla nur an Firefox. Dabei ist Mozilla sehr viel mehr als nur Firefox. An der Spitze steht die Mozilla Foundation, welche nicht nur Internet-Politik betreibt, sondern auch Projekte wie Mozilla Common Voice, den weltweit größten öffentlichen Datensatz menschlicher Stimmen, kostenlos und für jeden nutzbar.

Entwicklerin des bekannten Firefox Browsers ist die Mozilla Corporation, welche auch Produkte wie Firefox Monitor, Firefox Relay, das Mozilla VPN, Mozilla Hubs, Pocket sowie die MDN Web Docs entwickelt. Mit Mozilla Online gibt es eine weitere Tochter, welche sich speziell um den chinesischen Markt kümmert.

Der beliebte E-Mail-Client Thunderbird wird von einem anderen Tochterunternehmen der Mozilla Foundation entwickelt, der MZLA Technologies Corporation.

Zu Beginn dieses Jahres ist die Mozilla Foundation um zwei weitere Unternehmen gewachsen: Mozilla Ventures ist ein anfänglich mit 35 Millionen USD ausgestatteter Risikokapitalfonds, über welchen Mozilla in Startups investiert, welche das Internet und die Tech-Industrie in eine bessere Richtung bringen. Mozilla.ai beschäftigt sich mit dem Thema vertrauenswürdige Künstliche Intelligenz.

Möglich sind Mozillas Investitionen und Wachstum als Organisation auch dadurch, dass Mozilla finanziell auf gesunden Beinen steht. Im Jahr 2021, dem Jahr des letzten veröffentlichten Finanzberichts, konnte Mozilla einen Rekordumsatz erzielen, bei gleichzeitig deutlich gesenkten Kosten. Mozillas Vermögen ist in dem Jahr auf über eine Milliarde USD angewachsen.

Der Beitrag Künstliche Intelligenz: Mozilla gibt Gründung von Mozilla.ai bekannt erschien zuerst auf soeren-hentzschel.at.

OpenAI behebt Fehler, der Nutzern fremde Daten anzeigte

24. März 2023 um 09:13

Nachdem anderen Nutzern kurze Zusammenfassungen von ChatGPT-Konversationen angezeigt wurden, konnte OpenAI das Problem beheben.

Der ChatGPT-Entwickler OpenAI hat einen Fehler behoben, bei dem die Daten anderer Nutzer eingesehen werden konnten. Zwischenzeitlich deaktivierte das Unternehmen die Chatverlaufsfunktion von ChatGPT, da die Titel der Konversationen anderen Nutzern angezeigt wurden. Zuerst berichtete die Nachrichtenagentur Reuters.

Bekannt wurde der Fehler über Screenshots von fremden ChatGPT-Konversationen, die auf Reddit und Twitter veröffentlicht wurden. Ein Sprecher von OpenAI, dem ChatGPT-Hersteller, bestätigte der Nachrichtenagentur Bloomberg den Vorfall.

Er betonte, dass der Fehler nicht zu einer Weitergabe der vollständigen Transkripte von Unterhaltungen mit dem Chatbot geführt habe, sondern nur kurze beschreibende Titel weitergegeben worden seien.

Laut einem Tweet von OpenAI-CEO Sam Altman wurde das Problem durch “einen Fehler in einer Open-Source-Bibliothek” verursacht. Der Fehler in der nicht namentlich genannten Bibliothek sowie in ChatGPT sei behoben worden. Zwischenzeitlich wurde der ChatGPT-Dienst beziehungsweise die Chatverlaufsfunktion deaktiviert. In Folge des Fixes könnten Nutzer allerdings ihre Chatverläufe vom 20. März zum Teil nicht mehr einsehen, schreibt Altman.

Der Fehler sei eine wichtige Erinnerung daran, keine sensiblen Daten mit ChatGPT zu teilen, schreibt das Onlinemagazin The Verge und verweist auf eine entsprechende Stelle in den FAQ von OpenAI. Das Unternehmen könne bestimmte Eingaben nicht aus dem Verlauf löschen, zudem könnten die Unterhaltungen zu Schulungszwecken verwendet werden, heißt es in der FAQ.

Der Beitrag OpenAI behebt Fehler, der Nutzern fremde Daten anzeigte erschien zuerst auf Linux-Magazin.

KI-Wochenrückblick KW 12/2023

26. März 2023 um 20:25

Während vergangene Woche die Nachrichten sich täglich überschlagen haben, ging es diese Woche etwas ruhiger zu – was aber nicht bedeutet, dass die Neuerungen weniger bahnbrechend sind. Die Woche im KI-Wochenrückblick.

ChatGPT Plugins

Wer die 17. Episode des Risikozone-Podcasts gehört hat, weiß, dass ich schon länger eine Erweiterung der "Text-KIs" skizziert habe, die das Sprachmodell auf die Textgenerierung beschränkt, aber die Informationsbeschaffung auf klassischem, deterministischem Weg umsetzt. Das habe aber nicht nur ich so gedacht, sondern auch die Forscher hinter Toolforge oder Entwickler hinter Werkzeugen wie LangChain oder ICortex. OpenAI hat ChatGPT mit den ChatGPT Plugins diese Woche seiner Text-KI genau diese Möglichkeit ebenfalls verpasst. Was als kleiner Schritt erscheint, dreht kurzfristig die KI-Nahrungskette um: während bisher die GPT-Modelle das Werkzeug waren, das in fertige Dienste integriert wurde, stellt ChatGPT nun das Tor in die Welt dar, das durch externe Informationen angereichert wird. So kann OpenAI nun z. B. einen Sachverhalt an WolframAlpha weiterleiten, ein Dienst, der (wissenschaftliche) Zusammenhänge präsizer verarbeiten kann und bereits seit langer Zeit die Grundlagen von Sprachassistenten darstellt. Weitere Informationen hierzu beschreibt Stephen Wolfram in seinem Blog. Aber auch Document Retreival, also das Durchsuchen der eigenen Datenberge, wird nun als Plugin unterstützt. Das dazugehörige GitHub-Repository chatgpt-retrieval-plugin trendet seit dem unentwegt.

Die Auswirkungen hinter dieser Neuerung werden maßgeblich durch die Bekanntheit von OpenAI verstärkt. Die Plugins setzen OpenAI jetzt in die Lage, Projekte und Startups, die lediglich ein Mashup, also eine Verschmelzung von GPT mit eigenen Informationen, angeboten haben, existentiell zu bedrohen. In diesem Aspekt ist OpenAI heute wie Google in den ersten Jahren: sie machen ein neues Feld besonders zugänglich, veröffentlichen in einer hohen Frequenz interessante Produkte – sind aber auch gefürchtet, weil sie die low-hanging fruits – die leichten Probleme – schnell lösen. Es bleibt weiterhin spannend.

Hello Dolly! Demokratisierung der Sprachmodelle

OpenAI wird zunehmend dafür kritisiert, die Entwicklung der neuen Sprachmodelle proprietär zu gestalten. Während GPT-2 noch einfach zugänglich war, ist GPT-3 nicht mehr einfach als Download verfügbar. Das ist natürlich für Forschung und Weiterentwicklung hinderlich, sichert für OpenAI aber nebenbei einen Wettbewerbsvorteil.

Die Antwort auf diesen "Missstand" kommt in diesen Tagen prompt: Databricks hat mit Hello Dolly an Alpaca aus letzter Woche angeknüpft und gezeigt, dass ein ChatGPT-ähnliches Modell auch auf Basis von GPT-J statt LLaMA (wie bei Alpaca) trainiert werden kann. GPT-J ist deshalb interessant, weil es noch aus der Zeit von vor zwei Jahren stammt, als Sprachmodelle offen bereitgestellt wurden.

Auch wenn GPT-J insgesamt über z. B. weniger Parameter verfügt, kann es trotzdem die hochwertigen Ergebnisse ermöglichen. Dabei zeichnet sich ab, dass die Methodik hinter Self-Instruct mächtig ist, was wiederum den Wettbewerbsvorteil der geheimen GPT-3-Gewichte relativiert.

Aber auch die Grundmodelle entwickeln sich weiter: so ist flan-ul2 von Google ein spannender Kandidat für ein solches Basismodell. flan-ul2 wurde erst Anfang des Monats veröffentlicht.

OpenAI stellt Codex-API ein

Realtiv geräuschlos stellte OpenAI offenbar die Zugänge zu den Codex-Modellen ein, hierzu gibt es nur Nutzerberichte. Im OpenAI Playground sind die Codex-Modelle auch nicht mehr anwählbar. Bemerkenswert ist hierbei die Vorwarnzeit, die lediglich wenige Tage betrug.

OpenAI Codex wurde 2021 veröffentlicht und war die spezielle Anpassung der GPT-3-Modelle für Code. Es bildete die Grundlage für den GitHub Copilot. GitHub hat in dieser Woche GitHub Copilot X vorgestellt, welcher nun auf GPT-4-Basis arbeitet. Die Einstellung von Codex ist hier schon fast folgerichtig, da OpenAI scheinbar ihr neues Modell GPT-4 als so allgemeingültig sieht, dass Textaufgaben und Codingprobleme über das gleiche System abgewickelt werden können.

Aber auch Codex bekommt Konkurrenz: Code Alpaca ist auch diese Woche erschienen und funktioniert ähnlich wie Alpaca, konzentriert sich aber speziell auf Codingprobleme. Die Web-Demo ist noch aktiv.

KI-Wochenrückblick KW 13/2023

02. April 2023 um 21:00

In dieser Woche gab es ebenfalls spannende Entwicklungen im Bereich der Künstlichen Intelligenz, die ich mit euch im KI-Wochenrückblick vorstellen möchte.

GPT4All

Die Welt der offenen GPT-artigen Modelle wurde in dieser Woche um ein weiteres Mitglied reicher: GPT4All. Das Projekt veröffentlicht neben einem Bericht eine Demo, Daten und Code, um ein Assistenten-ähnliches Sprachmodell auf LLaMa-7B-Basis zu trainieren. GPT4All nutzt rund eine Million Dialogpaare, die mit GPT-3.5-Turbo von OpenAI zwischen dem 20. März und 26. März 2023 generiert wurden. Die Daten stammen aus verschiedenen Quellen, darunter LAION OIG, Stack Overflow und Bigscience/P3. Nach Bereinigung der Datensätze verbleiben 437.605 Dialogpaare, die für das Training verwendet werden. Das Projekt veröffentlicht nicht nur die trainierten Modellgewichte, sondern auch 4-Bit-quantisierte Versionen, die eine Ausführung des Modells auf herkömmlichen CPUs ermöglichen.

Forderung nach einem Moratorium für KI

Ein offener Brief des Future of Life Institute, unterzeichnet von Persönlichkeiten wie Elon Musk oder Steve Wozniak, fordert ein mindestens sechmonatiges Moratorium für die Entwicklung von KI-Modellen, die leistungsstärker sind als GPT-4. Die Unterzeichner argumentieren, dass eine solche Pause notwendig sei, um sicherzustellen, dass die KI der Menschheit dient und nicht schadet. In den Reaktionen (z. B. 1 oder 2) gibt es für den Vorstoß auch viel Gegenwind.

Italien sperrt ChatGPT

Die italienische Datenschutzbehörde hat gegenüber OpenAI eine Sperrung von ChatGPT angeordnet, die zwischenzeitlich bereits offenbar umgesetzt wurde. Der Grund für die Sperrung sind angeführte Verstöße gegen Datenschutz- und Jugendschutzbestimmungen. Die Behörde kritisiert nach FAZ-Angaben insbesondere, dass OpenAI keine ausreichende Rechtsgrundlage für das Sammeln und Speichern von bestimmten personenbezogenen Daten habe. OpenAI muss innerhalb von 20 Tagen über die ergriffenen Maßnahmen informieren, sonst droht eine Straße von bis zu 20 Millionen Euro oder 4 % des Jahresumsatzes. Die erfolgte Sperrung steht auch im Zusammenhang mit der Störung vom 20. März, bei der durch einen Bug in der redis-py-Bibliothek Nutzer Daten Anderer erhalten haben.

Insgesamt zeigt sich, dass die KI-Branche weiterhin rasant voranschreitet, aber auch vor klassischen rechtlichen Herausforderungen steht. Es bleibt spannend, wie sich das Feld auch in der nächsten Woche entwickelt.

KI-Wochenrückblick KW 14/2023

09. April 2023 um 21:07

Im heutigen Wochenrückblick werde ich einige spannende Einblicke in die KI-Welt der letzten Tage präsentieren. Einige der Nachrichten stammen aus dieser Woche, bei anderen etwas älteren Themen möchte ich diesen Wochenrückblick zur Nachbesprechung nutzen.

LLaMa-Adapter

LLaMA-Adapter (Paper) ist so spannend, dass ich es euch nicht vorenthalten möchte. Über die letzten Wochen haben sich im Rahmen der ChatGPT-DIY-Konkurrenzmodelle einige Modelle und vor allem Methodiken für das Finetuning dieser herausgebildet.

Eine wichtige Rolle hat hierbei Metas LLaMA eingenommen. Das Modell ist zwar für ausgewählte Forscher mit den Gewichten verfügbar, steht aber unter einer restriktiven Lizenz. Trotzdem haben sich verschiedene Methodiken herausgebildet, LLaMa auf die eigenen Bedürfnisse feinzutunen, um insbesondere bessere Resultate zu erhalten.

Eines der ersten verbreiteten Verfahren hierfür war Alpaca. Dabei wurde ein spezielles Dataset herangezogen (52k Instruct), das aus Instruktionen bestand. Anschließend wurde LLaMa(-7B) genommen und die bestehenden Gewichte so angepasst, dass der Loss auf das Dataset als Trainingsdatensatz verringert wird. Problematisch hierbei: alle Gewichte müssen "angefasst" werden – und mit mindestens 7 Mrd. sind es nicht wenige.

LLaMa-Adapter nutzt einen anderen Ansatz und friert erst einmal die bestehenden Gewichte ein. Für das Finetuning wird eine eigene Schicht mit 1,2 Mio. neuen Gewichten hinzugefügt, wobei nur diese trainiert werden. Das Ergebnis ist ein Training, welches lediglich unter einer Stunde mit 8 A100-GPUs dauert. Diese Effizienz schlägt sich in einer kürzeren Trainingszeit und somit auch geringeren Kosten nieder.

Als sei das nicht genug, ermöglicht LLaMa-Adapter auch die Implementierung von Mutlimodalen Modellen, wo zusätzlich zur Texteingabe Bilder als solche verarbeitet werden können.

Semgment Anything Model

Meta bzw. Facebook nimmt in der aktuellen KI-Forschung eine ganz besondere Rolle ein. Denn oft sind es gerade die Entwicklungen und Modelle von Meta, die in der Community weite Anerkennung und Verbreitung finden.

In der aktuellsten Veröffentlichung aus dieser Woche widmen sich die KI-Forscher von Meta der Bildsegmentierung und stellen eines der Modelle frei einsehbar zur Verfügung.

Mit Bildsegmentierung dürften viele iOS-Nutzer letztes Jahr mit der Umstellung auf Version 16 in Kontakt bekommen sein. Eines der zentralen neuen Features war die Möglichkeit, sehr einfach Objekte in Bildern freistellen zu können ("cut out"). Dabei ist es entscheidend, sauber Objekte auf einem Bild trennen zu können.

Das Semgent Anything Model (SAM) stellt solche Möglichkeiten nun für Jedermann zur Verfügung, der damit arbeiten oder forschen möchte. Von Meta werden hierfür das Paper, der Datensatz und eine Demo bereitgestellt.

Auto-GPT

Mit Auto-GPT wurde diese Woche ein experimentelles Werkzeug bekannt, das GPT-4 bzw. GPT-3.5 direkt an den Computer anschließt, um automatisiert Ziele erarbeiten zu können. Man kann sich das wie die ChatGPT Plugins, nur mit viel mehr Freiheiten vorstellen. Um die Ziele zu erreichen, kann z. B. das System im Internet suchen oder auch Dateien lesen.

Für den einzelnen Endnutzer ist natürlich der Einsatz sehr riskant, da das System a) Zugriff auf den eigenen Computer hat und b) nicht vorhersagbar in Bezug auf das nächste ausgeführte Kommando ist. Trotzdem zeigt das Experiment, dass die GPT-Modelle heute beindruckend gut Ziele erreichen können, wenn sie eine Schnittstelle zu einem Computer erhalten.

Das war der KI-Wochenrückblick mit einer Auswahl von spannenden Nachrichten für diese Woche. Ich freue mich schon auf die nächste Woche, wenn wir wieder die Neuerungen der nächsten Woche besprechen können!

Neue Podcastepisode Risikozone RZ019: Open-Source-KI, BGP und RPKI, Supply-Chain-Angriffe, Firefox

12. April 2023 um 12:27

Seit September letzten Jahres produziere ich den Risikozone-Podcast. Über das vergangene halbe Jahr sind auf diese Weise schon 19 Episoden entstanden, die üblicherweise zwischen 40 und 60 Minuten lang sind. Ein besonderes Highlight war die Sonderepisode 6, wo wir Sönke Huster interviewt haben, der über die Erfahrungen beim Auffinden von Sicherheitslücken im WLAN-Stack des Linux-Kernels berichten konnte.

In weiteren Episoden haben wir bereits über Grundlagen der IT-Sicherheit gesprochen, darunter E-Mail-Hosting, VPNs, Mastodon, symmetrische Kryptosysteme oder asymmetrische Kryptosysteme. Ein immer stärkerer Fokus wird allerdings auch auf Machine-Learning-Modelle gerichtet, wie schon im Dezember über ChatGPT angesprochen.

In der heutigen Risikozone-Episode Nr. 19 geht es um eine ganze Reihe von Themen und aktuellen Nachrichten, die wir gestern aufgegriffen haben. Dabei ist ein konkretes Open-Source-Thema dabei, was ich euch nicht vorenthalten möchte.

Open Source wird bei KI-Systemen und hier den oft angesprochenen Large-Language-Models (LLMs) eine besondere Rolle spielen, denn bisher gibt es wenige große Anbieter, die in ihrer Rolle gleichzeitig auch als Gatekeeper fungieren. Gatekeeper, da sie einerseits proprietär die Gewichte bzw. Parameter für sich behalten möchten, aber andererseits auch eine Sicherheitsfunktion einnehmen.

Hier steht Sicherheit dem Open-Source-Gedanken gegenüber. Wer allerdings jetzt nach Verboten von "ungeprüfter" Open-Source-KI ruft, verkennt in meinen Augen allerdings die Bedeutung für die IT-Sicherheit. Es muss immer davon ausgegangen werden, dass "bad actors", also bösartige Akteure, alle technischen Möglichkeiten ausnutzen. Das umfasst auch das eigenständige Beschaffen von Trainingsdaten, Architekturspezifikationen und Rechenressourcen. Sich also nun auf Verbote und Moratorien zu verlassen, bringt im Ergebnis wenig. Ob die Open-Source-Modelle nun verfügbar oder verboten sind, hat auf bösartige Akteure keinen Einfluss und hemmt zudem noch die Weiterentwicklung "gutartiger" Modelle.

Indirekt lässt sich auch hier Kerckhoff's Prinzip anwenden, welches eigentlich eher aus der Welt der Kryptographie kommt:

Es darf nicht der Geheheimhaltung bedürfen und soll ohne Schaden in Feindeshand fallen können.

— Auguste Kerckhoffs: La cryptographie militaire 1883

Heißt also: Software resilient und sicher gestalten, Schutzmaßnahmen ausbauen, sich Gefahren nicht schönreden. Ein Beispiel ist da die Absicherung von BGP durch RPKI, wie sie von der niederländischen Regierung vorangetrieben wird. Auch das wird heute in der Episode kurz besprochen.

Auch wenn viele LLMs momentan frei ausgetauscht werden, sind sie oftmals nicht frei lizenziert, insbesondere, wenn sie von Meta AIs LLaMa abstammen. Das ist so ein bisschen wie das Unix von früher. Ausprobieren: jaein, selber verteilen: nein. Ein Auge richte ich momentan auf das Projekt Open Assistant, hier soll diesen Samstag das erste eigene, größere frei lizenzierte LLM veröffentlicht werden. Es bleibt also spannend.

Die Shownotes und das automatisiert erstellte Transkript befinden sich auf der Episodenseite, Informationen zum RSS-Feed auf der eigens dafür eingerichteten Unterseite. Feedback könnte ihr gerne als E-Mail oder Kommentar hier oder auf risikozone.de geben.

OpenAI legt Bug Bounty Programm auf

13. April 2023 um 09:13

Das hinter ChatGPT stehende Unternehmen OpenAI hat ein Bug Bounty Programm gestartete. Die Geldprämien hängen laut OpenAI vom Schweregrad und den Auswirkungen der gemeldeten Probleme ab. Die Belohnungen reichen von 200 US-Dollar für weniger schwerwiegende Entdeckungen bis zu 20.000 US-Dollar für außergewöhnliche Entdeckungen.

Das Bug Bounty Programm sei eine Möglichkeit, die wertvollen Erkenntnisse von Sicherheitsforschern anzuerkennen und zu belohnen, die dazu beitragen, unsere Technologie und unser Unternehmen sicher zu halten, schreibt OpenAI.

Das Programm wird mit Bugcrowd als Partner abgewickelt, einer Bug-Bounty-Plattform. Der Melde- und Belohnungsprozess solle damit für alle Teilnehmer möglichst reibungslos funktionieren. Detaillierte Richtlinien und Regeln für die Teilnahme finden Interessierte auf der Bug Bounty Programm Seite von OpenAI. Dort weist OpenAI insbesondere auch darauf hin, dass Probleme, die sich auf den Inhalt von Prompts und Antworten der KI beziehen, nicht in den Geltungsbereich des Programms fallen und nicht belohnt werden, es sei denn, sie haben zusätzliche, direkt nachweisbare Sicherheitsauswirkungen auf einen Dienst, heißt es. Es genügt also nicht, der KI nur eine falsche Antwort zu entlocken, um eine Belohnung zu erhalten.

Der Beitrag OpenAI legt Bug Bounty Programm auf erschien zuerst auf Linux-Magazin.

KI-Wochenrückblick KW 15/2023

16. April 2023 um 21:58

Im heutigen Wochenrückblick werde ich, wie gehabt, einige spannende Einblicke in die KI-Welt der letzten Tage präsentieren. Einige der Nachrichten stammen aus dieser Woche, bei anderen etwas älteren Themen möchte ich diesen Wochenrückblick zur Nachbesprechung nutzen.

Generative Agenten

Diese Woche war insbesondere von einem Paper geprägt: Generative Agents: Interactive Simulacra of Human Behavior. Wer sich noch an Spiele wie "Die Sims" erinnert, wird Teile der Funktionsweise wiedererkennen. 25 Spieler bzw. Avatare wurden auf die virtuelle Welt Smallville losgelassen und können dort textbasiert miteinander interagieren. Jeder Avatar wird durch einen Agenten repräsentiert. Das ist gerade sinnvoll, weil Ausgaben vom einem Avatar als Eingabe für einen anderen Avatar dienen können.

Damit alles funktioniert, haben die Forscher im Paper beschrieben, wie sie das auf GPT-3.5 aufbauende Systeme angepasst haben, um wie richtige "intelligente Agenten" agieren zu können. Das Ergebnis ist eine virtuelle Spielwelt, in der sich die virtuellen Avatare begrüßen, ihren Tag planen oder besondere Termine wie den Valentinstag berücksichtigen – und wir können zuschauen.

Agenten sind ein relativ altes Konzept der künstlichen Intelligenz und betreffen tatsächlich nicht nur Machine Learning direkt. Es geht insbesondere um die Simulation von Ergebnissen, um die Zusamennarbeit bestimmter Akteure praktisch auszutesten. ChatGPT zeichnet sich hierbei durch den Wissensschatz und die Vielfältigkeit aus, was diese Arbeit so interessant macht.

Besonders spannend ist dabei die Wirkungsweise, wie Agenten sich Dinge merken können. Hier war in den letzten Wochen besonders viel Forschungsaktivität zu beobachten, da weiterhin das "Wissen" eines Transformers durch die Eingabe bestimmt wird und Tricks bzw. Datenbanken notwendig sind, um Fakten langfristig zu bewahren.

Dolly 2.0

Databricks hat in dieser Woche Dolly 2.0 veröffentlicht. Die Besonderheit liegt in der Lizenz, denn das Dataset databricks-dolly-15k, auf dem das auf Pythia basierende Modell fingetuned wurde, steht unter der CC-BY-SA-3.0-Lizenz.

Das ist wichtig, weil ein Nachteil bisheriger Modelle wie Alpaca oder GPT4All darin lag, dass die Herkunftskette durch proprietäre, d.h. urherrechtlich geschützte und nicht lizenzierte Daten gekennzeichnet ist. Mit einem solchen freien Dataset wäre das Training allerdings rechtlich eindeutiger möglich.

Open Assisstant

Mit Spannung habe ich diese Woche die Veröffentlichung eines der Teilergebnisse des Open Assistants erwartet. Bei dem Projekt geht es darum, eine Open-Source-Alternative zu ChatGPT zu bauen. Mühsam musste daher durch Community-Unterstüzung ein Dataset aufgebaut werden. Dieses Dataset wurde nun veröffentlicht.

Das LLaMA-basierte Modell konnte noch nicht veröffentlicht werden, eine Delta-Version soll in Kürze freigegeben werden.

Zeitleiste der Transformer-basierten Modelle

Abschließend ein Projekt in eigener Sache: mit der Zeitleiste für die Transformer-Modelle baue ich momentan eine Überblicksseite samt Diagramm der verschiedenen Modelle. Es hat als kleines Projekt angefangen und wird immer größer, da mir immer mehr bewusst wird, wie sehr die heutigen ML-Projekte "auf den Schultern von Riesen stehen".

Die Seite ist für alle interessant, die sehen wollen, welche Modelle, Methoden und Papers aktuell diskutiert werden und wie sie voneinander abstammen. Über Feedback freue ich mich gerne!

KI-Wochenrückblick KW 16/2023

23. April 2023 um 20:36

In dieser Woche gab es wieder eine Reihe von KI-Entwicklungen, die ich euch heute vorstellen möchte. Auch in dieser Woche zeichnet sich wieder ein Trend ab: die Open-Source-Community schreitet auch bei der Entwicklung von eigenen Modellen voran.

RedPajama

Rechtlich befinden sich LLMs weiterhin oftmals in einer Grauzone. Die gefeierten, erfolgreichen Systeme wurden nicht nur mit viel Rechenkraft, sondern auch anhand eines bestimmten Datensatzes trainiert. Dieser ist in der Regel nicht öffentlich zugänglich. Diese Modelle, die aus dem Nichts trainiert wurden und grundsätzliche Fähigkeiten bereitstellen, werden auch als Foundation Models bezeichnet. Darauf aufbauend wird ein gewisses Fine-tuning unternommen, womit z. B. die Chatfähigkeiten deutlich verbessert werden.

Während Databricks mit Dolly 2.0 schon einen bemerkenswerten Auftakt zur Entwicklung offener LLMs angeboten hat, wurden die Foundation Models bisher wenig angetastet. Das soll sich nun mit RedPajama ändern. Das Projekt hat es sich vorgenommen, den Trainingsdatensatz hinter dem erfolgreichen, aber nicht-offenen LLaMA zu reproduzieren. Anschließend sollen freie Foundation Models trainiert werden.

Die Erstellung des Datensatzes ist nun abgeschlossen, die Ergebnisse können im oben verlinkten Artikel nachvollzogen werden. Nun steht das Training an. Vorteil solcher Modelle ist, dass sie rechtlich einfacher weiterverwendet und -trainiert werden können, was sehr wahrscheinlich einen Innovationsschub verursachen wird. Freie Modelle sind momentan das A und O für eine erfolgreiche Forschung, weil nur kleine Teile am Modell nachtrainiert werden.

VideoLDM

Ich war schon bei der Veröffentlichung von DALL-E und Stable Diffusion davon überzeugt, dass es nur noch eine Frage der Zeit ist, bis nicht nur Bilder, sondern auch Bildersequenz - Videos - generiert werden können. Nun ist es soweit: das Team rund um Andreas Blattmann und Robin Rombach hat mit Align your Latents: High-Resolution Video Synthesis with Latent Diffusion Models die ersten Ergebnisse ihrer Arbeit präsentiert.

Und diese können sich sehen lassen: den auf der Übersichtsseite vorgestellten Videosequenzen sieht man an vielen Stellen noch Unregelmäßigkeiten an, die auf eine Computergenerierung schließen lassen, aber je nach Setting sieht das extrem flüssig und hochwertig aus.

Dazu muss man die Dimension berücksichtigen: immerhin werden die kompletten Szenen aus einer kleinen Textbeschreibung erzeugt. Keine komplexen Beschreibungen oder Modellierung einer Szenerie, keine Animation, keine Videobearbeitung - direkt die Videos. Insbesondere für Filmstudios kann dies einen enormen Umbruch einleiten - entweder als Ergänzung oder aber auch als Ersatz.

NaturalSpeech 2

Modelle, die auf latente Diffusion setzen, haben nicht nur Stable Diffusion und VideoLDM ermöglicht. Ein Team von Microsoft Research hat sich jetzt Sprachsynthese unter Einsatz eines LDM (Latent Diffusion Model) vorgenommen und kommt zu erstaunlichen Ergebnissen.

Auf ihrer Seite können die Beispiele angehört werden.

Bark

Wo wir schon bei schon bei Sprachsynthese sind: könnt ihr euch noch an die Google I/O im Jahre 2018 erinnern? Eines der Highlights war die Demo von Google Duplex. Hier konnte das System selbstständig Personen anrufen, um z. B. Termine zu verabreden und Sprach dabei wie ein Mensch - mit allen Zwischenlauten und Pausen.

Mit Bark kann ein solches System selber ausprobiert werden. Grundsätzlich handelt es sich hierbei um eine normale Text-zu-Sprache-Anwendung, allerdings können Zusatzlaute wie Lachen, Schlucken oder Räuspern eingefügt werden. Darüber hinaus können Wörter besonders betont werden. Die Anwendung bietet beeindruckende Ergebnisse und zeigt, dass in Sachen Sprachsynthese noch einiges an Entwicklung momentan stattfindet.

Aktuelle Entwicklung werden zeitnah im Zeitstrahl der LLMs bzw. Transformer-Modelle vorgestellt.

OpenAI: Chat-Historie bei ChatGPT abschaltbar

27. April 2023 um 11:15

OpenAI hat die Option eingeführt, den Chatverlauf in ChatGPT zu deaktivieren. Auch soll es ein neues Business-Modell mit besserem Datenschutz geben.

Mit der Option, den Verlauf zu deaktivieren, werden Unterhaltungen, die bei deaktiviertem Chatverlauf begonnen werden, nicht zum Trainieren und Verbessern der Sprachmodelle verwendet. Auch erscheinen diese Chats auch nicht in der Verlaufs-Seitenleiste, berichtet OpenAI in einem Blogbeitrag. Diese Kontrollen seien ab sofort für alle Benutzer verfügbar und seien in den Einstellungen von ChatGPT zu finden, heißt es weiter.

OpenAI hofft, dadurch eine einfachere Möglichkeit anzubieten, um persönliche Daten der Nutzer zu verwalten als das bisherige Opt-Out-Verfahren. Wenn Nutzer den Chatverlauf deaktivieren, bewahre man die neuen Unterhaltungen 30 Tage lang auf, um sie bei Bedarf auf Missbrauch zu kontrollieren, bevor sie endgültig gelöscht würden, heißt es weiter.

OpenAI arbeitet nach eigenem Bekunden auch an einem neuen ChatGPT Business-Abonnement für Profis, die mehr Kontrolle über ihre Daten benötigen, sowie für Unternehmen, die ihre Endnutzer verwalten möchten. ChatGPT Business folge den Datenverwendungsrichtlinien der API, was bedeute, dass die Daten der Endnutzer standardmäßig nicht zum Trainieren der Modelle verwendet würden. ChatGPT Business soll in den kommenden Monaten verfügbar sein, heißt es weiter.

Außerdem soll es in den Einstellungen eine neue Export-Option einfacher machen, ChatGPT-Daten zu exportieren und damit zu verstehen, welche Informationen ChatGPT speichere. Mit der Option erhalte man eine Datei mit den Chats und allen anderen relevanten Daten per E-Mail.

Der Beitrag OpenAI: Chat-Historie bei ChatGPT abschaltbar erschien zuerst auf Linux-Magazin.

KI-Wochenrückblick KW 17/2023

30. April 2023 um 21:08

Diese Woche hat auch wieder spannende Neuigkeiten geboten, die ich euch gerne vorstellen möchte. Legen wir los!

StableLM

Eingangs möchte ich euch heute das Modell StableLM vorstellen. Hierbei handelt es sich um ein Open-Source-LLM aus dem Hause Stability AI – das Team, das auch schon Stable Diffusion populär gemacht hat. Es wurde am 19. April 2023 vorgestellt und steht in verschiedenen Parameterzahlen zur Verfügung, darunter z. B. 7 Milliarden Parameter. Technisch wird die Grundlage durch Pythia und somit auch GPT-NeoX gebildet.

Das Grundtraining von StableLM basiert auf The Pile mit einigen Anpassungen. Diese Anpassungen ermöglichen es, dass ein qualitativ hochwertiges Modell mit deutlich weniger Parametern erstellt werden konnte.

DeepFloyd IF

Stability AI hat in dieser Woche zwei weitere interessante Modelle veröffentlicht, darunter eines in Partnerschaft mit der DeepFloyd-Gruppe. DeepFloyd IF wurde am 28. April 2023 veröffentlicht. Eine der spannendsten Neuigkeiten ist die Fähigkeit, sauberen Text in generierte Bilder einzuarbeiten. Wer Modelle wie DALLE-2 oder Stable Diffusion kennt, weiß, dass dies oft eine Herausforderung ist und oft schlecht aussieht.

Diese Fähigkeiten ermöglichen auch völlig neue Anwendungen in Kunst und Design, weil die Gestaltung von Schrift besser abgedeckt werden kann. Das Modell ist auf HuggingFace verfügbar, im Veröffentlichungsartikel sind schon einige Beispiele dargestellt worden.

StableVicuna

Das zweite Modell in dieser Woche von Stability AI heißt StableVicuna und wurde ebenfalls am 28. April veröffentlicht. Es ist eines der ersten großen Open-Source-Sprachmodelle, das nicht nur klassisch auf Instruktionen gefinetuned, sondern auch mittels RLHF verbessert wurde. Beide Konzepte sind einige der Erfolgsgeheimnisse von ChatGPT.

Um StableVicuna einsetzen zu können, wird allerdings ein Zugang zu LLaMA von Meta AI benötigt, da dies die Grundlage für Vicuna bildet, worauf StableVicuna aufsetzt. Aus diesem Grund sind die Gewichte nur als Deltas verfügbar.

Großes Übersichtsarbeit zu LLMs

Die Arbeit Harnessing the Power of LLMs in Practice: A Survey on ChatGPT and Beyond ist momentan eine der aktuellsten und besten Übersichtsarbeiten zum Thema LLMs. Neben einem Stammbaum, der im Gegensatz zu meiner Timeline eher auf die Grundarchitektur und weniger auf die Details abzielt, werden konkrete Bemerkungen und Einordnungen zu Architektur, Aufgabenstellungen und Abwägungen bei der Entwicklung gegeben.

Für alle, die mit oder an LLMs entwickeln möchten, lohnt sich ein Blick in das dazugehörige GitHub-Repository, das eine Linkliste beinhaltet.

ChatGPT in Italien wieder verfügbar

Das vor einigen Wochen in Italien gesperrte ChatGPT ist nun wieder verfügbar. OpenAI hat an vielen Stellen nachgebessert und konnte den akuten Anliegen entgegenkommen. Nun beginnt die Detailarbeit, die allerdings erwartungsgemäß eher im Hintergrund ablaufen wird.

LLMs als Sprachgeneratoren werden in den praktischen Anwendungen allerdings noch vielen Herausforderungen gegenüber stehen: so sind weiterhin Sprachgenerierung und Wissensbereitstellung in meinen Augen zu eng miteinander verbunden. Speziell wenn wir das "Recht auf Vergessen" diskutieren, müssen wir uns vor Augen führen, dass die verbreiteten LLMs über keinen Wissensspeicher verfügen, in dem falsches Wissen steht und dann korrigiert oder entfernt werden kann. Vielmehr ist dieses Wissen die Fähigkeit selbst, eine Sprache zu sprechen. In der Praxis sollen allerdings logischerweise falsche Aussagen vermieden werden. Damit das zuverlässiger möglich ist, wird vermutlich noch einiges an Forschung benötigt werden. Und vielleicht sind die Transformer in Zukunft nicht das Mittel der Wahl, wenn Projekte wie RWKV-LM voranschreiten.

Open-Source-Tools von Nvidia sollen Chatbots sicherer machen

02. Mai 2023 um 06:10

“NeMo Guardrails” heißt das Toolkit von Nvidia, dass der Grafikspezialist unter einer Open-Source-Lizenz veröffentlicht hat. Damit sollen Chatbots sicherer werden.

NeMo Guardrails soll sich bei der Entwicklung sicherer und vertrauenswürdiger LLM-Konversationssysteme bewähren, teilt Nvidia mit. Die Sicherheit in der generativen KI sei ein branchenweites Anliegen und NeMo Guardrails sei so entwickelt worden, dass es mit allen LLMs funktioniere, einschließlich ChatGPT von OpenAI.

Dieses Leitplanken-Toolkit setze auf von der Community erstellten Werkzeugen wie LangChain. Die Toolkits würden kombinierbare und einfach zu verwendende Vorlagen und Muster anbieten, um LLM-gestützte Anwendungen zu erstellen. Dabei könnten LLMs, APIs und andere Softwarepakete zusammengebaut werden, so Nvidia in einem Blogbeitrag.

Mit dem Toolkit ließen sich Regeln aufstellen, um das Verhalten von Chatbots auf Nutzereingaben zu definieren. Derzeit gebe es die drei Regelsätze Topical, Safety und Security. Topical weise den Chatbot an, auf ein bestimmtes Thema konzentriert zu bleiben und nicht in unerwünschte Bereiche abschweifen. Security-Leitplanken würden dafür sorgen, dass Interaktionen mit einem LLM nicht zu Fehlinformationen, toxischen Reaktionen oder unangemessenen Inhalten führen. Security-Regeln verhinderten, dass ein LLM bösartigen Code ausführe oder eine externe Anwendung auf eine Weise aufrufe, die ein Sicherheitsrisiko darstellt.

Der Beitrag Open-Source-Tools von Nvidia sollen Chatbots sicherer machen erschien zuerst auf Linux-Magazin.

Gegen Fake-Bewertungen beim Online-Shopping – Mozilla kauft Fakespot

02. Mai 2023 um 20:58

Mozilla hat die Akquisition von Fakespot bekannt gegeben, einem Anbieter, der vor gefälschten Bewertungen beim Online-Shopping schützen soll.

Keine zwei Monate nach der Ankündigung der Gründung von Mozilla.ai, einem neuen Tochterunternehmen von Mozilla, welches sich dem Thema vertrauenswürdige Künstliche Intelligenz widmet und seinen Schwerpunkt zunächst auf die Entwicklung von Werkzeugen legen möchte, welche generative KI-Technologien sicherer und transparenter machen, sowie auf Empfehlungssysteme, welche nicht falsch informieren, wurde die Übernahme des Unternehmens Fakespot bekannt gegeben, wie beide Organisationen gemeinsam mitteilten.

Bei Fakespot handelt es sich um einen Anbieter, welcher Künstliche Intelligenz nutzt, um gefälschte Rezensionen auf Shopping-Plattformen wie Amazon und eBay zu erkennen. Nach eigenen Angaben nutzen derzeit über eine Million Menschen Fakespot.

Über den Kaufpreis liegen keine Informationen vor. Das aktuelle Team, welches aus 13 Mitarbeitern besteht, soll aber vollständig übernommen und im Laufe der Zeit sogar vergrößert werden.

Sowohl die Browser-Erweiterungen für Firefox, Chrome und Safari als auch die Apps für Android und iOS soll es weiterhin geben. Darüber hinaus sollen aber auch noch spezielle Funktionen exklusiv für Firefox entwickelt und direkt in den Mozilla-Browser integriert werden.

Der Beitrag Gegen Fake-Bewertungen beim Online-Shopping – Mozilla kauft Fakespot erschien zuerst auf soeren-hentzschel.at.

KI-Wochenrückblick KW 18/2023

07. Mai 2023 um 17:00

Eine weitere Woche ist vergangen, in der sich in der KI-Welt wieder viel bewegt hat. Im heutigen Wochenrückblick wird der Fokus auf dem Thema liegen, das seit Wochen heiß diskutiert wird: Open Source.

Open-Source-Trend

Ich habe ja schon in den vergangenen Wochen angemerkt, dass der Trend weiter in Richtung Open-Source-Modelle geht. Die Arbeit mit neuronalen Netzen ist in der Regel kreativ und experimentell und da war es bisher ein Hindernis, dass die Modelle aufgrund der hohen Parameterzahl so groß waren. Genau diesen Umstand konnten kommerzielle Akteure ausnutzen und damit einen "Burggraben" ziehen, auf den ich nachher noch eingehen werde. Große KI-Modelle lassen sich nur mit hohem finanziellen Aufwand ausführen und schon gar nicht auf normaler Hardware trainieren.

Seit Metas LLaMA scheint dieser Damm allerdings gebrochen zu sein. Mit LLaMA wurde ein hochwertiges Modell der Allgemeinheit freigegeben, wenn auch unter einer sehr restriktiven nicht-kommerziellen Lizenz. Da die Gewichte (also das Blut in den Venen des Modells, d. h. Architektur + Gewichte = nutzbares Produkt) allerdings ausgewählten Forschern der Öffentlichkeit zur Verfügung gestellt wurden, dauert es nicht lange, bis sie geleakt wurden. Für quasi alle.

Die Folgen waren ganz interessant: die Community begann, die Modelle auszuprobieren. Als Erstes wurde mit llama.cpp die Quantisierung populär: wenn wir sowieso schon mit Unschärfe arbeiten, wird die Präzision nachrangig und es ist nicht mehr erheblich, ob wir 32-Bit-Floats oder 8-Bit-Floats nutzen. Reduzieren wir die Bits pro Gewicht, reduzieren wir die Modellgröße im (GPU-)RAM und machen das Modell verarbeitbarer. Schlagartig wird ein vortrainiertes Modell wie LLaMA sogar auf CPUs lauffähig und zum sog. Foundation Model, das nun für einen bestimmten Zweck nachtrainiert werden kann. Auch hier hat die Community Techniken wie LoRA angewandt, die den Trainingsaufwand reduzieren.

Dabei stellt sich schnell die Frage, wie weit die großen Firmen noch voraus sind. Glaubt man dem geleakten Memo eines Google-Engineers, schätzt er ein, dass der Burggraben (engl. Moat) nicht mehr so groß ist. Er glaubt zudem auch, dass das gleiche für OpenAI gilt. Der Economic Moat ist im übrigen ein Begriff von Warren Buffet und symbolisiert den Wettbewerbsvorteil von Unternehmen.

Neue Open-Source-Modelle

Metas LLaMA kann man nicht klassisch als "Open Source" bezeichnen, weil die Lizenz restriktiv ist und das Teilen der Gewichte zum Beispiel verbietet. Ich weiß, dass "freie Modelle" (im Sinne von "freie Software") anstatt "Open Source" die korrektere Wortwahl wäre, möchte mich aber an den Begriffen der Community halten.

Während der Zeit enstanden einige Fine-tunings (Nachtrainings), die auf speziellen Datasets beruhten, die tatsächlich frei waren. Besonders ist hier Databricks' Dolly-15k hervorzuheben. Allerdings werden finegetunte Modelle auf LLaMA-Basis nicht freier als LLaMA selber, weswegen es sich nur um eine Zwischenlösung handelte.

Das war Stand Anfang April 2023. Nun gibt es Modelle, die von Grund auf so trainiert und lizenziert wurden, dass es eine einheitliche Lizenz gibt. In dieser Woche kamen viele neue Modelle diesbezüglich heraus, darunter:

  • StarCoder von HuggingFace für Programmieraufgaben,
  • RedPajama-INCITE von Together AI als freier LLaMA-Nachbau und
  • MPT-7B von MosaicML als weiteres freies Foundation Model.

Das Transformer-Framework von HuggingFace ist gut geeignet, um die Modelle zu testen und Anleitungen in den Model Cards helfen beim Einstieg.

OMR23

Nächste Woche werde ich auch auf der OMR23 in Hamburg sein. Auch das Thema künstliche Intelligenz und deren Auswirkungen wird dort präsent sein. Wer auch auf der OMR ist, kann mich gerne via Mail oder LinkedIn anschreiben, sodass man sich eventuell treffen kann!

❌
❌