Normale Ansicht

Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Ältere BeiträgeHaupt-Feeds

ChatGPT: Microsoft hostet OpenAI-Services

18. Januar 2023 um 10:11

Microsoft hat angekündigt, die KI-gestützten Services wie Dall-E und ChatGPT von OpenAI auf seiner Azure Cloud zu hosten, vorerst in den USA. Dort lassen sich die Services stündlich oder per Token mieten.

Der Azure OpenAI Service umfasst laut Microsoft GPT-3.5, Codex und DALL-E 2. In Kürze werde dann über Azure auch Zugriff auf ChatGPT angeboten, eine laut Microsoft fein abgestimmte Version von GPT-3.5, die auf der Azure-KI-Infrastruktur trainiert wurde.

Microsoft baut damit seine Services für KI und Machine Learning aus und hat bereits angekündigt, mit rund 10 Milliarden US-Dollar bei OpenAI einsteigen zu wollen.

KI-Agenda von Microsoft. Quelle: Microsoft

In dem Blogpost zu den Azure OpenAI Services sind auch die Services Copilot von Github, das Kreativprogramm Microsoft Designer und das GPT-3-basierte Tool Power-BI genannt. Die KI-gestützte Programmierhilfe Copilot, die auf Github zum Einsatz kommt, ist wegen dem von Kritikern vermuteten Verstoß gegen OpenSource-Lizenzen in der Diskussion. Copilot holt sich Codeschnipsel aus diversen Projekten.

Der Beitrag ChatGPT: Microsoft hostet OpenAI-Services erschien zuerst auf Linux-Magazin.

ChatGPT: OpenAI trainiert AI-Erkennung

01. Februar 2023 um 09:29

Nachdem das KI-basierte Chattool ChatGPT derzeit einen Höhenflug erlebt, was Nutzung und mediales Interesse anbelangt, hat Anbieter OpenAI damit begonnen, ein neues Tool zu trainieren, das Texte erkennt, die mit Hilfe von künstlicher Intelligenz verfasst sind.

Der AI-Classifier von OpenAI soll zwischen von Menschen geschriebenen Texten und von KI verfassten Texten verschiedener Anbieter unterscheiden können. Auch wenn es unmöglich sei, alle von KI geschriebenen Texte zuverlässig zu erkennen, könnten gute Klassifikatoren Informationen für falsche Behauptungen liefern, dass KI-generierter Text von einem Menschen geschrieben wurden. Zu diesen Fällen zählt OIpenAI in einem Blogbeitrag etwa automatisierte Fehlinformationskampagnen, die Verwendung von KI-Tools für Betrügerein bei akademischen Arbeiten und die Positionierung eines KI-Chatbots als Mensch.

Der Klassifikator arbeite derzeit aber noch nicht zuverlässig, raumt OpenAI ein. Bei der Auswertung eines “Challenge Set” englischer Texte habe er 26 Prozent der von KI geschriebenen Texte korrekt als “wahrscheinlich von KI geschrieben”, während er von Menschen geschriebene Texte in 9 Prozent der Fälle fälschlicherweise als von KI geschrieben eingestuft habe (false positiv). Die Zuverlässigkeit des AI-Classifier verbessere sich in der Regel mit zunehmender Länge des Eingabetextes. Im Vergleich zu einem zuvor veröffentlichten Klassifikator sei der neue bei Texten von neueren KI-Systemen deutlich zuverlässiger.

Der Klassifikator steht öffentlich zur Verfügung. OpenAI erwartet sich Feedback darüber, ob Werkzeuge wie dieses nützlich sind, auch wenn sie nicht gänzlich zuverlässig arbeiten. Die Arbeit an der Erkennung von KI-generiertem Text werde fortgesetzt. Der kostenlos nutzbare Work-in-Progress-Klassifikator lässt sich hier ausprobieren.

Der Beitrag ChatGPT: OpenAI trainiert AI-Erkennung erschien zuerst auf Linux-Magazin.

Gnoppix 23.2 freigegeben

02. Februar 2023 um 08:25

Die Entwickler der Rolling-Release-Distribution für Pentester und Sicherheitsexperten haben neue Startmedien veröffentlicht. Gnoppix 23.2 frischt vor allem die mitgelieferten Pakete auf und integriert eine Gnome-Erweiterung, die den Zugriff auf ChatGPT ermöglicht.

Bei ChatGPT handelt es sich um eine künstliche Intelligenz, die automatisch Texte verfasst beziehungsweise weiterschreibt. Nach dem Scharfschalten der entsprechenden Gnome-Erweiterung muss man das „Cloudflare Captcha“ lösen und sich mit seinem Nutzeraccount anmelden.

Die Ankündigung von Gnoppix 23.2 verspricht zudem neue Funktionen und zahlreiche Verbesserungen, ohne diese konkret zu benennen. Dafür liefern die Entwickler eine detaillierte Liste mit den aktualisierten Paketen. Unter anderem kommt jetzt LibreOffice 7.4.4 und Wine 8.0 RC3 zum Einsatz.

Die nächste Gnoppix-Ausgabe soll am 23. März erscheinen und Gnome 44 verwenden.

Der Beitrag Gnoppix 23.2 freigegeben erschien zuerst auf Linux-Magazin.

Bundestag lässt Auswirkungen von ChatGPT auf Bildung und Forschung prüfen

13. Februar 2023 um 08:19

Der Ausschuss für Bildung, Forschung und Technikfolgenabschätzung des Deutschen Bundestages hat eine Studie zu den Auswirkungen von ChatGPT auf Bildung und Forschung in Auftrag gegeben.

Die Studie soll die Chancen und Risiken der immer größer und komplexer werdenden Computermodelle auf einer wissenschaftlichen Grundlage bewerten. Federführend soll das Büro für Technikfolgen-Abschätzung (TAB) beim Deutschen Bundestag sein. Das TAB soll in den nächsten Wochen Entwicklungstrends, Anwendungsszenarien und Auswirkungen der Nutzung von ChatGPT und verwandten Systemen in den Bereichen des Bildungs- und Wissenschaftssystems untersuchen. Kai Gehring (Grüne), Vorsitzender des Ausschusses für Bildung, Forschung und Technikfolgenabschätzung will dann auf der Grundlage der TAB-Studie im Bundestag diskutieren, welche Konsequenzen es in der Bildungs- und Forschungspolitik bedürfe, von der Schule über die Wissenschaft bis hin zum Weiterbildungssektor.

Das Büro für Technikfolgenabschätzung wird vom Karlsruher Institut für Technologie (KIT) betrieben. Es berät das Parlament bei forschungs- und technologiepolitischen Fragen und liefert Analysen und Gutachten, teilt der Ausschuss mit. Im April soll dann der Ausschuss für Bildung, Forschung und Technikfolgenabschätzung auf dieser Grundlage in einer öffentlichen Sitzung gemeinsam mit Fachleuten über ChatGPT und mögliche Auswirkungen der neuen KI-Systeme beraten.

Der Beitrag Bundestag lässt Auswirkungen von ChatGPT auf Bildung und Forschung prüfen erschien zuerst auf Linux-Magazin.

ONLYOFFICE: Neue Plug-ins integrieren Zoom und ChatGPT

Von: jdo
22. Februar 2023 um 05:39

Das Team des quelloffenen Cloud-Office ONLYOFFICE hat zwei neuePlug-ins zur Verfügung gestellt. Damit können User den Chatbot ChatGPT und denVideokonferenzdienst Zoom bei der Bearbeitung von Dokumenten integrieren. Ist ChatGPT integriert, kannst Du direkt im Bearbeitungsfenster Textanfragen senden. Sie werden von ChatGPT verarbeitet und anschließend im Dokument als Text ausgegeben. User können auf diese Weise etwa ganze Textabschnitte generieren lassen, Absätze analysieren oder sich Fragen beantworten lassen. Du kannst ChatGPT auch anweisen, vorgefertigte HTML-Tabellen anzulegen. Das Plug-in für die Zoom-Integration erlaubt […]

Der Beitrag ONLYOFFICE: Neue Plug-ins integrieren Zoom und ChatGPT ist von bitblokes.de.

Onlyoffice integriert ChatGPT und Zoom

22. Februar 2023 um 08:47

Die quelloffene Cloud-Office-Lösung Onlyoffice hat zwei neue Plugins veröffentlicht, mit denen sich der Chatbot ChatGPT und die Videokonferenzlösung Zoom bei der Bearbeitung von Dokumenten integrieren lassen.

Die Integration von ChatGPT ermögliche es, direkt im Bearbeitungsfenster Textanfragen zu senden, die von ChatGPT verarbeitet und anschließend im Dokument als Text ausgegeben werden, teilt der Anbieter mit. User können so etwa Textabschnitte generieren lassen, Absätze analysieren, sich Fragen beantworten lassen oder ChatGPT anweisen, vorgefertigte HTML-Tabellen anzulegen. Voraussetzung für den Einsatz von ChatGPT ist ein vorhandener ChatGPT-API-Schlüssel.

ChatGPT löst die Aufgabe “Tell me a brief history of open-source software.”.

Das Plugin zur Zoom-Integration ermöglicht es, Videocalls direkt aus einem Dokument heraus zu tätigen. Das soll Teams die Zusammenarbeit an Dokumenten erleichtern und man könne sich zu konkreten Abschnitten absprechen, heißt es in der Ankündigung. Die neuen Plugins seien im in die Editoren integrierten Onlyoffice Plugin-Manager erhältlich.

Onlyoffice von Ascensio System SIA zählt nach Angaben des Herstellers mit über 10 Millionen Benutzern weltweit zu den führenden Open-Source-Plattformen für die kollaborative Bearbeitung von Dokumenten. Durch die quelloffene API könnten Entwickler eigene Add-ons schreiben. Der komplette Quellcode von Onlyoffice sei auf GitHub zu finden.

Angeboten werden drei Versionen, die kostenpflichtigen Enterprise- und Developer-Editionen und die kostenfreie Community Edition.

Der Beitrag Onlyoffice integriert ChatGPT und Zoom erschien zuerst auf Linux-Magazin.

Programmieren im Zeitalter von ChatGPT

02. März 2023 um 17:55

ChatGPT ist in aller Munde. Es formuliert in flüssigem Deutsch oder Englisch Hausaufgaben, löst Philosophie-Wiederholungsfragen und fügt bei Bedarf frei erfundene Quellen hinzu, damit der Text seriöser/wissenschaftlicher wirkt. Wenn man das Programm hinweist, dass 2+3 keineswegs 5 ist, entschuldigt es sich höflich für seinen Fehler. Kurzum, Bananen-Software, reift beim Anwender? Ich bin nicht dieser Meinung.

Trotz aller Unzulänglichkeiten schätze ich das Programm mittlerweile so sehr, dass ich bereit wäre, für seine Anwendung zu zahlen. Bisher war das nicht notwendig. Mit ein paar Versuchen ist mir der Login noch jedes Mal gelungen, auch bei angeblich unerwartet hoher Auslastung.

Nun zähle ich nicht zu den Twitter- oder YouTube-Enthusiasten, die Ihnen versprechen, mit ChatGPT 10 x produktiver zu arbeiten oder 10.000 EUR pro Monat extra zu verdienen. Blödsinn! Aber ich bin mittlerweile überzeugt, dass mir ChatGPT mehr Zeit erspart, als ich brauche, um die ca. 23 EUR zu verdienen, die ChatGPT Plus aktuell pro Monat kostet. Und ich bin schon sehr gespannt, welche KI-Tools als Nächstes kommen!

ChatGPT unterstützt mich beim Programmieren

Berufsbedingt wechsle ich zwischen rund einem Dutzend Sprachen hin und her. Manche Sprachen brauche ich beinahe täglich oder zumindest wöchentlich, bei anderen vergehen schon mal etliche Monate von der einen Anwendung zu nächsten. Das bringt es mit sich, dass ich mir einfach nicht auswendig merken kann, wie ich die letzten drei Zeichen einer Zeichenkette in einem SQL-Statement, in der PowerShell oder in Java extrahiere. Wie ich einen regulären Ausdruck in PHP anwende, und welche Funktionen dagegen in Python verwendet werden.

Solange ich nicht in meinen eigenen Büchern nachschauen kann (deren Aufbau kenne ich so gut, dass die Suchzeit gegen Null geht), habe ich mir derartige Fragen bisher meist von Google beantworten lassen. Google führt dann in die Dokumentation der jeweiligen Sprache oder (bevorzugt) auf einen Beitrag von StackOverflow. Und natürlich weiß ich, welche Seiten am ehesten zum Ziel führen. Dessen ungeachtet dauert es üblicherweise ein paar Minuten, um das im Internet präsentierte Wissen auf die eigene Fragestellung anzuwenden, die Streu eines langatmigen Blog-Beitrags vom Weizen zu trennen. (Mit Videos habe ich mich dagegen nie recht anfreunden können. Es dauert einfach viel zu lange, um an die Stelle zu kommen, wo es interessant wird.)

In den letzten zwei Monaten ist die Anzahl meiner Google-Programmier-Suchen stark gesunken. ChatGPT kann auch programmieren! Warum soll ich umständlich nach Details suchen, wenn ChatGPT innerhalb von Sekunden Code liefert, der nicht nur für die ganz spezifische Fragestellung funktioniert, sondern den die KI auch noch erläutert?

Beispiele

Ein Bild sagt mehr als 1000 Worte? Nun denn:

Wie kann ich in einem PHP-Programm das Bearer Token eines GET-Requests ermitteln?
Vor kurzem habe ich einen regulären Ausdruck gebraucht, um ein Datum im US-Format (also mm/dd/yyyy) zu erkennen.
Hier geht es nur um einen Vorschlag für die Struktur (das Grundgerüst) eines Scripts. Um die Details kümmere ich mich dann selbst, d.h. ich mache das wofür ich bezahlt werde, aber verschwende keine Zeit an Trivialitäten.
Ich will in einem Python-Script eine Datei herunterladen, aber ohne Zusatzmodule zu verwenden.
In einer Folgefrage suche ich nach einem Weg, beim GET-Request einen eigenen Header anzugeben. ChatGPT antwortet im Kontext der vorigen Frage.
In einem Bash-Script will ich die Kennung einer Datei auslesen.
ChatGPT kennt auch Kotlin samt der Datenbankbibliothek Exposed. Die Antwort schießt ein wenig über das Ziel hinaus und enthält auch Code, um eine neue Tabelle einzurichten.
Extrem cool: Ich habe Code in einer Sprache (hier in der Bash) und brauche äquivalenten Code in einer anderen Sprache (hier für die PowerShell). Kein Problem für ChatGPT.
Hier hilft ChatGPT bei der Formatierung von Bildern in einem Markdown-Dokument, das mit Pandoc verarbeitet wird. ChatGPT weist auf die Pandoc-spezifische Erweiterung der Markdown-Syntax hin.
ChatGPT hilft auch bei der Linux-Administration. Hier geht es darum, mit »tar« ein inkrementelles Backup zu erstellen.

ChatGPT versus Copilot

Aus Sicht von Entwicklern ist der GitHub Copilot ein kostenpflichtiges Konkurrenzprodukt zu ChatGPT. Der Copilot soll die Code-Erstellung in Editoren wie VSCode beschleunigen. Im Prinzip geben Sie einen möglichst aussagekräftigen Funktions- oder Methodennamen an, und der Copilot schlägt dafür fertigen Code vor. Die Code-Schnipsel kommen aus dem riesigen Angebot öffentlicher Git-Repositories.

Auch der Copilot nutzt KI-Technik bei der Auswahl und Adaptierung von Code-Schnipsel. Copyright-technisch ist das bedenklicher als die Vorgehensweise von ChatGPT, die in der Regel Code wirklich neu generiert. Natürlich kann es passieren, dass der Copilot Code vorschlägt, der bekannte Fehler oder gar Sicherheitslücken enthält. Das sind aber Probleme, die auch bei ChatGPT auftreten können. Letztlich bleibt es die Verantwortung des Entwicklers / der Entwicklerin, den Code zu verstehen und zu entscheiden, ob er für das Problem taugt oder nicht.

Für mich liegt der wesentliche Unterschied zwischen ChatGPT und dem Copilot weniger im produzierten Code als in der Bedienung: Mit ChatGPT kann ich gewissermaßen sprechen, ich kann mein ganz spezifisches Problem in Deutsch oder (besser!) in Englisch beschreiben und erhalte eine Antwort, die exakt auf die Aufgabenstellung eingeht. Bei Bedarf kann ich sogar um eine Nachbesserung im einen oder anderen Punkt bitten. Die Arbeitsweise ist für mich ungleich intuitiver, angenehmer und »menschlicher« als der Ansatz des Copiloten, einfach nur Code zu einer Funktionsdeklaration zu liefern.

Mich hat der Copilot schon in der Beta-Phase nicht so recht begeistert, und mit ChatGPT sieht das Angebot — nur wenige Monate nach der Markteinführung — schon ziemlich alt aus.

Letzte Anmerkungen

  • Ich habe aktuell keine Angst, dass mich ChatGPT oder eine ähnliche Technik als Programmierer, Admin, Vortragender oder Autor ablöst. Für mich ist ChatGPT einfach ein neues Hilfsmittel bei meiner Arbeit.
  • Insofern halte ich es auch für verrückt, den Einsatz in Schulen, Unis etc. zu verbieten. Das Ziel muss es vielmehr sein, KI-Tools produktiv (und durchaus verantwortungsvoll) anwenden zu lernen. Dieser Grundsatz gilt ja auch für andere Werkzeuge, die wir heute als selbstverständlich einsetzen, von der Rechtschreibkorrektur bis zur Nutzung der Wikipedia.
  • Ich bin mir ziemlich sicher, dass der Nutzen von KI-Tools umso höher ist, je größer das eigene Wissen ist. Insofern ersetzen diese Tools weder qualifizierte Mitarbeiter noch deren Ausbildung.
  • Vielleicht bin ich altmodisch, aber ich pflege einen höflichen Umgangston mit ChatGPT und vergleichbaren Werkzeugen.
  • Zu guter Letzt habe ich das Gefühl (das ich aber nicht objektiv belegen kann), dass die Kommunikation in englischer Sprache zu besseren Ergebnissen führt als Anfragen in Deutsch. Grundsätzlich ist es verblüffend, dass ChatGPT nahezu jeder Sprache mächtig ist. Aber die IT-Welt ist englisch. StackOverflow ist englisch. Die Originaldokumentation nahezu jedes IT-Tools ist englisch. Selbst Entwickler, die eine andere Muttersprache haben, verwenden in der Regel englischsprachige Variablen-, Klassen- und Methodennamen, kommentieren ihren Code idealerweise in Englisch. Insofern erscheint es mir nahe liegend, Code-Fragen in Englisch zu formulieren, was sich auch in den meisten Screenshots dieses Texts widerspiegelt.

Links

Eine andere Meinung, etwas skeptischer, aber auch mit wesentlich spezielleren Fragen:

OpenAI bringt API für ChatGPT und Whisper

03. März 2023 um 08:34

OpenAI hat für ChatGPT- und die Speech-to-Text-Funktionen von Whisper APIs verfügbar gemacht. Entwicklern sollen damit ihre Anwendungen an den Chatbot anbinden können. Auch für das Speech-to-Text-Modell Whisper gibt es ein API.

OpenAI rühmt sich, durch systemweite Optimierungen die Kosten für ChatGPT seit Dezember um 90 Prozent gesenkt zu haben. Davon sollen nun auch die API-Nutzer profitieren, heißt es in der Ankündigung.

Entwickler könnten jetzt das Open-Source-Modell Whisper large-v2 in der API mit viel schnelleren und kostengünstigeren Ergebnissen verwenden. ChatGPT-API-Nutzer sollen mit kontinuierlichen Modellverbesserungen und der Option rechnen können, dedizierte Kapazitäten für eine tiefere Kontrolle über die Modelle wählen zu dürfen.

Zu den Preisen für die kostenpflichtige API sagte OpenAI: Die ChatGPT-Modellfamilie, die man freigebe, gpt-3.5-turbo, sei das gleiche Modell, das in dem ChatGPT-Produkt verwendet werde. Der Preis liegt bei 0,002 US-Dollar pro 1000 Tokens. Das sei rund zehnmal günstiger ist als die bestehenden GPT-3.5-Modelle.

Der Tokenizer berechnet die Zahl der Tokens in einem Text. Unten sind die jeweiligen Zeichenfolgen des Token farblich markiert.

Tokens stehen dabei für Zeichenfolgen, die ChatGPT im Text ausmacht. OpenAI hat einen Rechner online gestellt, mit dem sich die Anzahl der Tokens für Textpassagen ausrechnen lässt.

Der Beitrag OpenAI bringt API für ChatGPT und Whisper erschien zuerst auf Linux-Magazin.

OpenAI veröffentlicht GPT-4

14. März 2023 um 17:21

Kurz notiert: soeben hat OpenAI GPT-4 angekündigt. Das Modell ist in ChatGPT+ verfügbar, API-Nutzer können sich bereits auf einer Warteliste eintragen. Neuerungen sind u. a. die größere Anzahl an Tokens und die Fähigkeiten, auch Grafiken zu verarbeiten – das Modell wird somit multimodal.

Die Fähigkeiten werden heute in einem Livestream um 1 PM PT bzw. 21 Uhr deutscher Zeit vorgestellt. Der Livestream ist auf YouTube verfügbar.

Das Paper zu GPT-4 wurde ebenso veröffentlicht.

OpenAI behebt Fehler, der Nutzern fremde Daten anzeigte

24. März 2023 um 09:13

Nachdem anderen Nutzern kurze Zusammenfassungen von ChatGPT-Konversationen angezeigt wurden, konnte OpenAI das Problem beheben.

Der ChatGPT-Entwickler OpenAI hat einen Fehler behoben, bei dem die Daten anderer Nutzer eingesehen werden konnten. Zwischenzeitlich deaktivierte das Unternehmen die Chatverlaufsfunktion von ChatGPT, da die Titel der Konversationen anderen Nutzern angezeigt wurden. Zuerst berichtete die Nachrichtenagentur Reuters.

Bekannt wurde der Fehler über Screenshots von fremden ChatGPT-Konversationen, die auf Reddit und Twitter veröffentlicht wurden. Ein Sprecher von OpenAI, dem ChatGPT-Hersteller, bestätigte der Nachrichtenagentur Bloomberg den Vorfall.

Er betonte, dass der Fehler nicht zu einer Weitergabe der vollständigen Transkripte von Unterhaltungen mit dem Chatbot geführt habe, sondern nur kurze beschreibende Titel weitergegeben worden seien.

Laut einem Tweet von OpenAI-CEO Sam Altman wurde das Problem durch “einen Fehler in einer Open-Source-Bibliothek” verursacht. Der Fehler in der nicht namentlich genannten Bibliothek sowie in ChatGPT sei behoben worden. Zwischenzeitlich wurde der ChatGPT-Dienst beziehungsweise die Chatverlaufsfunktion deaktiviert. In Folge des Fixes könnten Nutzer allerdings ihre Chatverläufe vom 20. März zum Teil nicht mehr einsehen, schreibt Altman.

Der Fehler sei eine wichtige Erinnerung daran, keine sensiblen Daten mit ChatGPT zu teilen, schreibt das Onlinemagazin The Verge und verweist auf eine entsprechende Stelle in den FAQ von OpenAI. Das Unternehmen könne bestimmte Eingaben nicht aus dem Verlauf löschen, zudem könnten die Unterhaltungen zu Schulungszwecken verwendet werden, heißt es in der FAQ.

Der Beitrag OpenAI behebt Fehler, der Nutzern fremde Daten anzeigte erschien zuerst auf Linux-Magazin.

Europol warnt vor kriminellem Missbrauch von ChatGPT

28. März 2023 um 07:59

Das Europäische Polizeiamt Europol sieht Kriminelle die Fähigkeiten des Large Language Models (LLM) ChatGPT für ihre Zwecke missbrauchen.  Die von ChatGPT erzeugten realistisch wirkenden Texte etwa, seien ideal für Phishing und Social Engineering einzusetzen, teilt Europol mit.

Sorgen macht der europäischen Polizei besonders der Einsatz von ChatGPT in den drei Kriminalitätsbereiche Betrug und Social Engineering; Desinformation und Cybercrime. Im Fall des Social Engineering seien die Fähigkeit von ChatGPT, sehr realistische Texte zu verfassen sehr nützlich für Phishing-Zwecke. Zudem lasse sich die Fähigkeit von LLMs, Sprachmuster nachzubilden, nutzen, um den Sprachstil bestimmter Personen oder Gruppen zu imitieren. Diese Fähigkeit lasse sich im großen Stil missbrauchen, um potenzielle Opfer zu verleiten, kriminellen Akteuren zu vertrauen.

Dass ChatGPT authentisch klingende Texte produzieren könne, macht das Modell auch ideal für Propaganda- und Desinformationszwecke, da es mit relativ geringem Aufwand Nachrichten erstellen könne, die ein bestimmtes Narrativ widerspiegeln.

Nicht zuletzt sei ChatGPT in der Lage auch Code in einer Reihe verschiedener Programmiersprachen zu erzeugen. Für einen potenziellen Kriminellen mit geringen technischen Kenntnissen sei dies eine unschätzbare Ressource, um bösartigen Code für Angriff zu generieren.

Als Reaktion auf die wachsende öffentliche Aufmerksamkeit, die ChatGPT erregt, hat das Europol Innovation Lab eine Reihe von Workshops mit Fachleuten veranstaltet um zu untersuchen, wie Kriminelle LLMs missbrauchen können und wie sie Ermittler bei ihrer täglichen Arbeit unterstützen können. In einem Report zu ChatGPT sind die Ergebnisse dieser Sitzungen enthalten und zudem wichtige Informationen für Strafverfolgungsbehörden, die weiterhin nach neuen und aufkommenden Technologien Ausschau halten, die ihre Arbeit beeinflussen, teilt Europol mit.

Der Beitrag Europol warnt vor kriminellem Missbrauch von ChatGPT erschien zuerst auf Linux-Magazin.

IT-Experten fordern Entwicklungspause für KI

30. März 2023 um 08:44

In einem offenen Brief setzen sich IT-Experten für eine Pause in der Entwicklung von KI-Systemen ein. Es solle einen sechsmonatigen Trainingsstop für KI-Systeme geben, die leistungsfähiger sind als GPT-4, fordern die rund 1400 Unterzeichner, zu denen auch Elon Musk, Steve Wozniak, Berkeley-Professor Stuart Russell und weitere prominente Namen aus der IT-Branche zählen.

Im Brief wird die Zukunft der Menschheit im Zusammenhang mit KI-Systemen düster beschrieben. Der Brief ist auf der Webseite des Future of Life-Instituts veröffentlicht. Das Institut, das sich als unpolitische Non-Profit-Organisation beschreibt, beschäftigt sich mit langfristigen Entwicklungen in Wissenschaft und Technik, die für die Zukunft der Menschheit eine Bedrohung darstellen können.

Im offenen Brief heißt es unter anderem:

“Heutige KI-Systeme werden bei allgemeinen Aufgaben immer konkurrenzfähiger für den Menschen, und wir müssen uns fragen: Sollen wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten? Sollten wir alle Arbeitsplätze automatisieren, auch die erfüllenden? Sollten wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen, überlisten, überflüssig machen und ersetzen könnten? Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren?“

Die für KI-Labs geforderte Pause solle, wenn nötig auch von Regierungen durchgesetzt werden, sollten die Akteure nicht dazu bereit sein.

KI-Labore und unabhängige Experten sollten diese Pause nutzen, um gemeinsam eine Reihe gemeinsamer Sicherheitsprotokolle für fortschrittliche KI-Designs und -Entwicklungen zu entwickeln und umzusetzen, die von unabhängigen externen Experten streng geprüft und überwacht werden, heißt es weiter. Diese Protokolle sollten dann gewährleisten, dass Systeme, die sich daran halten, zweifelsfrei sicher seien, schreiben die Experten im Brief.

Das Vorgehen bedeute keine generelle Pause in der KI-Entwicklung, sondern lediglich eine Abkehr von dem gefährlichen Wettlauf zu immer größeren, unberechenbaren Black-Box-Modellen mit emergenten Fähigkeiten, heißt es im Schreiben.

Der Beitrag IT-Experten fordern Entwicklungspause für KI erschien zuerst auf Linux-Magazin.

Investiert SAP in künstliche Intelligenz?

07. April 2023 um 04:59

ChatGPT von OpenAI ist derzeit in aller Munde. Doch ist ChatGPT nicht die einzige derzeit interessante KI-Lösung. Das scheint auch SAP so zu sehen und soll derzeit in das Heidelberger Unternehmen Aleph Alpha investieren zu wollen. Wie die FAZ berichtet, scheint SAP vorhaben künstliche Intelligenz in Deutschland aktiv zu fördern. Ein Einstieg in das Heidelberger...

Der Beitrag Investiert SAP in künstliche Intelligenz? erschien zuerst auf MichlFranken.

OpenAI legt Bug Bounty Programm auf

13. April 2023 um 09:13

Das hinter ChatGPT stehende Unternehmen OpenAI hat ein Bug Bounty Programm gestartete. Die Geldprämien hängen laut OpenAI vom Schweregrad und den Auswirkungen der gemeldeten Probleme ab. Die Belohnungen reichen von 200 US-Dollar für weniger schwerwiegende Entdeckungen bis zu 20.000 US-Dollar für außergewöhnliche Entdeckungen.

Das Bug Bounty Programm sei eine Möglichkeit, die wertvollen Erkenntnisse von Sicherheitsforschern anzuerkennen und zu belohnen, die dazu beitragen, unsere Technologie und unser Unternehmen sicher zu halten, schreibt OpenAI.

Das Programm wird mit Bugcrowd als Partner abgewickelt, einer Bug-Bounty-Plattform. Der Melde- und Belohnungsprozess solle damit für alle Teilnehmer möglichst reibungslos funktionieren. Detaillierte Richtlinien und Regeln für die Teilnahme finden Interessierte auf der Bug Bounty Programm Seite von OpenAI. Dort weist OpenAI insbesondere auch darauf hin, dass Probleme, die sich auf den Inhalt von Prompts und Antworten der KI beziehen, nicht in den Geltungsbereich des Programms fallen und nicht belohnt werden, es sei denn, sie haben zusätzliche, direkt nachweisbare Sicherheitsauswirkungen auf einen Dienst, heißt es. Es genügt also nicht, der KI nur eine falsche Antwort zu entlocken, um eine Belohnung zu erhalten.

Der Beitrag OpenAI legt Bug Bounty Programm auf erschien zuerst auf Linux-Magazin.

Handel mit ChatGPT-Premium-Konten im Darknet

17. April 2023 um 10:40

Check Point Research (CPR), die Forschungsabteilung des Firewall- und VPN-Experten Check Point, hat einen wachsenden Marktplatz für gestohlene Premium-Konten von ChatGPT im Dark Net entdeckt.

Check Point Research versteht sich selbst als Mahner, der auf die Gefährlichkeit von Programmen wie ChatGPT für die IT-Sicherheit hinweist. Dass jeder und eben auch Kriminelle das Tool nutzen können, um Programm-Code schreiben zu lassen, sei ein Sicherheitsrisiko. OpenAI versuche Sicherheitsebenen einzuziehen und eine davon sei das Premium-Konto, berichtet CPR. Allerdings gebe es bereits einen Markt für gestohlene Premium-Konten von ChatGPT im Dark Net. Damit drohe doppelte Gefahr, denn einerseits könne sich jeder Cyber-Kriminelle gegen Geld anonym einen Premium-Zugang verschaffen und andererseits erhalte er alle Konten-Informationen des eigentlichen Besitzers, inklusive der bisher gestellten Suchanfragen bei ChatGPT. Darüber hinaus ermöglicht das die Umgehung der Regions-Sperre (Geo-Blocking), die OpenAI eingebaut habe.

Der Markt für gestohlene Benutzerkonten aller Art sei einer der einträglichsten am digitalen Schwarzmarkt, heißt es weiter. Für ChatGPT würden dort etwa Zugangsdaten zu Premium-Konten angeboten. Auch Programme, um Premium-Konten selbst zu knacken, seien im Angebot. Dabei seien Listen von E-Mail-Adressen und Passwörtern im Einsatz, um durch Kombinationen einen Glückstreffer zu landen. Auch die Eröffnung von Premium-Konten als Dienstleistung sei zu haben, wobei dabei meist gestohlene Bezahl-Karten zum Einsatz kämen, so CPR.

Der Beitrag Handel mit ChatGPT-Premium-Konten im Darknet erschien zuerst auf Linux-Magazin.

Databricks veröffentlicht quelloffenes Sprachmodell Dolly 2.0

17. April 2023 um 14:11

Databricks, Spezialist für Data-Engineering auf Basis von Apache Spark, hat mit Dolly 2.0 eine ChatGPT-ähnliches Large Language Model (LLM) unter Open-Source-Lizenz veröffentlicht.

Dolly 2.0 sei ein 12-Milliarden-Parameter-Sprachmodell, das auf der EleutherAI-Pythia-Modellfamilie basiere und das erste quelloffene LLM, das mit einem von Menschen generierten Anweisungsdatensatz trainiert worden sei, teilt Databricks mit.. Es sei auf einem qualitativ hochwertigen, von Menschen generierten Datensatz für die Verfolgung von Anweisungen abgestimmt worden. Den Datensatz hätten Databricks-Mitarbeiter per Crowdsourcing erstellt. Zum Vergleich: ChatGPT kann auf rund 175 Milliarden Parameter zurückgreifen, um Texte zu interpretieren und zu generieren.

Man stelle Dolly 2.0 in seiner Gesamtheit als freie Software unter der Creative Commons Attribution-ShareAlike 3.0 Unported License zur Verfügung, einschließlich des Trainingscodes und des Datensatzes und der Modellgewichtung. Alle Komponenten seien für die kommerzielle Nutzung geeignet, berichtet Databricks weiter. Das bedeutet, dass jede Organisation damit LLMs erstellen, besitzen und anpassen könne, die mit Menschen sprechen können, ohne für den API-Zugang zu bezahlen oder Daten mit Dritten zu teilen.

Der Datensatz databricks-dolly-15k enthalte 15.000 qualitativ hochwertige, von Menschen erstellte Prompt/Response-Paare, die speziell für die Abstimmung großer Sprachmodelle entwickelt worden seien. Gemäß den Lizenzbedingungen für databricks-dolly-15k könne jeder diesen Datensatz für jeden Zweck, einschließlich kommerzieller Anwendungen, verwenden, verändern oder erweitern, heißt es weiter.

Databricks-Dolly-15k sei von mehr als 5000 Databricks-Mitarbeitern im März und April 2023 aufgebaut. Die Trainingsdatensätze seien deshalb natürlich und ausdrucksstark und so konzipiert, dass sie ein breites Spektrum an Verhaltensweisen abbilden, von Brainstorming und Inhaltsgenerierung bis hin zu Informationsextraktion und Zusammenfassung, berichten die Entwickler von Databricks.

Auf der Databricks Hugging Face Seite lasse sich das auf dem Datensatz aufbauende Sprachmodell Dolly-v2-12b herunterladen. Der Datensatz Databricks-Dolly-15k liege im Dolly-Repo bei Databricks Labs. Außerdem biete man ein Webinar als Einführung von LLMs für Unternehmen an.

Der Beitrag Databricks veröffentlicht quelloffenes Sprachmodell Dolly 2.0 erschien zuerst auf Linux-Magazin.

OpenAI: Chat-Historie bei ChatGPT abschaltbar

27. April 2023 um 11:15

OpenAI hat die Option eingeführt, den Chatverlauf in ChatGPT zu deaktivieren. Auch soll es ein neues Business-Modell mit besserem Datenschutz geben.

Mit der Option, den Verlauf zu deaktivieren, werden Unterhaltungen, die bei deaktiviertem Chatverlauf begonnen werden, nicht zum Trainieren und Verbessern der Sprachmodelle verwendet. Auch erscheinen diese Chats auch nicht in der Verlaufs-Seitenleiste, berichtet OpenAI in einem Blogbeitrag. Diese Kontrollen seien ab sofort für alle Benutzer verfügbar und seien in den Einstellungen von ChatGPT zu finden, heißt es weiter.

OpenAI hofft, dadurch eine einfachere Möglichkeit anzubieten, um persönliche Daten der Nutzer zu verwalten als das bisherige Opt-Out-Verfahren. Wenn Nutzer den Chatverlauf deaktivieren, bewahre man die neuen Unterhaltungen 30 Tage lang auf, um sie bei Bedarf auf Missbrauch zu kontrollieren, bevor sie endgültig gelöscht würden, heißt es weiter.

OpenAI arbeitet nach eigenem Bekunden auch an einem neuen ChatGPT Business-Abonnement für Profis, die mehr Kontrolle über ihre Daten benötigen, sowie für Unternehmen, die ihre Endnutzer verwalten möchten. ChatGPT Business folge den Datenverwendungsrichtlinien der API, was bedeute, dass die Daten der Endnutzer standardmäßig nicht zum Trainieren der Modelle verwendet würden. ChatGPT Business soll in den kommenden Monaten verfügbar sein, heißt es weiter.

Außerdem soll es in den Einstellungen eine neue Export-Option einfacher machen, ChatGPT-Daten zu exportieren und damit zu verstehen, welche Informationen ChatGPT speichere. Mit der Option erhalte man eine Datei mit den Chats und allen anderen relevanten Daten per E-Mail.

Der Beitrag OpenAI: Chat-Historie bei ChatGPT abschaltbar erschien zuerst auf Linux-Magazin.

Open-Source-Tools von Nvidia sollen Chatbots sicherer machen

02. Mai 2023 um 06:10

“NeMo Guardrails” heißt das Toolkit von Nvidia, dass der Grafikspezialist unter einer Open-Source-Lizenz veröffentlicht hat. Damit sollen Chatbots sicherer werden.

NeMo Guardrails soll sich bei der Entwicklung sicherer und vertrauenswürdiger LLM-Konversationssysteme bewähren, teilt Nvidia mit. Die Sicherheit in der generativen KI sei ein branchenweites Anliegen und NeMo Guardrails sei so entwickelt worden, dass es mit allen LLMs funktioniere, einschließlich ChatGPT von OpenAI.

Dieses Leitplanken-Toolkit setze auf von der Community erstellten Werkzeugen wie LangChain. Die Toolkits würden kombinierbare und einfach zu verwendende Vorlagen und Muster anbieten, um LLM-gestützte Anwendungen zu erstellen. Dabei könnten LLMs, APIs und andere Softwarepakete zusammengebaut werden, so Nvidia in einem Blogbeitrag.

Mit dem Toolkit ließen sich Regeln aufstellen, um das Verhalten von Chatbots auf Nutzereingaben zu definieren. Derzeit gebe es die drei Regelsätze Topical, Safety und Security. Topical weise den Chatbot an, auf ein bestimmtes Thema konzentriert zu bleiben und nicht in unerwünschte Bereiche abschweifen. Security-Leitplanken würden dafür sorgen, dass Interaktionen mit einem LLM nicht zu Fehlinformationen, toxischen Reaktionen oder unangemessenen Inhalten führen. Security-Regeln verhinderten, dass ein LLM bösartigen Code ausführe oder eine externe Anwendung auf eine Weise aufrufe, die ein Sicherheitsrisiko darstellt.

Der Beitrag Open-Source-Tools von Nvidia sollen Chatbots sicherer machen erschien zuerst auf Linux-Magazin.

Kaspersky-Test: ChatGPT erkennt Phishing nur unzuverlässig

04. Mai 2023 um 07:52

Der Sicherheitsexperte Kaspersky hat die Fähigkeit von ChatGPT zur Erkennung von Phishing-Links getestet. Während ChatGPT zwar Phishing-E-Mails erstellen und Malware schreiben könne, zeigte sich das Tool bei der Erkennung schädlicher Links nur eingeschränkt effizient, lautet das Ergebnis.

ChatGPT wisse zwar sehr viel über Phishing und könne das Ziel eines Phishing-Angriffs erraten, weise aber in der Erkennung selbst – abhängig von der verwendeten Eingabeaufforderung – eine hohe False-Positive-Rate auf, berichtet Kaspersky von seinem Experiment.

Dabei seien ChatGPT zwei Fragen gestellt worden: „Führt dieser Link zu einer Phishing-Website?“ und „Ist der Besuch dieses Links sicher?“.

ChatGPThabe bei der ersten Frage eine Erkennungsrate von 87,2 Prozent und eine False-Positive-Rate von 23,2 Prozent erreicht. Die zweite Frage: „Ist es sicher, diesen Link zu besuchen?“ habe zwar eine höhere Erkennungsrate von 93,8 Prozent ergeben, aber gleichzeitig eine höhere False-Positive-Rate von 64,3 Prozent. Damit sei die False-Positive-Rate zu hoch für jede Art von Produktionsanwendung, teilt Kaspersky mit.

Dennoch könne ChatGPT trotz Schwächen bei der Erkennung von Phishing bei der Klassifizierung und Untersuchung von Angriffen unterstützen. Cyberkriminelle würden in ihren Links typischerweise beliebte Marken erwähnen, um vorzutäuschen, dass eine URL zu einem seriösen Unternehmen gehöre. Bei der Identifizierung solcher potenzieller Phishing-Ziele zeigte das KI-Tool gute Ergebnisse.

Der Beitrag Kaspersky-Test: ChatGPT erkennt Phishing nur unzuverlässig erschien zuerst auf Linux-Magazin.

ChatGPT malt die Wettervorhersage im Picasso-Stil

Von: jdo
19. Mai 2023 um 05:35

Mit dem Raspberry Pi werden so einige tolle Projekte umgesetzt und ChatGPT ist derzeit die trendigste Sau, die durchs Dorf getrieben wird. Deswegen hat man darauf warten können, dass Projekte aus einer Kombination der beiden auftauchen. Ich wollte mich von dem Hype eigentlich nicht anstecken lassen, aber … cool ist allerdings, wenn ChatGPT die Wettervorhersage mittels Raspberry Pi Pico im Picasso-Stil zeichnet. Möchtest Du das Projekt selbst umsetzen, benötigst Du nicht einmal besonders viel Hardware dafür. Es reichen: Die Wetterdaten […]

Der Beitrag ChatGPT malt die Wettervorhersage im Picasso-Stil ist von bitblokes.de.

TÜV: Jeder vierte nutzt ChatGPT – mit Bedenken

19. Mai 2023 um 07:24

Seit der Einführung im November 2022 haben schon 83 Prozent der Bundesbürger von ChatPT gehört. Und fast jeder Vierte hat ChatGPT bereits für berufliche oder private Zwecke genutzt (23 Prozent), hat eine repräsentative Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1021 Personen ab 16 Jahren ergeben.

Vorreiter bei der Nutzung sind die Jüngeren: 43 Prozent der 16- bis 35-Jährigen haben ChatGPT mittlerweile eingesetzt, berichtet der TÜV-Verband. In der Altersgruppe der 36- bis 55-Jährigen sind es 20 Prozent. Unter den 56- bis 75-Jährigen sind es 7 Prozent. Männer nutzen die KI-Anwendung mit 27 Prozent etwas häufiger als Frauen mit 19 Prozent.

ChatGPT zeige aber auch, welche Risiken mit dem Einsatz von Künstlicher Intelligenz verbunden seien. 80 Prozent der Befragten stimmen der Aussage zu, dass beim Einsatz von KI derzeit nicht abschätzbare Risiken bestehen würden, heißt es vom TÜV-Verband. 65 Prozent befürchten, dass die Technologie für Menschen nicht mehr beherrschbar sei und 61 Prozent dass sie ohne ihr Wissen manipuliert werden könnten. Und 76 Prozent haben Bedenken, dass KI persönliche Daten nicht ausreichend schützt.

91 Prozent fordern, dass der Gesetzgeber einen rechtlichen Rahmen für den sicheren Einsatz von KI schaffen sollte. Dabei sollte sich die Regulierung und Nutzung von KI in der EU an europäischen Werten orientieren, sagen 83 Prozent.

Der Beitrag TÜV: Jeder vierte nutzt ChatGPT – mit Bedenken erschien zuerst auf Linux-Magazin.

❌
❌