Normale Ansicht

Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Ältere BeiträgeHaupt-Feeds

OpenAI aktualisiert ChatGPT auf April 2023

07. November 2023 um 08:41

OpenAI hat ChatGPT Plus mit Informationen versorgt, die bis April 2023 reichen. Das Update des Chatbots bringt weitere Neuerungen mit.

So können Plus-Kunden nun alle Services wie Dall-E, Browsing und Datenanalyse ohne lästiges Umschalten an einem Ort finden, teilt OpenAI mit. Außerdem ließen sich nun PDFs und andere Dokumente anhängen und durchsuchen lassen, heißt es weiter.

Eine große Neuerung sieht der Anbieter auch in den benutzerdefinierten Versionen von ChatGPT, die man für einen bestimmten Zweck erstellen kann, sogenannte GPTs. GPTs seien eine neue Möglichkeit, eine maßgeschneiderte Version von ChatGPT zu erstellen, die bei bestimmten Aufgaben hilfreich sei. GPTs könnten etwa helfen, die Regeln eines Brettspiels zu lernen oder Kindern Mathematik beizubringen. Die GPTs ließen sich dann mit anderen Nutzern teilen, heißt es weiter.

Noch im November soll ein GPT-Store öffnen, in dem Kreationen von verifizierten Erstellern angeboten werden, teilt OpenAI mit. Sobald die GPTs im Store seien, ließen sie sich durchsuchen und in Bestenlisten einteilen. Man wolle dann die nützlichsten und schönsten GPTs in Kategorien wie Produktivität, Bildung und “nur zum Spaß” vorstellen. Nutzer, die GPTs kreieren könnten damit dann auch Geld verdienen können, je nachdem, wie viele Leute Ihr GPT nutzen, heißt es weiter.

Der Beitrag OpenAI aktualisiert ChatGPT auf April 2023 erschien zuerst auf Linux-Magazin.

Risiken von LI: OpenAI richtet Preparedness-Team ein

30. Oktober 2023 um 10:52

OpenAI, das Unternehmen hinter ChatGPT, weist erneut auf die Risiken von KI und Artificial General Intelligence (AGI) hin. Um bestehende und künftige dieser Risiken durch weitere Verbesserungen der KI-Modelle zu minimieren, bauen man ein neues Team namens Preparedness auf.

Das Preparedness-Team soll eine enge Verbindung zwischen Fähigkeitsbewertung, Evaluierung und internem Red-Teaming für Pioniermodelle herstellen, die wir in naher Zukunft entwickeln, bis hin zu solchen mit Fähigkeiten auf AGI-Niveau, teilt OpenAI mit. Das Team soll dabei helfen, katastrophale Risiken zu verfolgen, zu bewerten, vorherzusagen und sich vor ihnen zu schützen. Als Kategorien für diese Arbeit sind individualisierte Überzeugungsarbeit, Cybersecurity, CBRN-Bedrohungen (chemische, biologische, radiologische und nukleare) nebst Autonomer Replikation und Anpassung (ARA) genannt.

Zu den Aufgaben des Preparedness-Teams gehöre auch die Entwicklung und Pflege einer risikoinformierten Entwicklungspolitik (RDP, Risk-Informed Development Policy). In der RDP soll der Ansatz für die Entwicklung strenger Bewertungen und Überwachung der Fähigkeiten von Modellen, die Schaffung eines Spektrums von Schutzmaßnahmen und die Einrichtung einer Governance-Struktur für die Rechenschaftspflicht und Aufsicht über diesen Entwicklungsprozess detailliert beschrieben werden.

Der Beitrag Risiken von LI: OpenAI richtet Preparedness-Team ein erschien zuerst auf Linux-Magazin.

OpenAI DevDay angekündigt

08. September 2023 um 08:32

OpenAI, das Unternehmen hinter ChatGPT lädt zur ersten Entwicklerkonferenz, dem OpenAI DevDay, am 6. November 2023 in San Francisco ein.

Die eintägige Veranstaltung soll Entwickler aus der ganzen Welt mit dem Team von OpenAI zusammenbringen. In San Francisco wolle man neue Tools vorstellen und Ideen auszutauschen, kündigt das Unternehmen an. Die Teilnehmer sollen auch die Möglichkeit haben, an Breakout-Sessions teilzunehmen, die von den technischen Mitarbeitern von OpenAI geleitet werden.

Über zwei Millionen Entwickler würden GPT-4, GPT-3.5, DALL-E und Whisper für eine Vielzahl von Anwendungsfällen nutzen, teilt OpenAI mit. “Wir freuen uns darauf, unsere neueste Arbeit vorzustellen, die es Entwicklern ermöglicht, neue Dinge zu entwickeln”, sagt Sam Altman, CEO von OpenAI.

Weitere Informationen gibt es unter devday.openai.com.

Der Beitrag OpenAI DevDay angekündigt erschien zuerst auf Linux-Magazin.

Unternehmen können GPT-3.5 feinabstimmen

23. August 2023 um 07:57

OpenAI hat verlautbart, dass die Feinabstimmung für GPT-3.5 Turbo jetzt verfügbar sei. Das Update ermögliche es Entwicklern Modelle anzupassen, die für ihre Anwendungsfälle besser geeignet seien.

Tests hätten gezeigt, dass eine fein abgestimmte Version von GPT-3.5 Turbo die Fähigkeiten der Basisversion von GPT-4 bei bestimmten Aufgaben erreichen oder sogar übertreffen, teilt OpenAI mit. Die Daten, die über die Feinabstimmungs-API ein- und ausgehen, gehörten ausschließlich dem Kunden und würden weder von OpenAI noch von einer anderen Organisation zum Training anderer Modelle verwendet, erklärt OpenAI.

Die Feinabstimmung ermöglicht es den Unternehmen, das Modell dazu zu bringen, Anweisungen besser zu befolgen, etwa die Ausgaben knapp zu halten oder immer in einer bestimmten Sprache zu antworten.

Zudem sei es möglich, die Fähigkeit des Modells zu verbessern, Antworten konsistent zu formatieren. Das sei ein entscheidender Aspekt für Anwendungen, die ein bestimmtes Antwortformat erfordern, wie etwa die Codevervollständigung oder das Zusammenstellen von API-Aufrufen. Ein Entwickler könne die Feinabstimmung dann etwa nutzen, um Benutzeraufforderungen zuverlässiger in hochwertige JSON-Schnipsel umzuwandeln, die mit seinen eigenen Systemen verwendet werden können.

Neben der gesteigerten Leistung ermöglicht die Feinabstimmung den Unternehmen auch die Verkürzung ihrer Prompts bei gleicher Leistung, heißt es weiter.  Tester hätten die Größe der Prompts um bis zu 90 Prozent reduziert, indem sie die Anweisungen im Modell selbst feinabgestimmt haben, was jeden API-Aufruf beschleunige und die Kosten senke. Die Feinabstimmung für GPT-4 folge im Herbst.

Der Beitrag Unternehmen können GPT-3.5 feinabstimmen erschien zuerst auf Linux-Magazin.

OpenAI übernimmt Global Illumination

18. August 2023 um 08:27

OpenAI, das Unternehmen hinter ChatGPT hat eigenen Angaben zufolge das Team von Global Illumination übernommen. Das von Thomas Dimson, Taylor Gordon und Joey Flynn gegründeten Startup Global Illumination ist ein Unternehmen, das kreative Tools und Infrastrukturen rund um künstliche Intelligenz entwickelt.

Laut OpenAI ist das gesamte Team übernommen worden, und soll sich nun der Arbeit an den Kernprodukten einschließlich ChatGPT widmen. Global Illumination habe schon früh Produkte für Instagram und Facebook entwickelt und auch bei YouTube, Google, Pixar, Riot Games und anderen namhaften Unternehmen wichtige Beiträge geleistet.

Zuletzt hat sich das Startup das Browserspiel Biomes entwickelt, ein quelloffenes Sandbox-MMORPG im Mindcraft-Stil. Finanzielle Details zur Übernahme sind nicht bekannt.

Der Beitrag OpenAI übernimmt Global Illumination erschien zuerst auf Linux-Magazin.

OpenAI empfiehlt GPT-4 für Contentmoderation

17. August 2023 um 07:04

Die Moderation von Inhalten ist eine arbeitsintensive Aufgabe für Betreiber digitaler Plattformen und für die Moderatoren kann es belastend sein. KI-Anbieter OpenAI sieht dafür eine Lösung: Das Eigengewächs GPT-4.

Das Sprachmodell GPT-4 könne etwa Richtlinienänderungen viel schnelleren bearbeiten und in Stunden erledigen, was sonst Monate dauern können, lässt OpenAI wissen. GPT-4 sei außerdem in der Lage, Regeln und Nuancen in langen Dokumenten zu Inhaltsrichtlinien zu interpretieren und sich sofort an Aktualisierungen der Richtlinien anzupassen. KI könne damit helfen, den Online-Verkehr gemäß den plattformspezifischen Richtlinien zu moderieren und die mentale Belastung einer großen Anzahl menschlicher Moderatoren verringern, heißt es im Blogbeitrag weiter. Jeder mit OpenAI-API-Zugang könne diesen Ansatz implementieren, um sein eigenes KI-gestütztes Moderationssystem zu schaffen, schreibt OpenAI.

Indem sie die Diskrepanzen zwischen den Urteilen von GPT-4 und denen eines Menschen untersuchen, könnten die Richtlinienexperten GPT-4 auffordern, die Gründe für seine Bezeichnungen zu nennen, die Mehrdeutigkeit in den Richtliniendefinitionen zu analysieren, Unklarheiten zu beseitigen und die Richtlinie entsprechend zu präzisieren, heißt es weiter. Im Blogbeitrag ist ein Beispiel zu sehen, wie GPT-4 einen Text einstuft und auch die Begründung weshalb.

Der Beitrag OpenAI empfiehlt GPT-4 für Contentmoderation erschien zuerst auf Linux-Magazin.

OpenAI-Anleitung zum Blockieren des GPTBot

08. August 2023 um 09:34

OpenAI hat eine Anleitung veröffentlicht, wie Webseiten das Crawlen durch den GPTBot vrhindern können.

Wie OpenAI mitteilt, würden Webseiten, die mit dem GPTBot-Benutzer-Agenten gecrawlt wurden, potenziell dazu beitragen, das Modell von ChatGPT zu verbessern. OpenAI führt weiter aus, dass die vom Bot gesammelten Informationen gefiltert würden. Dabei entferne man etwa Quellen, die einen die einen Paywall-Zugang erfordern. Auch solche, von denen bekannt sei, dass sie persönlich identifizierbare Informationen sammeln, oder Text enthalten, der gegen die OpenAI-Richtlinien verstossen, landeten im Filter, heißt es weiter.

Wer dem GPTBot den Zugang zu seiner Website gewähren, könne den KI-Modellen helfen, genauer zu werden und ihre allgemeinen Fähigkeiten und Sicherheit zu verbessern. Wer den GPTBot den Zugang verweigern wolle, könne dies mit einem Eintrag in die robots.txt tun oder mit der Blockade von IP-Adressen des Bots.

In der robots.txt sei dazu folgender Eintrag geeignet:

User-agent: GPTBot

Disallow: /

Die IP-Adressen des Bots, die es zu blockieren gilt, finden sich auf dieser Seite.

Der Beitrag OpenAI-Anleitung zum Blockieren des GPTBot erschien zuerst auf Linux-Magazin.

OpenAI zieht AI Classifier zurück

27. Juli 2023 um 07:59

Der AI Classifier war dazu gedacht, Texte zu erkennen, die von künstlicher Intelligenz geschrieben worden sind. Jetzt hat OpenAI, das Unternehmen hinter ChatGPT das Tool zurückgezogen. Es sei zu ungenau gewesen, heißt es.

Ab sofort sei der AI Classifier aufgrund seiner geringen Genauigkeit nicht mehr verfügbar, lässt OpenAI wissen. Man arbeite nun daran, das Feedback zu analysieren und erforsche derzeit effektivere Verfahren zur Herkunftsbestimmung von Texten, heißt es in der knappen Ankündigung.  Außerdem haben OpenAI sich jenseits der Texterkennung auch verpflichtet, Mechanismen zu entwickeln und einzusetzen, die es den Nutzern ermöglichen, zu erkennen, ob Audio- oder visuelle Inhalte KI-generiert seien.

Schon beim Start des Classifiers Ende Januar hatte das Unternehmen darauf hingewiesen, dass der Classifier in internen Tests mit einem “Challenge Set” englischer Texte nur 26 Prozent der von der KI geschriebenen Texte korrekt als “wahrscheinlich von der KI geschrieben” klassifiziert habe. Von Menschen geschriebene Texte seien in 9 Prozent der Fälle fälschlicherweise als von der KI geschrieben eingestuft worden (falsch positiv).

Der Beitrag OpenAI zieht AI Classifier zurück erschien zuerst auf Linux-Magazin.

OpenAI schließt Partnerschaft mit dem American Journalism Project

20. Juli 2023 um 09:24

OpenAI, die Organisation hinter ChatGPT, stellt nach eigenen Angaben dem American Journalism Project (AJP) 5 Millionen Dollar zur Verfügung, um zu untersuchen, wie die Entwicklung künstlicher Intelligenz (KI) einen “innovativen lokalen Nachrichtenbereich unterstützen kann”.

Weitere bis zu 5 Millionen Dollar sind in Form von OpenAI-API-Gutschriften geplant, um den geförderten Organisationen zu helfen, neue KI-Technologien in ihren Organisationen zu bewerten und einzusetzen.Die Zusammenarbeit ziele darauf ab, einen Dialog zwischen der lokalen Nachrichtenbranche und OpenAI aufzubauen und Tools zu entwickeln, die lokale Nachrichtenorganisationen unterstützen könnten.

“Um sicherzustellen, dass der Lokaljournalismus eine wesentliche Säule unserer Demokratie bleibt, müssen wir uns über die potenziellen Möglichkeiten und Fallstricke neuer Technologien im Klaren sein”, sagte Sarabeth Berman, CEO des American Journalism Project. “In diesen frühen Tagen der generativen KI haben wir die Möglichkeit, dafür zu sorgen, dass lokale Nachrichtenorganisationen und ihre Communities an der Gestaltung ihrer Auswirkungen beteiligt werden. Mit dieser Partnerschaft wollen wir Wege aufzeigen, wie KI den Journalismus verbessern und nicht gefährden kann.”

AJP und sein Portfolio lokaler Nachrichtenorganisationen werden die Mittel von OpenAI nutzen, um mit der Anwendung von künstlicher Intelligenz auf verschiedene Weise zu experimentieren.

Unter anderem soll ein Technologie- und KI-Studio eingerichtet werden. AJP will dafür ein Team zusammenstellen, das die Anwendungen von KI im Bereich der Lokalnachrichten bewerten soll. Das Studio werde den AJP-Portfolio-Organisationen Experten-Coaching bieten, während sie erforschen, wie sie KI-Tools am besten nutzen können. Es soll zudem eine Zusammenarbeit und eine Feedbackschleife mit externen Partnern wie OpenAI und Anbietern geben, die an KI-Anwendungen arbeiten, die hochwertigen Journalismus unterstützen und die Verbreitung von Fehlinformationen verhindern. Als Teil dieser Arbeit werde das Studio eine Lerngemeinschaft im gesamten AJP-Portfolio organisieren, um bewährte Praktiken, Richtlinien und Erfahrungen zu dokumentieren und auszutauschen, während sich die Experimente entwickeln, teilt das AJP mit.

Der Beitrag OpenAI schließt Partnerschaft mit dem American Journalism Project erschien zuerst auf Linux-Magazin.

OpenAI macht GPT-45-API verfügbar

07. Juli 2023 um 08:10

Wie OpenAI bekannt gibt, haben ab sofort alle zahlenden API-Kunden Zugang zu GPT-4. Auf die im März eingeführte ChatGPT-API hatte bislang nur ein eingeschränkter Kreis Zugang.

Es habe inzwischen auch Updates für die chatbasierten Modelle gegeben, berichtet OpenAI in einem Beitrag weiter und kündig gleichzeitig einen Plan zur Abschaffung älterer Modelle der Completions-API an.

Den Zugang zur ChatGPT-API können laut OpenAI alle bestehenden API-Entwickler mit einer erfolgreichen Zahlungshistorie auf die GPT-4-API mit 8K-Kontext zugreifen. Für neue Entwickler soll der Zugang bis Ende dieses Monats geöffnet werden und dann die Ratenlimits je nach Verfügbarkeit von Rechenleistung anzuheben.

Zudem sollen auch GPT-3.5 Turbo-, DALL-E- und Whisper-APIs allgemein verfügbar werden. Man arbeite daran, die Feinabstimmung für GPT-4 und GPT-3.5 Turbo sicher zu ermöglichen, heißt es, mit einem Zugang sei noch in diesem Jahr zu rechnen.

Der Beitrag OpenAI macht GPT-45-API verfügbar erschien zuerst auf Linux-Magazin.

WinGPT: KI-Assistent für Windows 3.1

Von: jdo
27. Juni 2023 um 06:38

Nein, am heutigen 26. Juni 2023 ist nicht der 1. April. Das ist kein Scherz … jemand hat tatsächlich KI-Integration für Windows 3.1 entwickelt. Das ist so balla balla, dass es schon wieder geil ist. WinGTP ist ein KI-Assistent, für Windows 3.1, der auf Deinem 386er läuft. Damit kannst Du nach eigenen Angaben: So ist WinGTP entstanden und so funktioniert es Der Entwickler erklärt, dass WinGPT in C geschrieben ist und das Standard-Windows-API benutzt. Als Compiler wurde Open Watcom v2 […]

Der Beitrag WinGPT: KI-Assistent für Windows 3.1 ist von bitblokes.de.

OpenAI startet Cybersecurity-Programm

05. Juni 2023 um 10:04

OpenAI, das Unternehmen hinter der KI-Anwednung ChatGPT hat eine mit einer Million US-Dollar hinterlegte Cybersecurity-Initiative gestartet. Das Cybersecurity Grant Program soll zur Förderung und Quantifizierung von KI-gestützten Cybersicherheitsfähigkeiten dienen und den Diskurs über KI und Cybersicherheit ankurbeln.

Ziel sei es, mit den Verteidigern der Sicherheit auf der ganzen Welt zusammenzuarbeiten, um die Machtdynamik der Cybersicherheit durch die Anwendung von KI und die Koordination von Gleichgesinnten, die sich für die gemeinsame Sicherheit einsetzen, zu verändern, schreiben führende Mitarbeiter von OpenAI.

Das Programm ziele darauf ab, sicherzustellen, dass modernste KI-Fähigkeiten in erster Linie den Verteidigern von Cybersicherheit zugutekommen und nicht den Angreifern. Man arbeite auch an der Entwicklung von Methoden zur Quantifizierung der Cybersicherheitsfähigkeiten von KI-Modellen, um deren Wirksamkeit besser zu verstehen und zu verbessern.

Nicht zuletzt sei man bestrebt, die Diskussionen an der Schnittstelle zwischen KI und Cybersicherheit zu fördern und ein umfassendes und differenziertes Verständnis der Herausforderungen und Möglichkeiten in diesem Bereich zu schaffen, heißt es weiter.

OpenAI will die Anträge auf Finanzierung oder sonstige Unterstützung fortlaufend bewerten. Praktische Anwendungen von KI in der defensiven Cybersicherheit (Tools, Methoden, Prozesse) werde man stark bevorzugen. Man gewähre Zuschüsse in Höhe von 10.000 US-Dollar aus einem Fonds von 1 Million Dollar.

Im Blogpost sind mögliche Tätigkeitsfelder für Projekte für KI- und Sicherheitsexperten genannt, die sich an der Initiative beteiligen wollen. Vorschläge können dann auf einer eigenen Webseite eingereicht werden.

Der Beitrag OpenAI startet Cybersecurity-Programm erschien zuerst auf Linux-Magazin.

Gefährlich wie ein Atomkrieg – Erneute Warnung vor KI-Risiken

31. Mai 2023 um 07:54

Mehrere hundert Experten aus Wissenschaft, Industrie und weiteren Bereichen haben in einem drastischen Statement vor den Gefahren der künstlichen Intelligenz (KI) gewarnt.

Das Risiko des Aussterbens der Menschheit durch KI zu minimieren sollte neben anderen solchen Risiken wie Pandemien und Atomkrieg globale Priorität bekommen, fordern die Unterzeichner des Statements. Darunter befinden sich die für KI zuständigen Manager von Google, Microsoft, OpenAI und weiteren namhaften Unternehmen, die mit KI befasst sind. Außerdem sind viele Wissenschaftler dabei und auch der KI-Forscher Geoffrey Hinton, der bei Google maßgeblich an der Entwicklung von KI beteiligt war, das Unternehmen aber verlassen hat. Hinton hat für seine Forschung an Deep neuronal Networks zusammen mit dem ebenfalls bei den Unterzeichnern vertretenen Yoshua Bengio den Turing Award erhalten. Das Statement ist auf der Website eines Center for AI-Safety veröffentlicht. Dieses Zentrum für KI-Sicherheit sei eine gemeinnützige Einrichtung, deren Aufgabe es sei, die von KI ausgehenden Risiken für die Gesellschaft zu verringern. Dies geschehe durch Forschung und Feldarbeit.

Das knappe Statement solle es KI-Experten, Journalisten, politischen Entscheidungsträger und der Öffentlichkeit ermöglichen, ohne Hindernisse über Bedenken und schwerwiegendste Risiken der fortgeschrittenen KI zu sprechen. Die Erklärung solle auch eine Diskussion in Gang bringen und die wachsende Zahl von Experten und Persönlichkeiten des öffentlichen Lebens bekannt machen, die die Risiken der KI ebenfalls ernst nehmen.

Warnungen von Personen, die eng mit KI verbunden sind, wie dem OpenAI-Chef Sam Altman, tauchen inzwischen öfter auf.  Altman etwa fordert eine Regulierung von KI.

Der Beitrag Gefährlich wie ein Atomkrieg – Erneute Warnung vor KI-Risiken erschien zuerst auf Linux-Magazin.

OpenAI plädiert für Steuerung der Superintelligenz

23. Mai 2023 um 08:20

Sam Altman, CEO von OpenAI, dem Unternehmen hinter ChatGPT und die Mitgründer Greg Brockman und Ilya Sutskever treten für eine Kontrolle und Steuerung der Entwicklungen von künstlicher Intelligenz ein.

Die Superintelligenz, die KI darstellt, werde in Bezug auf die potenziellen Vor- als auch die Nachteile mächtiger sein als andere Technologien, mit denen die Menschheit in der Vergangenheit zu kämpfen hatte, schreiben die drei Informatiker in ihrem Beitrag. Diese Technologie könne eine dramatisch wohlhabendere Zukunft ermöglichen, es gelte aber die Risiken beherrschen, um dorthin zu gelangen. Das Risiko beschreiben die Autoren des Beitrags drastisch als existenziell. Und deshalb könne man nicht nur reaktiv sein. KI vergleichen sie mit der Kernenergie, die ein häufig verwendetes historisches Beispiel für eine Technologie mit dieser Eigenschaft sei. Auch die synthetische Biologie sei ein Beispiel.

In ihrem Blogbeitrag sehen die drei OpenAI-Gründer drei Pfeiler, wie sich KI zum Wohle der Menschheit nutzen lässt, ohne die Risiken zu übersehen.

Erstens brauche es ein gewisses Maß an Koordinierung zwischen den führenden Entwicklungsanstrengungen, um sicherzustellen, dass die Entwicklung der Superintelligenz in einer Weise erfolge, die die Aufrechterhaltung der Sicherheit als auch eine reibungslose Integration dieser Systeme in die Gesellschaft ermöglichen würden. Es könnten dafür etwa große Regierungen auf der ganzen Welt ein Projekt ins Leben rufen, an dem sich viele aktuelle Bemühungen beteiligen. Oder man könnten sich darauf einigen, dass die Wachstumsrate der KI-Fähigkeiten auf eine bestimmte Rate pro Jahr begrenzt ist.

Zweitens werden es wohl eine Art IAEO (Internationale Atomenergie-Organisation) für die Superintelligenz brauchen. Alles was etwa eine bestimmte Fähigkeitsschwelle überschreite, müssen einer internationalen Behörde unterstellt werden, die Systeme inspizieren, Audits verlangen, die Einhaltung von Sicherheitsstandards prüfen könne, fordern das Trio. Diese Organisation müsse dann auch Beschränkungen für den Einsatzgrad und das Sicherheitsniveau auferlegen können. Die Nachverfolgung des Rechen- und Energieverbrauchs könnte dafür einen wichtigen Beitrag leisten. In einem ersten Schritt könnten sich die Unternehmen freiwillig verpflichten, mit der Umsetzung von Elementen dessen zu beginnen, was eine solche Agentur eines Tages verlangen könnte, und in einem zweiten Schritt könnten die einzelnen Länder dies umsetzen, heißt es im Beitrag.

Drittens brauche es technischen Möglichkeiten, um KI sicher zu machen. Dies sei eine offene Forschungsfrage, mit der sich OpenAI und andere intensiv befassen würden.

Die Steuerung der leistungsfähigsten Systeme sowie die Entscheidungen über ihren Einsatz müssen einer starken öffentlichen Kontrolle unterliegen, glauben die Autoren. Angesichts der Risiken und Schwierigkeiten lohne es sich auch, darüber nachzudenken, warum wir diese Technologie überhaupt entwickeln. Bei OpenAI gebe es zwei Gründe dafür. Man glaube, dass sie zu einer viel besseren Welt führen wird, als wir sie uns heute vorstellen können. Die Welt stehe vor vielen Problemen, zu deren Lösung man Hilfe brauchen werden; diese Technologie könne unsere Gesellschaften verbessern. Das Wirtschaftswachstum und die Steigerung der Lebensqualität werden erstaunlich sein, heißt es im Beitrag.

Zweitens glauben man, dass es riskant und schwierig wäre, die Entwicklung der Superintelligenz zu stoppen. Da die Vorteile so enorm seien, die Kosten für ihren Aufbau jedes Jahr sinken würden, die Zahl der Akteure, die sie aufbauen, rapide zunehme und sie bereits Teil des technologischen Weges ist, auf dem wir uns befinden, würde ihr Stoppen so etwas wie ein globales Überwachungssystem erfordern, und selbst das sei nicht garantiert.

Der Beitrag OpenAI plädiert für Steuerung der Superintelligenz erschien zuerst auf Linux-Magazin.

Open-Source-Tools von Nvidia sollen Chatbots sicherer machen

02. Mai 2023 um 06:10

“NeMo Guardrails” heißt das Toolkit von Nvidia, dass der Grafikspezialist unter einer Open-Source-Lizenz veröffentlicht hat. Damit sollen Chatbots sicherer werden.

NeMo Guardrails soll sich bei der Entwicklung sicherer und vertrauenswürdiger LLM-Konversationssysteme bewähren, teilt Nvidia mit. Die Sicherheit in der generativen KI sei ein branchenweites Anliegen und NeMo Guardrails sei so entwickelt worden, dass es mit allen LLMs funktioniere, einschließlich ChatGPT von OpenAI.

Dieses Leitplanken-Toolkit setze auf von der Community erstellten Werkzeugen wie LangChain. Die Toolkits würden kombinierbare und einfach zu verwendende Vorlagen und Muster anbieten, um LLM-gestützte Anwendungen zu erstellen. Dabei könnten LLMs, APIs und andere Softwarepakete zusammengebaut werden, so Nvidia in einem Blogbeitrag.

Mit dem Toolkit ließen sich Regeln aufstellen, um das Verhalten von Chatbots auf Nutzereingaben zu definieren. Derzeit gebe es die drei Regelsätze Topical, Safety und Security. Topical weise den Chatbot an, auf ein bestimmtes Thema konzentriert zu bleiben und nicht in unerwünschte Bereiche abschweifen. Security-Leitplanken würden dafür sorgen, dass Interaktionen mit einem LLM nicht zu Fehlinformationen, toxischen Reaktionen oder unangemessenen Inhalten führen. Security-Regeln verhinderten, dass ein LLM bösartigen Code ausführe oder eine externe Anwendung auf eine Weise aufrufe, die ein Sicherheitsrisiko darstellt.

Der Beitrag Open-Source-Tools von Nvidia sollen Chatbots sicherer machen erschien zuerst auf Linux-Magazin.

OpenAI: Chat-Historie bei ChatGPT abschaltbar

27. April 2023 um 11:15

OpenAI hat die Option eingeführt, den Chatverlauf in ChatGPT zu deaktivieren. Auch soll es ein neues Business-Modell mit besserem Datenschutz geben.

Mit der Option, den Verlauf zu deaktivieren, werden Unterhaltungen, die bei deaktiviertem Chatverlauf begonnen werden, nicht zum Trainieren und Verbessern der Sprachmodelle verwendet. Auch erscheinen diese Chats auch nicht in der Verlaufs-Seitenleiste, berichtet OpenAI in einem Blogbeitrag. Diese Kontrollen seien ab sofort für alle Benutzer verfügbar und seien in den Einstellungen von ChatGPT zu finden, heißt es weiter.

OpenAI hofft, dadurch eine einfachere Möglichkeit anzubieten, um persönliche Daten der Nutzer zu verwalten als das bisherige Opt-Out-Verfahren. Wenn Nutzer den Chatverlauf deaktivieren, bewahre man die neuen Unterhaltungen 30 Tage lang auf, um sie bei Bedarf auf Missbrauch zu kontrollieren, bevor sie endgültig gelöscht würden, heißt es weiter.

OpenAI arbeitet nach eigenem Bekunden auch an einem neuen ChatGPT Business-Abonnement für Profis, die mehr Kontrolle über ihre Daten benötigen, sowie für Unternehmen, die ihre Endnutzer verwalten möchten. ChatGPT Business folge den Datenverwendungsrichtlinien der API, was bedeute, dass die Daten der Endnutzer standardmäßig nicht zum Trainieren der Modelle verwendet würden. ChatGPT Business soll in den kommenden Monaten verfügbar sein, heißt es weiter.

Außerdem soll es in den Einstellungen eine neue Export-Option einfacher machen, ChatGPT-Daten zu exportieren und damit zu verstehen, welche Informationen ChatGPT speichere. Mit der Option erhalte man eine Datei mit den Chats und allen anderen relevanten Daten per E-Mail.

Der Beitrag OpenAI: Chat-Historie bei ChatGPT abschaltbar erschien zuerst auf Linux-Magazin.

OpenAI legt Bug Bounty Programm auf

13. April 2023 um 09:13

Das hinter ChatGPT stehende Unternehmen OpenAI hat ein Bug Bounty Programm gestartete. Die Geldprämien hängen laut OpenAI vom Schweregrad und den Auswirkungen der gemeldeten Probleme ab. Die Belohnungen reichen von 200 US-Dollar für weniger schwerwiegende Entdeckungen bis zu 20.000 US-Dollar für außergewöhnliche Entdeckungen.

Das Bug Bounty Programm sei eine Möglichkeit, die wertvollen Erkenntnisse von Sicherheitsforschern anzuerkennen und zu belohnen, die dazu beitragen, unsere Technologie und unser Unternehmen sicher zu halten, schreibt OpenAI.

Das Programm wird mit Bugcrowd als Partner abgewickelt, einer Bug-Bounty-Plattform. Der Melde- und Belohnungsprozess solle damit für alle Teilnehmer möglichst reibungslos funktionieren. Detaillierte Richtlinien und Regeln für die Teilnahme finden Interessierte auf der Bug Bounty Programm Seite von OpenAI. Dort weist OpenAI insbesondere auch darauf hin, dass Probleme, die sich auf den Inhalt von Prompts und Antworten der KI beziehen, nicht in den Geltungsbereich des Programms fallen und nicht belohnt werden, es sei denn, sie haben zusätzliche, direkt nachweisbare Sicherheitsauswirkungen auf einen Dienst, heißt es. Es genügt also nicht, der KI nur eine falsche Antwort zu entlocken, um eine Belohnung zu erhalten.

Der Beitrag OpenAI legt Bug Bounty Programm auf erschien zuerst auf Linux-Magazin.

OpenAI behebt Fehler, der Nutzern fremde Daten anzeigte

24. März 2023 um 09:13

Nachdem anderen Nutzern kurze Zusammenfassungen von ChatGPT-Konversationen angezeigt wurden, konnte OpenAI das Problem beheben.

Der ChatGPT-Entwickler OpenAI hat einen Fehler behoben, bei dem die Daten anderer Nutzer eingesehen werden konnten. Zwischenzeitlich deaktivierte das Unternehmen die Chatverlaufsfunktion von ChatGPT, da die Titel der Konversationen anderen Nutzern angezeigt wurden. Zuerst berichtete die Nachrichtenagentur Reuters.

Bekannt wurde der Fehler über Screenshots von fremden ChatGPT-Konversationen, die auf Reddit und Twitter veröffentlicht wurden. Ein Sprecher von OpenAI, dem ChatGPT-Hersteller, bestätigte der Nachrichtenagentur Bloomberg den Vorfall.

Er betonte, dass der Fehler nicht zu einer Weitergabe der vollständigen Transkripte von Unterhaltungen mit dem Chatbot geführt habe, sondern nur kurze beschreibende Titel weitergegeben worden seien.

Laut einem Tweet von OpenAI-CEO Sam Altman wurde das Problem durch “einen Fehler in einer Open-Source-Bibliothek” verursacht. Der Fehler in der nicht namentlich genannten Bibliothek sowie in ChatGPT sei behoben worden. Zwischenzeitlich wurde der ChatGPT-Dienst beziehungsweise die Chatverlaufsfunktion deaktiviert. In Folge des Fixes könnten Nutzer allerdings ihre Chatverläufe vom 20. März zum Teil nicht mehr einsehen, schreibt Altman.

Der Fehler sei eine wichtige Erinnerung daran, keine sensiblen Daten mit ChatGPT zu teilen, schreibt das Onlinemagazin The Verge und verweist auf eine entsprechende Stelle in den FAQ von OpenAI. Das Unternehmen könne bestimmte Eingaben nicht aus dem Verlauf löschen, zudem könnten die Unterhaltungen zu Schulungszwecken verwendet werden, heißt es in der FAQ.

Der Beitrag OpenAI behebt Fehler, der Nutzern fremde Daten anzeigte erschien zuerst auf Linux-Magazin.

OpenAI veröffentlicht GPT-4

14. März 2023 um 17:21

Kurz notiert: soeben hat OpenAI GPT-4 angekündigt. Das Modell ist in ChatGPT+ verfügbar, API-Nutzer können sich bereits auf einer Warteliste eintragen. Neuerungen sind u. a. die größere Anzahl an Tokens und die Fähigkeiten, auch Grafiken zu verarbeiten – das Modell wird somit multimodal.

Die Fähigkeiten werden heute in einem Livestream um 1 PM PT bzw. 21 Uhr deutscher Zeit vorgestellt. Der Livestream ist auf YouTube verfügbar.

Das Paper zu GPT-4 wurde ebenso veröffentlicht.

❌
❌