Meta Llama 3.1 405B soll Maßstäbe setzen
Meta will mit dem freien Large Language Model Meta Llama 3.1 405B eine neue Ära einläuten, in der Open Source den Weg vorgibt und nicht länger in Bezug auf Leistung und Fähigkeiten hinter den…
Meta will mit dem freien Large Language Model Meta Llama 3.1 405B eine neue Ära einläuten, in der Open Source den Weg vorgibt und nicht länger in Bezug auf Leistung und Fähigkeiten hinter den…
OpenAI hat GPT-4o mini angekündigt, den Nachfolger von GPT-3.5 Turbo. Der Anbieter bezeichnet GPT-4o mini als günstiger und schneller.
Experten des Security-Anbieters Sophos haben ein Benchmark-System zur Einschätzung des Nutzens von Large-Language-Modelle (LLMs) für die Cybersicherheit erstellt.
Die Fähigkeiten von Open-Source-KI-Modellen nähern sich immer mehr der Leistung der proprietären Konkurrenz an und übertreffen diese teils.
Github Copilot Chat ist sowohl für Visual Studio Code als auch für Visual Studio allgemein verfügbar, teilt der zu Microsoft gehörende Anbieter mit.
OpenAI hat verlautbart, dass die Feinabstimmung für GPT-3.5 Turbo jetzt verfügbar sei. Das Update ermögliche es Entwicklern Modelle anzupassen, die für ihre Anwendungsfälle besser geeignet seien.
Tests hätten gezeigt, dass eine fein abgestimmte Version von GPT-3.5 Turbo die Fähigkeiten der Basisversion von GPT-4 bei bestimmten Aufgaben erreichen oder sogar übertreffen, teilt OpenAI mit. Die Daten, die über die Feinabstimmungs-API ein- und ausgehen, gehörten ausschließlich dem Kunden und würden weder von OpenAI noch von einer anderen Organisation zum Training anderer Modelle verwendet, erklärt OpenAI.
Die Feinabstimmung ermöglicht es den Unternehmen, das Modell dazu zu bringen, Anweisungen besser zu befolgen, etwa die Ausgaben knapp zu halten oder immer in einer bestimmten Sprache zu antworten.
Zudem sei es möglich, die Fähigkeit des Modells zu verbessern, Antworten konsistent zu formatieren. Das sei ein entscheidender Aspekt für Anwendungen, die ein bestimmtes Antwortformat erfordern, wie etwa die Codevervollständigung oder das Zusammenstellen von API-Aufrufen. Ein Entwickler könne die Feinabstimmung dann etwa nutzen, um Benutzeraufforderungen zuverlässiger in hochwertige JSON-Schnipsel umzuwandeln, die mit seinen eigenen Systemen verwendet werden können.
Neben der gesteigerten Leistung ermöglicht die Feinabstimmung den Unternehmen auch die Verkürzung ihrer Prompts bei gleicher Leistung, heißt es weiter. Tester hätten die Größe der Prompts um bis zu 90 Prozent reduziert, indem sie die Anweisungen im Modell selbst feinabgestimmt haben, was jeden API-Aufruf beschleunige und die Kosten senke. Die Feinabstimmung für GPT-4 folge im Herbst.
Der Beitrag Unternehmen können GPT-3.5 feinabstimmen erschien zuerst auf Linux-Magazin.
Die Moderation von Inhalten ist eine arbeitsintensive Aufgabe für Betreiber digitaler Plattformen und für die Moderatoren kann es belastend sein. KI-Anbieter OpenAI sieht dafür eine Lösung: Das Eigengewächs GPT-4.
Das Sprachmodell GPT-4 könne etwa Richtlinienänderungen viel schnelleren bearbeiten und in Stunden erledigen, was sonst Monate dauern können, lässt OpenAI wissen. GPT-4 sei außerdem in der Lage, Regeln und Nuancen in langen Dokumenten zu Inhaltsrichtlinien zu interpretieren und sich sofort an Aktualisierungen der Richtlinien anzupassen. KI könne damit helfen, den Online-Verkehr gemäß den plattformspezifischen Richtlinien zu moderieren und die mentale Belastung einer großen Anzahl menschlicher Moderatoren verringern, heißt es im Blogbeitrag weiter. Jeder mit OpenAI-API-Zugang könne diesen Ansatz implementieren, um sein eigenes KI-gestütztes Moderationssystem zu schaffen, schreibt OpenAI.
Indem sie die Diskrepanzen zwischen den Urteilen von GPT-4 und denen eines Menschen untersuchen, könnten die Richtlinienexperten GPT-4 auffordern, die Gründe für seine Bezeichnungen zu nennen, die Mehrdeutigkeit in den Richtliniendefinitionen zu analysieren, Unklarheiten zu beseitigen und die Richtlinie entsprechend zu präzisieren, heißt es weiter. Im Blogbeitrag ist ein Beispiel zu sehen, wie GPT-4 einen Text einstuft und auch die Begründung weshalb.
Der Beitrag OpenAI empfiehlt GPT-4 für Contentmoderation erschien zuerst auf Linux-Magazin.
OpenAI hat für seine Sprachmodelle GPT-3.5-Turbo und GPT-4 Funktionsupdates und günstigere Preise angekündigt.
GPT steht als Sprachmodell auch hinter den Tools ChatGPT von OpenAI und Bing von Microsoft. Mit der Preisreduzierung soll das Embedding-Modell um 75 Prozent günstiger werden. Die Eingabe-Tokens für GPT-3.5-Turbo seien um 25 Prozent günstiger. Bei GPT-3.5-Turbo kommt ein Update auf eine 16k-Kontext-Version gegenüber der Standard-4k-Version. Das bedeutet, dass sich die Kontextlänge vervierfacht und das zum doppelten Preis, teilt OpenAI mit. 16k-Kontext bedeute, dass das Modell nun ungefähr 20 Seiten in einem einzelnen Request verarbeiten kann.
Beim nach Angaben von OpenAI beliebtesten Modell „text-embedding-ada-002“ werde man die Kosten ab sofort um 75 Prozent auf 0,0001 US-Dollar pro 1000 Tokens senken.
Bei GPT-3.5-Turbo, dem beliebtesten Chat-Modell senke man die Kosten für Eingabe-Tokens um 25 Prozent. Entwickler könnten dieses Modell jetzt für 0,0015 US-Dollar pro 1000 Input-Tokens und 0,002 Dollar pro 1K Output-Tokens verwenden, was ungefähr 700 Seiten pro Dollar entspreche.
GPT-3.5-Turbo-16k werde zu einem Preis von 0,003 Dollar pro 1K Input-Token und 0,004 Dollar pro 1K Output-Token angeboten, heißt es weiter.
Mit Function Calling bringen GPT-4-0613 und GPT-3.5-turbo-0613 eine neue Funktion mit, über die Entwickler Funktionen beschreiben können und das Modell kann dann ein JSON-Objekt mit Argumenten zum Aufruf dieser Funktionen ausgeben. Dies sei eine neue Möglichkeit, die Fähigkeiten von GPT mit externen Tools und APIs zu verbinden.
OpenAI nennt als Beispiel dass man jetzt Abfragen wie “Schreiben Sie Anya eine E-Mail, um zu erfahren, ob sie nächsten Freitag einen Kaffee trinken möchte” in einen Funktionsaufruf wie send_email(to: string, body: string) oder “Wie ist das Wetter in Boston?” in get_current_weather(location: string, unit: ‘celsius’ | ‘fahrenheit’) konvertieren kann.
Im Blogbeitrag sind weitere Möglichkeiten beschrieben.
Der Beitrag OpenAI: Updates und Preissenkungen für GPT-4 und GPT-3.5-Turbo erschien zuerst auf Linux-Magazin.
OpenAI hat die Option eingeführt, den Chatverlauf in ChatGPT zu deaktivieren. Auch soll es ein neues Business-Modell mit besserem Datenschutz geben.
Mit der Option, den Verlauf zu deaktivieren, werden Unterhaltungen, die bei deaktiviertem Chatverlauf begonnen werden, nicht zum Trainieren und Verbessern der Sprachmodelle verwendet. Auch erscheinen diese Chats auch nicht in der Verlaufs-Seitenleiste, berichtet OpenAI in einem Blogbeitrag. Diese Kontrollen seien ab sofort für alle Benutzer verfügbar und seien in den Einstellungen von ChatGPT zu finden, heißt es weiter.
OpenAI hofft, dadurch eine einfachere Möglichkeit anzubieten, um persönliche Daten der Nutzer zu verwalten als das bisherige Opt-Out-Verfahren. Wenn Nutzer den Chatverlauf deaktivieren, bewahre man die neuen Unterhaltungen 30 Tage lang auf, um sie bei Bedarf auf Missbrauch zu kontrollieren, bevor sie endgültig gelöscht würden, heißt es weiter.
OpenAI arbeitet nach eigenem Bekunden auch an einem neuen ChatGPT Business-Abonnement für Profis, die mehr Kontrolle über ihre Daten benötigen, sowie für Unternehmen, die ihre Endnutzer verwalten möchten. ChatGPT Business folge den Datenverwendungsrichtlinien der API, was bedeute, dass die Daten der Endnutzer standardmäßig nicht zum Trainieren der Modelle verwendet würden. ChatGPT Business soll in den kommenden Monaten verfügbar sein, heißt es weiter.
Außerdem soll es in den Einstellungen eine neue Export-Option einfacher machen, ChatGPT-Daten zu exportieren und damit zu verstehen, welche Informationen ChatGPT speichere. Mit der Option erhalte man eine Datei mit den Chats und allen anderen relevanten Daten per E-Mail.
Der Beitrag OpenAI: Chat-Historie bei ChatGPT abschaltbar erschien zuerst auf Linux-Magazin.
In einem offenen Brief setzen sich IT-Experten für eine Pause in der Entwicklung von KI-Systemen ein. Es solle einen sechsmonatigen Trainingsstop für KI-Systeme geben, die leistungsfähiger sind als GPT-4, fordern die rund 1400 Unterzeichner, zu denen auch Elon Musk, Steve Wozniak, Berkeley-Professor Stuart Russell und weitere prominente Namen aus der IT-Branche zählen.
Im Brief wird die Zukunft der Menschheit im Zusammenhang mit KI-Systemen düster beschrieben. Der Brief ist auf der Webseite des Future of Life-Instituts veröffentlicht. Das Institut, das sich als unpolitische Non-Profit-Organisation beschreibt, beschäftigt sich mit langfristigen Entwicklungen in Wissenschaft und Technik, die für die Zukunft der Menschheit eine Bedrohung darstellen können.
Im offenen Brief heißt es unter anderem:
“Heutige KI-Systeme werden bei allgemeinen Aufgaben immer konkurrenzfähiger für den Menschen, und wir müssen uns fragen: Sollen wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten? Sollten wir alle Arbeitsplätze automatisieren, auch die erfüllenden? Sollten wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen, überlisten, überflüssig machen und ersetzen könnten? Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren?“
Die für KI-Labs geforderte Pause solle, wenn nötig auch von Regierungen durchgesetzt werden, sollten die Akteure nicht dazu bereit sein.
KI-Labore und unabhängige Experten sollten diese Pause nutzen, um gemeinsam eine Reihe gemeinsamer Sicherheitsprotokolle für fortschrittliche KI-Designs und -Entwicklungen zu entwickeln und umzusetzen, die von unabhängigen externen Experten streng geprüft und überwacht werden, heißt es weiter. Diese Protokolle sollten dann gewährleisten, dass Systeme, die sich daran halten, zweifelsfrei sicher seien, schreiben die Experten im Brief.
Das Vorgehen bedeute keine generelle Pause in der KI-Entwicklung, sondern lediglich eine Abkehr von dem gefährlichen Wettlauf zu immer größeren, unberechenbaren Black-Box-Modellen mit emergenten Fähigkeiten, heißt es im Schreiben.
Der Beitrag IT-Experten fordern Entwicklungspause für KI erschien zuerst auf Linux-Magazin.