Normale Ansicht

Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Ältere BeiträgeLinux-Magazin

OpenAI aktualisiert ChatGPT auf April 2023

07. November 2023 um 08:41

OpenAI hat ChatGPT Plus mit Informationen versorgt, die bis April 2023 reichen. Das Update des Chatbots bringt weitere Neuerungen mit.

So können Plus-Kunden nun alle Services wie Dall-E, Browsing und Datenanalyse ohne lästiges Umschalten an einem Ort finden, teilt OpenAI mit. Außerdem ließen sich nun PDFs und andere Dokumente anhängen und durchsuchen lassen, heißt es weiter.

Eine große Neuerung sieht der Anbieter auch in den benutzerdefinierten Versionen von ChatGPT, die man für einen bestimmten Zweck erstellen kann, sogenannte GPTs. GPTs seien eine neue Möglichkeit, eine maßgeschneiderte Version von ChatGPT zu erstellen, die bei bestimmten Aufgaben hilfreich sei. GPTs könnten etwa helfen, die Regeln eines Brettspiels zu lernen oder Kindern Mathematik beizubringen. Die GPTs ließen sich dann mit anderen Nutzern teilen, heißt es weiter.

Noch im November soll ein GPT-Store öffnen, in dem Kreationen von verifizierten Erstellern angeboten werden, teilt OpenAI mit. Sobald die GPTs im Store seien, ließen sie sich durchsuchen und in Bestenlisten einteilen. Man wolle dann die nützlichsten und schönsten GPTs in Kategorien wie Produktivität, Bildung und “nur zum Spaß” vorstellen. Nutzer, die GPTs kreieren könnten damit dann auch Geld verdienen können, je nachdem, wie viele Leute Ihr GPT nutzen, heißt es weiter.

Der Beitrag OpenAI aktualisiert ChatGPT auf April 2023 erschien zuerst auf Linux-Magazin.

Risiken von LI: OpenAI richtet Preparedness-Team ein

30. Oktober 2023 um 10:52

OpenAI, das Unternehmen hinter ChatGPT, weist erneut auf die Risiken von KI und Artificial General Intelligence (AGI) hin. Um bestehende und künftige dieser Risiken durch weitere Verbesserungen der KI-Modelle zu minimieren, bauen man ein neues Team namens Preparedness auf.

Das Preparedness-Team soll eine enge Verbindung zwischen Fähigkeitsbewertung, Evaluierung und internem Red-Teaming für Pioniermodelle herstellen, die wir in naher Zukunft entwickeln, bis hin zu solchen mit Fähigkeiten auf AGI-Niveau, teilt OpenAI mit. Das Team soll dabei helfen, katastrophale Risiken zu verfolgen, zu bewerten, vorherzusagen und sich vor ihnen zu schützen. Als Kategorien für diese Arbeit sind individualisierte Überzeugungsarbeit, Cybersecurity, CBRN-Bedrohungen (chemische, biologische, radiologische und nukleare) nebst Autonomer Replikation und Anpassung (ARA) genannt.

Zu den Aufgaben des Preparedness-Teams gehöre auch die Entwicklung und Pflege einer risikoinformierten Entwicklungspolitik (RDP, Risk-Informed Development Policy). In der RDP soll der Ansatz für die Entwicklung strenger Bewertungen und Überwachung der Fähigkeiten von Modellen, die Schaffung eines Spektrums von Schutzmaßnahmen und die Einrichtung einer Governance-Struktur für die Rechenschaftspflicht und Aufsicht über diesen Entwicklungsprozess detailliert beschrieben werden.

Der Beitrag Risiken von LI: OpenAI richtet Preparedness-Team ein erschien zuerst auf Linux-Magazin.

Risiken der beruflichen ChatGPT-Nutzung

17. Oktober 2023 um 08:49

Experten des Security-Anbieters Kaspersky haben Datenschutzrisiken der beruflichen Nutzung von LLM-basierte Chatbots identifiziert.

Dazu zählt als erste Gefahr ein Datenleck oder Hack seitens des Providers selbst, berichtet Kaspersky. Denn obwohl LLM-basierte Chatbots von großen Tech-Konzernen betrieben würden, seien sie nicht immun gegenüber Hackingangriffen oder unabsichtlichen Datenlecks. So habe es bereits einen Zwischenfall gegeben, bei dem ChatGPT-Nutzer Eingaben aus dem Nachrichtenverlauf anderer Nutzer sehen konnten, teilt Kaspersky mit.

Datenlecks durch Chatbots zählen ebenfalls zu den Risiken. Da die Chats sich zumindest theoretisch dazu verwenden lassen, um neue Chatbot-Modelle zu trainieren, sollten Nutzer bedenken, dass Daten, die in den Trainingskorpus eingegeben werden, bewusst oder unabsichtlich von Anwendern desselben Sprachmodells aufgerufen werden können. Da LLMs anfällig gegenüber „unabsichtlicher Speicherung“ seien, könnten sie sich einzigartige Sequenzen wie Handynummern merken, die nicht die Modellqualität verbessern, aber die Privatsphäre gefährden, berichten die Experten. Allerdings würden B2B-Lösungen normalerweise keine Chatverläufe speichern und in manchen Fällen auch keine Daten an den Unternehmensserver senden, da der Chatbot lokal im Kundennetzwerk operiere.

Nicht zuletzt zählt das Knacken von Mitarbeiter-Accounts zu den Risiken. Angreifer könnten dann durch Phishing-Angriffe oder Credential Stuffing in Angestellten-Accounts eindringen und auf fremde Daten zugreifen. Außerdem finde die Kaspersky Digital Footprint Intelligence regelmäßig Darknet-Beiträge, die Chatbot‑Accounts zum Verkauf anbieten.

Der Beitrag Risiken der beruflichen ChatGPT-Nutzung erschien zuerst auf Linux-Magazin.

OpenAI DevDay angekündigt

08. September 2023 um 08:32

OpenAI, das Unternehmen hinter ChatGPT lädt zur ersten Entwicklerkonferenz, dem OpenAI DevDay, am 6. November 2023 in San Francisco ein.

Die eintägige Veranstaltung soll Entwickler aus der ganzen Welt mit dem Team von OpenAI zusammenbringen. In San Francisco wolle man neue Tools vorstellen und Ideen auszutauschen, kündigt das Unternehmen an. Die Teilnehmer sollen auch die Möglichkeit haben, an Breakout-Sessions teilzunehmen, die von den technischen Mitarbeitern von OpenAI geleitet werden.

Über zwei Millionen Entwickler würden GPT-4, GPT-3.5, DALL-E und Whisper für eine Vielzahl von Anwendungsfällen nutzen, teilt OpenAI mit. “Wir freuen uns darauf, unsere neueste Arbeit vorzustellen, die es Entwicklern ermöglicht, neue Dinge zu entwickeln”, sagt Sam Altman, CEO von OpenAI.

Weitere Informationen gibt es unter devday.openai.com.

Der Beitrag OpenAI DevDay angekündigt erschien zuerst auf Linux-Magazin.

OpenAI übernimmt Global Illumination

18. August 2023 um 08:27

OpenAI, das Unternehmen hinter ChatGPT hat eigenen Angaben zufolge das Team von Global Illumination übernommen. Das von Thomas Dimson, Taylor Gordon und Joey Flynn gegründeten Startup Global Illumination ist ein Unternehmen, das kreative Tools und Infrastrukturen rund um künstliche Intelligenz entwickelt.

Laut OpenAI ist das gesamte Team übernommen worden, und soll sich nun der Arbeit an den Kernprodukten einschließlich ChatGPT widmen. Global Illumination habe schon früh Produkte für Instagram und Facebook entwickelt und auch bei YouTube, Google, Pixar, Riot Games und anderen namhaften Unternehmen wichtige Beiträge geleistet.

Zuletzt hat sich das Startup das Browserspiel Biomes entwickelt, ein quelloffenes Sandbox-MMORPG im Mindcraft-Stil. Finanzielle Details zur Übernahme sind nicht bekannt.

Der Beitrag OpenAI übernimmt Global Illumination erschien zuerst auf Linux-Magazin.

OpenAI-Anleitung zum Blockieren des GPTBot

08. August 2023 um 09:34

OpenAI hat eine Anleitung veröffentlicht, wie Webseiten das Crawlen durch den GPTBot vrhindern können.

Wie OpenAI mitteilt, würden Webseiten, die mit dem GPTBot-Benutzer-Agenten gecrawlt wurden, potenziell dazu beitragen, das Modell von ChatGPT zu verbessern. OpenAI führt weiter aus, dass die vom Bot gesammelten Informationen gefiltert würden. Dabei entferne man etwa Quellen, die einen die einen Paywall-Zugang erfordern. Auch solche, von denen bekannt sei, dass sie persönlich identifizierbare Informationen sammeln, oder Text enthalten, der gegen die OpenAI-Richtlinien verstossen, landeten im Filter, heißt es weiter.

Wer dem GPTBot den Zugang zu seiner Website gewähren, könne den KI-Modellen helfen, genauer zu werden und ihre allgemeinen Fähigkeiten und Sicherheit zu verbessern. Wer den GPTBot den Zugang verweigern wolle, könne dies mit einem Eintrag in die robots.txt tun oder mit der Blockade von IP-Adressen des Bots.

In der robots.txt sei dazu folgender Eintrag geeignet:

User-agent: GPTBot

Disallow: /

Die IP-Adressen des Bots, die es zu blockieren gilt, finden sich auf dieser Seite.

Der Beitrag OpenAI-Anleitung zum Blockieren des GPTBot erschien zuerst auf Linux-Magazin.

OpenAI zieht AI Classifier zurück

27. Juli 2023 um 07:59

Der AI Classifier war dazu gedacht, Texte zu erkennen, die von künstlicher Intelligenz geschrieben worden sind. Jetzt hat OpenAI, das Unternehmen hinter ChatGPT das Tool zurückgezogen. Es sei zu ungenau gewesen, heißt es.

Ab sofort sei der AI Classifier aufgrund seiner geringen Genauigkeit nicht mehr verfügbar, lässt OpenAI wissen. Man arbeite nun daran, das Feedback zu analysieren und erforsche derzeit effektivere Verfahren zur Herkunftsbestimmung von Texten, heißt es in der knappen Ankündigung.  Außerdem haben OpenAI sich jenseits der Texterkennung auch verpflichtet, Mechanismen zu entwickeln und einzusetzen, die es den Nutzern ermöglichen, zu erkennen, ob Audio- oder visuelle Inhalte KI-generiert seien.

Schon beim Start des Classifiers Ende Januar hatte das Unternehmen darauf hingewiesen, dass der Classifier in internen Tests mit einem “Challenge Set” englischer Texte nur 26 Prozent der von der KI geschriebenen Texte korrekt als “wahrscheinlich von der KI geschrieben” klassifiziert habe. Von Menschen geschriebene Texte seien in 9 Prozent der Fälle fälschlicherweise als von der KI geschrieben eingestuft worden (falsch positiv).

Der Beitrag OpenAI zieht AI Classifier zurück erschien zuerst auf Linux-Magazin.

KI: BSI warnt vor Prompt-Manipulation

21. Juli 2023 um 10:34

Das Bundesamt für Sicherheit in der Informationstechnik, BSI, warnt vor Indirect Prompt Injections bei KI-Sprachmodellen wie ChatGPT. Die Gefahr besteht, weil die Chatbots inzwischen unter anderem Internetseiten oder Dokumente automatisiert auswerten. Von dort könnten manipulierte Daten mit Anweisungen kommen, die der Chatbot dann ausführt.

Angreifende können die Daten in Quellen zu denen auch Programmierumgebungen und Mail-Postfächer zählen gezielt manipulieren und unerwünschte Anweisungen für LLMs platzieren, berichtet das BSI in seiner Warnmeldung. Greifen LLMs auf diese Daten zu, werden die unerwünschten Befehle unter Umständen ausgeführt. Angreifende können dadurch das Verhalten der LLMs gezielt manipulieren, schreibt das BSI. Die potentiell schadhaften Befehle können kodiert oder versteckt sein und sind für Anwenderinnen sowie Anwender unter Umständen nicht erkennbar, heißt es weiter.

Als Beispiele nennt das BSI etwa, in einfachen Fällen, ein Text auf einer Webseite mit Schriftgröße Null, den die KI liest, der menschliche Nutzer aber nicht sieht.  Auch ein versteckter Text im Transkript eines Videos könnte einen solchen Befehl enthalten. sein. Anweisungen zu kodieren, sodass diese von LLMs weiterhin problemlos interpretiert werden, von Menschen jedoch nur schwer lesbar sind gelinge etwa auch durch ASCII-Code oder ähnlichem. Eine weitere Möglichkeit sei, Anfragen von Chatbots durch den Webserver aufgrund anderer Aufrufparameter mit anderen Inhalten zu beliefert als sie menschliche Nutzer durch die Browseranfragen erhalten.

Der Beitrag KI: BSI warnt vor Prompt-Manipulation erschien zuerst auf Linux-Magazin.

OpenAI schließt Partnerschaft mit dem American Journalism Project

20. Juli 2023 um 09:24

OpenAI, die Organisation hinter ChatGPT, stellt nach eigenen Angaben dem American Journalism Project (AJP) 5 Millionen Dollar zur Verfügung, um zu untersuchen, wie die Entwicklung künstlicher Intelligenz (KI) einen “innovativen lokalen Nachrichtenbereich unterstützen kann”.

Weitere bis zu 5 Millionen Dollar sind in Form von OpenAI-API-Gutschriften geplant, um den geförderten Organisationen zu helfen, neue KI-Technologien in ihren Organisationen zu bewerten und einzusetzen.Die Zusammenarbeit ziele darauf ab, einen Dialog zwischen der lokalen Nachrichtenbranche und OpenAI aufzubauen und Tools zu entwickeln, die lokale Nachrichtenorganisationen unterstützen könnten.

“Um sicherzustellen, dass der Lokaljournalismus eine wesentliche Säule unserer Demokratie bleibt, müssen wir uns über die potenziellen Möglichkeiten und Fallstricke neuer Technologien im Klaren sein”, sagte Sarabeth Berman, CEO des American Journalism Project. “In diesen frühen Tagen der generativen KI haben wir die Möglichkeit, dafür zu sorgen, dass lokale Nachrichtenorganisationen und ihre Communities an der Gestaltung ihrer Auswirkungen beteiligt werden. Mit dieser Partnerschaft wollen wir Wege aufzeigen, wie KI den Journalismus verbessern und nicht gefährden kann.”

AJP und sein Portfolio lokaler Nachrichtenorganisationen werden die Mittel von OpenAI nutzen, um mit der Anwendung von künstlicher Intelligenz auf verschiedene Weise zu experimentieren.

Unter anderem soll ein Technologie- und KI-Studio eingerichtet werden. AJP will dafür ein Team zusammenstellen, das die Anwendungen von KI im Bereich der Lokalnachrichten bewerten soll. Das Studio werde den AJP-Portfolio-Organisationen Experten-Coaching bieten, während sie erforschen, wie sie KI-Tools am besten nutzen können. Es soll zudem eine Zusammenarbeit und eine Feedbackschleife mit externen Partnern wie OpenAI und Anbietern geben, die an KI-Anwendungen arbeiten, die hochwertigen Journalismus unterstützen und die Verbreitung von Fehlinformationen verhindern. Als Teil dieser Arbeit werde das Studio eine Lerngemeinschaft im gesamten AJP-Portfolio organisieren, um bewährte Praktiken, Richtlinien und Erfahrungen zu dokumentieren und auszutauschen, während sich die Experimente entwickeln, teilt das AJP mit.

Der Beitrag OpenAI schließt Partnerschaft mit dem American Journalism Project erschien zuerst auf Linux-Magazin.

ChatGPT erstmals mit weniger Traffic

10. Juli 2023 um 07:48

Der Hype um den Chatbot ChatGPT von OpenAI scheint nachzulassen. Das auf Webanalysen spezialisierte Unternehmen Similarweb berichtet von rund 10 Prozent weniger Traffic im Juni, im Vergleich zum Mai.

Die Unique Vistors sanken um 5,7 Prozent. Die Verweildauer der Besucher auf der Website ging ebenfalls um 8,5 Prozent zurück, berichtet Similarweb.

Es sehe also nicht mehr so aus, als würde ChatGPT weiter wachsen, bis es die meistbesuchte Website der Welt ist, berichtet Similarweb. Google laufe also nicht Gefahr, von der OpenAI-Tech-Demoseite, die sich zu einem kulturellen Phänomen entwickelt habe, in den Schatten gestellt zu werden.

ChatGPT ziehe immer noch mehr Besucher weltweit an als bing.com, die Suchmaschine von Microsoft, oder Character.AI, die zweitbeliebteste eigenständige KI-Chatbot-Website. Die weltweiten Besuche auf Character.AI sei im Monatsvergleich um 32 Prozent zurückgegangen, obwohl der Datenverkehr im Vergleich zum Juni 2022, als das von ehemaligen Google-Ingenieuren gegründete Unternehmen gerade erst an den Start ging, immer noch enorm gestiegen sei.

Der Beitrag ChatGPT erstmals mit weniger Traffic erschien zuerst auf Linux-Magazin.

OpenAI macht GPT-45-API verfügbar

07. Juli 2023 um 08:10

Wie OpenAI bekannt gibt, haben ab sofort alle zahlenden API-Kunden Zugang zu GPT-4. Auf die im März eingeführte ChatGPT-API hatte bislang nur ein eingeschränkter Kreis Zugang.

Es habe inzwischen auch Updates für die chatbasierten Modelle gegeben, berichtet OpenAI in einem Beitrag weiter und kündig gleichzeitig einen Plan zur Abschaffung älterer Modelle der Completions-API an.

Den Zugang zur ChatGPT-API können laut OpenAI alle bestehenden API-Entwickler mit einer erfolgreichen Zahlungshistorie auf die GPT-4-API mit 8K-Kontext zugreifen. Für neue Entwickler soll der Zugang bis Ende dieses Monats geöffnet werden und dann die Ratenlimits je nach Verfügbarkeit von Rechenleistung anzuheben.

Zudem sollen auch GPT-3.5 Turbo-, DALL-E- und Whisper-APIs allgemein verfügbar werden. Man arbeite daran, die Feinabstimmung für GPT-4 und GPT-3.5 Turbo sicher zu ermöglichen, heißt es, mit einem Zugang sei noch in diesem Jahr zu rechnen.

Der Beitrag OpenAI macht GPT-45-API verfügbar erschien zuerst auf Linux-Magazin.

OpenAI: Updates und Preissenkungen für GPT-4 und GPT-3.5-Turbo

15. Juni 2023 um 08:58

OpenAI hat für seine Sprachmodelle GPT-3.5-Turbo und GPT-4 Funktionsupdates und günstigere Preise angekündigt.

GPT steht als Sprachmodell auch hinter den Tools ChatGPT von OpenAI und Bing von Microsoft. Mit der Preisreduzierung soll das Embedding-Modell um 75 Prozent günstiger werden. Die Eingabe-Tokens für GPT-3.5-Turbo seien um 25 Prozent günstiger. Bei GPT-3.5-Turbo kommt ein Update auf eine 16k-Kontext-Version gegenüber der Standard-4k-Version. Das bedeutet, dass sich die Kontextlänge vervierfacht und das zum doppelten Preis, teilt OpenAI mit. 16k-Kontext bedeute, dass das Modell nun ungefähr 20 Seiten in einem einzelnen Request verarbeiten kann.

Beim nach Angaben von OpenAI beliebtesten Modell „text-embedding-ada-002“ werde man die Kosten ab sofort um 75 Prozent auf 0,0001 US-Dollar pro 1000 Tokens senken.

Bei GPT-3.5-Turbo, dem beliebtesten Chat-Modell senke man die Kosten für Eingabe-Tokens um 25 Prozent. Entwickler könnten dieses Modell jetzt für 0,0015 US-Dollar pro 1000 Input-Tokens und 0,002 Dollar pro 1K Output-Tokens verwenden, was ungefähr 700 Seiten pro Dollar entspreche.

GPT-3.5-Turbo-16k werde zu einem Preis von 0,003 Dollar pro 1K Input-Token und 0,004 Dollar pro 1K Output-Token angeboten, heißt es weiter.

Mit Function Calling bringen GPT-4-0613 und GPT-3.5-turbo-0613 eine neue Funktion mit, über die Entwickler Funktionen beschreiben können und das Modell kann dann ein JSON-Objekt mit Argumenten zum Aufruf dieser Funktionen ausgeben. Dies sei eine neue Möglichkeit, die Fähigkeiten von GPT mit externen Tools und APIs zu verbinden.

OpenAI nennt als Beispiel dass man jetzt Abfragen wie “Schreiben Sie Anya eine E-Mail, um zu erfahren, ob sie nächsten Freitag einen Kaffee trinken möchte” in einen Funktionsaufruf wie send_email(to: string, body: string) oder “Wie ist das Wetter in Boston?” in get_current_weather(location: string, unit: ‘celsius’ | ‘fahrenheit’) konvertieren kann.

Im Blogbeitrag sind weitere Möglichkeiten beschrieben.

Der Beitrag OpenAI: Updates und Preissenkungen für GPT-4 und GPT-3.5-Turbo erschien zuerst auf Linux-Magazin.

OpenAI startet Cybersecurity-Programm

05. Juni 2023 um 10:04

OpenAI, das Unternehmen hinter der KI-Anwednung ChatGPT hat eine mit einer Million US-Dollar hinterlegte Cybersecurity-Initiative gestartet. Das Cybersecurity Grant Program soll zur Förderung und Quantifizierung von KI-gestützten Cybersicherheitsfähigkeiten dienen und den Diskurs über KI und Cybersicherheit ankurbeln.

Ziel sei es, mit den Verteidigern der Sicherheit auf der ganzen Welt zusammenzuarbeiten, um die Machtdynamik der Cybersicherheit durch die Anwendung von KI und die Koordination von Gleichgesinnten, die sich für die gemeinsame Sicherheit einsetzen, zu verändern, schreiben führende Mitarbeiter von OpenAI.

Das Programm ziele darauf ab, sicherzustellen, dass modernste KI-Fähigkeiten in erster Linie den Verteidigern von Cybersicherheit zugutekommen und nicht den Angreifern. Man arbeite auch an der Entwicklung von Methoden zur Quantifizierung der Cybersicherheitsfähigkeiten von KI-Modellen, um deren Wirksamkeit besser zu verstehen und zu verbessern.

Nicht zuletzt sei man bestrebt, die Diskussionen an der Schnittstelle zwischen KI und Cybersicherheit zu fördern und ein umfassendes und differenziertes Verständnis der Herausforderungen und Möglichkeiten in diesem Bereich zu schaffen, heißt es weiter.

OpenAI will die Anträge auf Finanzierung oder sonstige Unterstützung fortlaufend bewerten. Praktische Anwendungen von KI in der defensiven Cybersicherheit (Tools, Methoden, Prozesse) werde man stark bevorzugen. Man gewähre Zuschüsse in Höhe von 10.000 US-Dollar aus einem Fonds von 1 Million Dollar.

Im Blogpost sind mögliche Tätigkeitsfelder für Projekte für KI- und Sicherheitsexperten genannt, die sich an der Initiative beteiligen wollen. Vorschläge können dann auf einer eigenen Webseite eingereicht werden.

Der Beitrag OpenAI startet Cybersecurity-Programm erschien zuerst auf Linux-Magazin.

OpenAI plädiert für Steuerung der Superintelligenz

23. Mai 2023 um 08:20

Sam Altman, CEO von OpenAI, dem Unternehmen hinter ChatGPT und die Mitgründer Greg Brockman und Ilya Sutskever treten für eine Kontrolle und Steuerung der Entwicklungen von künstlicher Intelligenz ein.

Die Superintelligenz, die KI darstellt, werde in Bezug auf die potenziellen Vor- als auch die Nachteile mächtiger sein als andere Technologien, mit denen die Menschheit in der Vergangenheit zu kämpfen hatte, schreiben die drei Informatiker in ihrem Beitrag. Diese Technologie könne eine dramatisch wohlhabendere Zukunft ermöglichen, es gelte aber die Risiken beherrschen, um dorthin zu gelangen. Das Risiko beschreiben die Autoren des Beitrags drastisch als existenziell. Und deshalb könne man nicht nur reaktiv sein. KI vergleichen sie mit der Kernenergie, die ein häufig verwendetes historisches Beispiel für eine Technologie mit dieser Eigenschaft sei. Auch die synthetische Biologie sei ein Beispiel.

In ihrem Blogbeitrag sehen die drei OpenAI-Gründer drei Pfeiler, wie sich KI zum Wohle der Menschheit nutzen lässt, ohne die Risiken zu übersehen.

Erstens brauche es ein gewisses Maß an Koordinierung zwischen den führenden Entwicklungsanstrengungen, um sicherzustellen, dass die Entwicklung der Superintelligenz in einer Weise erfolge, die die Aufrechterhaltung der Sicherheit als auch eine reibungslose Integration dieser Systeme in die Gesellschaft ermöglichen würden. Es könnten dafür etwa große Regierungen auf der ganzen Welt ein Projekt ins Leben rufen, an dem sich viele aktuelle Bemühungen beteiligen. Oder man könnten sich darauf einigen, dass die Wachstumsrate der KI-Fähigkeiten auf eine bestimmte Rate pro Jahr begrenzt ist.

Zweitens werden es wohl eine Art IAEO (Internationale Atomenergie-Organisation) für die Superintelligenz brauchen. Alles was etwa eine bestimmte Fähigkeitsschwelle überschreite, müssen einer internationalen Behörde unterstellt werden, die Systeme inspizieren, Audits verlangen, die Einhaltung von Sicherheitsstandards prüfen könne, fordern das Trio. Diese Organisation müsse dann auch Beschränkungen für den Einsatzgrad und das Sicherheitsniveau auferlegen können. Die Nachverfolgung des Rechen- und Energieverbrauchs könnte dafür einen wichtigen Beitrag leisten. In einem ersten Schritt könnten sich die Unternehmen freiwillig verpflichten, mit der Umsetzung von Elementen dessen zu beginnen, was eine solche Agentur eines Tages verlangen könnte, und in einem zweiten Schritt könnten die einzelnen Länder dies umsetzen, heißt es im Beitrag.

Drittens brauche es technischen Möglichkeiten, um KI sicher zu machen. Dies sei eine offene Forschungsfrage, mit der sich OpenAI und andere intensiv befassen würden.

Die Steuerung der leistungsfähigsten Systeme sowie die Entscheidungen über ihren Einsatz müssen einer starken öffentlichen Kontrolle unterliegen, glauben die Autoren. Angesichts der Risiken und Schwierigkeiten lohne es sich auch, darüber nachzudenken, warum wir diese Technologie überhaupt entwickeln. Bei OpenAI gebe es zwei Gründe dafür. Man glaube, dass sie zu einer viel besseren Welt führen wird, als wir sie uns heute vorstellen können. Die Welt stehe vor vielen Problemen, zu deren Lösung man Hilfe brauchen werden; diese Technologie könne unsere Gesellschaften verbessern. Das Wirtschaftswachstum und die Steigerung der Lebensqualität werden erstaunlich sein, heißt es im Beitrag.

Zweitens glauben man, dass es riskant und schwierig wäre, die Entwicklung der Superintelligenz zu stoppen. Da die Vorteile so enorm seien, die Kosten für ihren Aufbau jedes Jahr sinken würden, die Zahl der Akteure, die sie aufbauen, rapide zunehme und sie bereits Teil des technologischen Weges ist, auf dem wir uns befinden, würde ihr Stoppen so etwas wie ein globales Überwachungssystem erfordern, und selbst das sei nicht garantiert.

Der Beitrag OpenAI plädiert für Steuerung der Superintelligenz erschien zuerst auf Linux-Magazin.

TÜV: Jeder vierte nutzt ChatGPT – mit Bedenken

19. Mai 2023 um 07:24

Seit der Einführung im November 2022 haben schon 83 Prozent der Bundesbürger von ChatPT gehört. Und fast jeder Vierte hat ChatGPT bereits für berufliche oder private Zwecke genutzt (23 Prozent), hat eine repräsentative Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1021 Personen ab 16 Jahren ergeben.

Vorreiter bei der Nutzung sind die Jüngeren: 43 Prozent der 16- bis 35-Jährigen haben ChatGPT mittlerweile eingesetzt, berichtet der TÜV-Verband. In der Altersgruppe der 36- bis 55-Jährigen sind es 20 Prozent. Unter den 56- bis 75-Jährigen sind es 7 Prozent. Männer nutzen die KI-Anwendung mit 27 Prozent etwas häufiger als Frauen mit 19 Prozent.

ChatGPT zeige aber auch, welche Risiken mit dem Einsatz von Künstlicher Intelligenz verbunden seien. 80 Prozent der Befragten stimmen der Aussage zu, dass beim Einsatz von KI derzeit nicht abschätzbare Risiken bestehen würden, heißt es vom TÜV-Verband. 65 Prozent befürchten, dass die Technologie für Menschen nicht mehr beherrschbar sei und 61 Prozent dass sie ohne ihr Wissen manipuliert werden könnten. Und 76 Prozent haben Bedenken, dass KI persönliche Daten nicht ausreichend schützt.

91 Prozent fordern, dass der Gesetzgeber einen rechtlichen Rahmen für den sicheren Einsatz von KI schaffen sollte. Dabei sollte sich die Regulierung und Nutzung von KI in der EU an europäischen Werten orientieren, sagen 83 Prozent.

Der Beitrag TÜV: Jeder vierte nutzt ChatGPT – mit Bedenken erschien zuerst auf Linux-Magazin.

❌
❌