Normale Ansicht

Es gibt neue verfügbare Artikel. Klicken Sie, um die Seite zu aktualisieren.
Ältere BeiträgeHaupt-Feeds

KI: Meta will GPT-3-Alternative öffentlich bereitstellen

Riesige Sprachmodelle sind meist nicht öffentlich verfügbar oder replizierbar. Meta will das mit OPT ändern und gute Qualität liefern.

Ein großes Forschungsteam der KI-Abteilung des Facebook-Mutterkonzerns Meta hat die Open-Pre-trained-Transformer-Sprachmodelle (OPT) in einer wissenschaftlichen Abhandlung vorgestellt. Das dabei wohl wichtigste Anliegen der Beteiligten ist es, ein modernes und großes Sprachmodell zu erstellen, das, anders als bisher meist üblich, komplett zur Verfügung gestellt wird, um die die konkreten Einzelheiten untersuchen zu können.

Das Team von Meta vergleicht das Sprachmodell selbst in Bezug auf Ziel, Fähigkeiten und Größe mit GPT-3 von OpenAI. Letzteres steht zwar zur Nutzung zur Verfügung, jedoch nur über eine API. Eine Untersuchung der inneren Abläufe und Gewichtungen ist so für Dritte nicht möglich. Im Vergleich zu GPT-3 soll die größte Variante von OPT mit 175 Milliarden Parametern außerdem nur ein Siebentel des CO2-Fußabdrucks aufweisen.

Ziel der Entwicklung sei es, “reproduzierbare und verantwortungsvolle Forschung in großem Maßstab zu ermöglichen”. Ebenso sollen die Auswirkungen dieser riesigen Sprachmodelle besser untersucht werden können. Dazu heißt es weiter: “Die Definitionen von Risiko, Schaden, Verzerrung, Toxizität usw. sollten von der gesamten Forschungsgemeinschaft formuliert werden, was nur möglich ist, wenn Modelle zur Untersuchung bereitstehen.”

Konkret geplant ist nun von Meta, dass die OPT-Modelle mit einer Parametergröße von 125 Millionen bis 30 Milliarden frei zur Verfügung gestellt werden. Der Zugriff auf das Modell mit 175 Milliarden Parametern soll auf Anfrage für Forschungsteams ermöglicht werden. Das gelte für Regierungen, Zivilgesellschaft, Wissenschaft sowie Industrieteilnehmer. Ebenso frei veröffentlicht werden soll das Team-eigene Logbuch, das beim Erstellen des Modells geführt wurde, sowie der Code, mit dem das Modell erstellt wurde.

Der Beitrag KI: Meta will GPT-3-Alternative öffentlich bereitstellen erschien zuerst auf Linux-Magazin.

Chatroulette Desktop Client

30. Juni 2010 um 08:46

Nach dem großen Erfolg von Chatroulette ist nun ein Desktop Client für Chatroulette erschienen. Das kleine Programm ist gerade mal ca. 800 KB groß und benötigt eine aktuelle Flash-Installation. Danach steht dem Video Chat Vergnügen nichts mehr im Wege.

Sicher eine gute Alternative für die browserbasierte Variante (chatroulette.com). Leider habe ich gerade nicht die Möglichkeit, das Programm ausführlich zu testen, werde aber einen ausführlichen Test nachliefern.

chatroulette

Gefahr durch biometrische Daten im Web

10. November 2022 um 09:31

Sicherheitsexperte Trend Micro warnt vor unbedarft veröffentlichten biometrischen Daten auf digitalen Plattformen. So veröffentlichte Gesichts-, Stimm-, Iris-, Handflächen- und Fingerabdruckmuster könnten zur Täuschung von Authentifizierungssystemen genutzt werden.

Bilder und Audioinhalte, die auf sozialen Medien und Messaging-Plattformen, Nachrichtenseiten und weiteren Portalen täglich gepostet werden, seien ein wertvolles Gut für Cyberkriminelle, berichtet Trend Micro in einer neuen Studie. Diese Daten öffneten eine ganze Reihe von Angriffsszenarien. Zum Beispiel können mithilfe von persönlichen Daten Deepfakes erstellt werden. Cyberkriminelle hätten außerdem die Möglichkeit, betrügerische Transaktionen zu authentifizieren.

Der technologische Fortschritt spiele den Kriminellen dabei in die Hände, so Trend Micro. Dazu zähle man eine höhere Auflösung von Smartphone-Kameras, die Unterstützung von 4K-Videos und hochauflösende Bildern durch Medienplattformen, die Cloud, Data Mining und Künstliche Intelligenz oder Machine Learning einsetzen.

Überwachungskameras können Personen inzwischen über Gesichtserkennungsalgorithmen verfolgen. Als Trainingsmaterial dienten dann von Nutzern in soziale Medien hochgeladene Daten. Zwar sei der der finanzielle Missbrauch dieser Daten heute noch relativ selten ist, das werde sich aber ändern, da die Authentifizierungshürden weiter sinken.

„Die Verwendung biometrischer Daten wird vielfach als sicherere und einfache Alternative zu Passwörtern befürwortet. Im Gegensatz zu Passwörtern können physische Merkmale jedoch nicht einfach geändert werden.“, erklärt Udo Schneider, IoT Security Evangelist Europe bei Trend Micro „Eine Kompromittierung hat also langfristige Auswirkungen auf den Benutzer. Ein gekapertes Profil bringt demnach ähnliche Folgen mit sich, wie wenn man sich heute vollständigen Zugang zu einem PC verschafft.“

Der Report ist online abrufbar.

Der Beitrag Gefahr durch biometrische Daten im Web erschien zuerst auf Linux-Magazin.

Skriptkiddies schreiben Malware mit ChatGPT

13. Januar 2023 um 08:54

In einem Untergrundforum tauschen Kriminelle mit ChatGPT erstellte Skripte aus, die beispielsweise als Ransomware verwendet werden können.

Die Text-KI ChatGPT kann für zahlreiche Aufgaben eingesetzt werden, darunter auch das Schreiben von Schadsoftware. So berichtet die Sicherheitsfirma Checkpoint, dass Teilnehmer in Cybercrime-Foren die KI nutzen, um Ransomware zu schreiben. Darunter befinden sich auch solche mit wenig oder gar keiner Programmiererfahrung.

Das Unternehmen entdeckte eine Diskussion in einem entsprechenden Forum. Dort sollen Forenteilnehmer ChatGPT zum Erstellen von Skripten verwendet haben, darunter ein Python-Skript, das verschiedene kryptografische Funktionen einschließlich Verschlüsselung, Entschlüsselung und Signierung bereitstellt und als Ransomware verwendet werden kann.

Dieses und andere Skripte seien ausführbar gewesen und hätten die versprochenen Funktionen bereitgestellt, erklärten Forscher von Checkpoint in einem Blogeintrag.

Andere Code-Schnipsel, die mit ChatGPT erstellt wurden, dienten dazu, Informationen von bereits kompromittierten Systemen zu kopieren oder den SSH-Client Putty auf einem Zielsystem herunterzuladen und per Powershell auszuführen. Ein weiteres Beispiel wurde genutzt, um die Kryptowährungskurse auf einem illegalen Marktplatz zu aktualisieren.

Viele der Skripte ließen sich auch für legitime Zwecke nutzen, betonen die Forscher. So kann das oben genannte Skript beispielsweise zum Verschlüsseln eigener sensibler Daten eingesetzt werden, es können aber auch die Daten Dritter damit verschlüsselt werden und ein Lösegeld für deren Entschlüsselung verlangt werden.

“Es ist noch zu früh, um zu entscheiden, ob die ChatGPT-Fähigkeiten das neue Lieblingstool für Teilnehmer im Dark Web werden”, schreiben die Forscher. “Die Gemeinschaft der Cyberkriminellen hat jedoch bereits großes Interesse gezeigt und springt auf diesen neuesten Trend zur Generierung von bösartigem Code auf.” In anderen Foren würde zudem bereits diskutiert, wie man ChatGPT für Betrugsmaschen nutzen könne.

Der Beitrag Skriptkiddies schreiben Malware mit ChatGPT erschien zuerst auf Linux-Magazin.

ChatGPT: Microsoft hostet OpenAI-Services

18. Januar 2023 um 10:11

Microsoft hat angekündigt, die KI-gestützten Services wie Dall-E und ChatGPT von OpenAI auf seiner Azure Cloud zu hosten, vorerst in den USA. Dort lassen sich die Services stündlich oder per Token mieten.

Der Azure OpenAI Service umfasst laut Microsoft GPT-3.5, Codex und DALL-E 2. In Kürze werde dann über Azure auch Zugriff auf ChatGPT angeboten, eine laut Microsoft fein abgestimmte Version von GPT-3.5, die auf der Azure-KI-Infrastruktur trainiert wurde.

Microsoft baut damit seine Services für KI und Machine Learning aus und hat bereits angekündigt, mit rund 10 Milliarden US-Dollar bei OpenAI einsteigen zu wollen.

KI-Agenda von Microsoft. Quelle: Microsoft

In dem Blogpost zu den Azure OpenAI Services sind auch die Services Copilot von Github, das Kreativprogramm Microsoft Designer und das GPT-3-basierte Tool Power-BI genannt. Die KI-gestützte Programmierhilfe Copilot, die auf Github zum Einsatz kommt, ist wegen dem von Kritikern vermuteten Verstoß gegen OpenSource-Lizenzen in der Diskussion. Copilot holt sich Codeschnipsel aus diversen Projekten.

Der Beitrag ChatGPT: Microsoft hostet OpenAI-Services erschien zuerst auf Linux-Magazin.

ChatGPT: OpenAI trainiert AI-Erkennung

01. Februar 2023 um 09:29

Nachdem das KI-basierte Chattool ChatGPT derzeit einen Höhenflug erlebt, was Nutzung und mediales Interesse anbelangt, hat Anbieter OpenAI damit begonnen, ein neues Tool zu trainieren, das Texte erkennt, die mit Hilfe von künstlicher Intelligenz verfasst sind.

Der AI-Classifier von OpenAI soll zwischen von Menschen geschriebenen Texten und von KI verfassten Texten verschiedener Anbieter unterscheiden können. Auch wenn es unmöglich sei, alle von KI geschriebenen Texte zuverlässig zu erkennen, könnten gute Klassifikatoren Informationen für falsche Behauptungen liefern, dass KI-generierter Text von einem Menschen geschrieben wurden. Zu diesen Fällen zählt OIpenAI in einem Blogbeitrag etwa automatisierte Fehlinformationskampagnen, die Verwendung von KI-Tools für Betrügerein bei akademischen Arbeiten und die Positionierung eines KI-Chatbots als Mensch.

Der Klassifikator arbeite derzeit aber noch nicht zuverlässig, raumt OpenAI ein. Bei der Auswertung eines “Challenge Set” englischer Texte habe er 26 Prozent der von KI geschriebenen Texte korrekt als “wahrscheinlich von KI geschrieben”, während er von Menschen geschriebene Texte in 9 Prozent der Fälle fälschlicherweise als von KI geschrieben eingestuft habe (false positiv). Die Zuverlässigkeit des AI-Classifier verbessere sich in der Regel mit zunehmender Länge des Eingabetextes. Im Vergleich zu einem zuvor veröffentlichten Klassifikator sei der neue bei Texten von neueren KI-Systemen deutlich zuverlässiger.

Der Klassifikator steht öffentlich zur Verfügung. OpenAI erwartet sich Feedback darüber, ob Werkzeuge wie dieses nützlich sind, auch wenn sie nicht gänzlich zuverlässig arbeiten. Die Arbeit an der Erkennung von KI-generiertem Text werde fortgesetzt. Der kostenlos nutzbare Work-in-Progress-Klassifikator lässt sich hier ausprobieren.

Der Beitrag ChatGPT: OpenAI trainiert AI-Erkennung erschien zuerst auf Linux-Magazin.

Bard: Google startet eigenen KI-Dienst

07. Februar 2023 um 08:56

Vor zwei Jahren hatte Google Sprach- und Konversationsfunktionen vorgestellt, die auf dem Sprachmodell für Dialoganwendungen (kurz: LaMDA) basierten. Den darauf basierende experimentellen KI-Dienst für Konversation namens Bard hat Google nun für vertrauenswürdige Tester geöffnet.

In den kommenden Wochen soll Bard dann auch der Öffentlichkeit zugänglich gemacht werden, schreibt Sundar Pichai, CEO von Google und Alphabet in einem Blog-Beitrag. Bard versuche, die Breite des weltweiten Wissens mit der Leistung, Intelligenz und Kreativität der großen Sprachmodelle von Google zu kombinieren. Die KI stütze sich auf Informationen aus dem Internet, um hochwertige Antworten liefern zu können.

Bard wolle man zunächst mit einer leichtgewichtigen Modellversion von LaMDA (Language Model for Dialogue Applications) veröffentlichen. Dieses viel kleinere Modell benötige deutlich weniger Rechenleistung, so dass mehr Nutzer teilnehmen könnten, die damit mehr Feedback erzeugen, teilt Gogle mit. Das externe Feedback kombiniere man dann mit eigenen internen Tests um sicherzustellen, dass die Antworten von Bard die hohen Anforderungen an Qualität, Sicherheit und Realitätsnähe erfüllten.

KI könne das Verständnis von Informationen vertiefen und sie effizienter in nützliches Wissen umwandeln, schreibt Sundar Pichai. Es werde damit einfacher, zum Kern dessen zu gelangen, was man suche. Menschen würden mit Google häufig mit schnellen und sachlichen Antworten verbinden, etwa auf die Frage: “Wie viele Tasten hat ein Klavier?” Dabei würden sich immer mehr Menschen an Google wenden, um tiefere Einblicke zu bekommen, etwa mit der Frage: “Ist Klavier oder Gitarre leichter zu erlernen, und wie viel Übung braucht man dafür?”

KI könne da hilfreich sein, indem sie Erkenntnisse für Fragen zusammenfasse, auf die es nicht nur eine einzige richtige Antwort gebe. Sundar Pichai kündigt KI-gestützte Funktionen in der Suche an, die komplexe Informationen und mehrere Perspektiven in leicht verdauliche Formate destillieren könnten.

In Kürze wolle man auch einzelne Entwickler, Kreative und Unternehmen an Bord holen, damit sie das Google-API für generative Sprachen ausprobieren können. Das API basiere zunächst auf LaMDA und umfasse eine Reihe von Modellen. Später soll eine Reihe von Tools und APIs entwickelt werden, die es anderen erleichtern, innovative Anwendungen mit KI zu entwickeln, so der CEO.

Der Beitrag Bard: Google startet eigenen KI-Dienst erschien zuerst auf Linux-Magazin.

Bundestag lässt Auswirkungen von ChatGPT auf Bildung und Forschung prüfen

13. Februar 2023 um 08:19

Der Ausschuss für Bildung, Forschung und Technikfolgenabschätzung des Deutschen Bundestages hat eine Studie zu den Auswirkungen von ChatGPT auf Bildung und Forschung in Auftrag gegeben.

Die Studie soll die Chancen und Risiken der immer größer und komplexer werdenden Computermodelle auf einer wissenschaftlichen Grundlage bewerten. Federführend soll das Büro für Technikfolgen-Abschätzung (TAB) beim Deutschen Bundestag sein. Das TAB soll in den nächsten Wochen Entwicklungstrends, Anwendungsszenarien und Auswirkungen der Nutzung von ChatGPT und verwandten Systemen in den Bereichen des Bildungs- und Wissenschaftssystems untersuchen. Kai Gehring (Grüne), Vorsitzender des Ausschusses für Bildung, Forschung und Technikfolgenabschätzung will dann auf der Grundlage der TAB-Studie im Bundestag diskutieren, welche Konsequenzen es in der Bildungs- und Forschungspolitik bedürfe, von der Schule über die Wissenschaft bis hin zum Weiterbildungssektor.

Das Büro für Technikfolgenabschätzung wird vom Karlsruher Institut für Technologie (KIT) betrieben. Es berät das Parlament bei forschungs- und technologiepolitischen Fragen und liefert Analysen und Gutachten, teilt der Ausschuss mit. Im April soll dann der Ausschuss für Bildung, Forschung und Technikfolgenabschätzung auf dieser Grundlage in einer öffentlichen Sitzung gemeinsam mit Fachleuten über ChatGPT und mögliche Auswirkungen der neuen KI-Systeme beraten.

Der Beitrag Bundestag lässt Auswirkungen von ChatGPT auf Bildung und Forschung prüfen erschien zuerst auf Linux-Magazin.

IDC: KI-Markt in Europa wächst stetig

17. Februar 2023 um 10:37

Die International Data Corporation (IDC) schätzt, dass der Markt für künstliche Intelligenz (KI) einschließlich Software, Hardware und Dienstleistungen im Zeitraum 2022 bis 2026 eine durchschnittliche jährliche Wachstumsrate (CAGR) von 25,5 Prozent aufweist.

Der Markt trotze damit dem Krieg in der Ukraine, der Inflation, IT-Budgetkürzungen und Entlassungen, so IDC. 2026 würde der KI-Markt rund 191 Milliarden US-Dollar pro Jahr erreichen, teilen die US-Marktforscher mit. IDC gehe davon aus, dass das Wachstum hauptsächlich durch KI-zentrierte Software (CAGR 32,4 Prozent) getrieben wird, während das Wachstum bei KI-Dienstleistungen (CAGR 27,2 Prozent), nicht KI-zentrierter Software (CAGR 16,7 Prozent) und KI-Hardware (CAGR 15,2 Prozent) deutlich geringer ausfallen werde.

Prognose von IDC für den KI-Markt. Quelle: IDC

“Die nächsten fünf Jahre werden eine entscheidende Phase für die kommerzielle Nutzung von KI-Software darstellen, da viele Unternehmen und Regierungen jetzt mehr investieren, um ihre Prozesse agiler, effizienter und widerstandsfähiger zu machen”, sagt Martin Nuska, Senior Research Manager bei IDC.

Der Beitrag IDC: KI-Markt in Europa wächst stetig erschien zuerst auf Linux-Magazin.

AI.BAY 2023: Bayern als KI-Standort

23. Februar 2023 um 15:52

Auf der Museumsinsel des Deutschen Museums in München ist die erste bayerische KI-Konferenz gestartet. Zur politischen Prominenz bei der Eröffnung der AI.BAY 2023 zählten Ministerpräsident Markus Söder der betonte, dass Bayern Technologie wie kein anderes deutsches Bundesland fördere und mit der Hightech Agenda über 3,5 Milliarden Euro investiere. Bayern schaffe allein 100 Lehrstühle für KI, betonte Söder.

Neben dem Bayerischen Ministerpräsidenten waren auch Wirtschaftsminister Hubert Aiwanger, Digitalministerin Judith Gerlach und Wissenschaftsminister Markus Blume anwesend. Die AI.BAY 2023 findet auch noch am morgigen Freitag statt.

Söder erklärte die bayerische Hightech Offensive quasi zur Chefsache. Die Hightech Agenda bezeichnete Söder als die wichtigste Entscheidung seiner politischen Laufbahn. Die riesigen Investitionen in künstliche Intelligenz würden völlig neue Chancen für Gesundheit und Krebsforschung, Klimaschutz und moderne Mobilität bieten. KI und Quantencomputing können zum Warp-Antrieb der Zukunft werden, erklärte der bekennende Science Fiction Fan Markus Söder.

Wirtschaftsminister Hubert Aiwanger bezeichnete Bayern als das Hightech-Herz Deutschlands. Für den Standort Bayern würden auf diese Weise ganz neue Perspektiven entstehen. „Ich bin fest davon überzeugt, dass KI somit auch die internationale Wettbewerbsfähigkeit unserer Industrieproduktion stärken wird. Was vor vielen Jahren ins Ausland verlagert worden ist, kann in Zukunft vielleicht wieder nach Bayern zurückkommen.“

Prominenz aus Politik, Wissenschaft und Wirtschaft bei der AI.BAY 2023. Quelle: AI.BAY

Wissenschaftsminister Markus Blume sagte, KI sei die Eintrittskarte zu einer neuen Welt! Deshalb holen man mit unserer Hightech Agenda Bayern die besten Köpfe für künstliche Intelligenz in den Freistaat: Von über 100 neu geschaffenen KI-Professuren seien innerhalb kürzester Zeit bereits drei Viertel besetzt oder der Ruf dafür angenommen. Bayern sei Vorreiter in ganz Europa. „Wir müssen dringend eine europäische KI aufbauen, basierend auf unseren Datenmodellen und mit unseren Wertvorstellungen. Dafür müssen auch die Bundesregierung und die EU größere Anstrengungen unternehmen“, sagte Blume.

Digitalministerin Judith Gerlach mahnte, dass man darauf achten müsse, KI-Innovationen nicht durch Überregulierung abzuwürgen. Eine in Bayern erstellte Studie, in der über 100 konkrete Beispiele von KI-Anwendungen aus der Industrie betrachtet wurden, zeige deutlich: Der vorliegende Entwurf der EU-Verordnung zu Künstlicher Intelligenz werde von vielen Start-ups als innovationsfeindlich, zu risikofixiert und streckenweise unklar formuliert angesehen, sagte die Ministerin. „Die KI-Verordnung darf nicht zum praxisfernen KI-Verhinderungsgesetz werden. Hier brauchen wir eine Regulierung mit Augenmaß“, sagte Judith Gerlach.

Der Beitrag AI.BAY 2023: Bayern als KI-Standort erschien zuerst auf Linux-Magazin.

LLaMA:  Facebooks Einstieg in die KI-Forschung

27. Februar 2023 um 08:44

Der Facebook-Mutterkonzern Meta hat LLaMA eine Sammlung von grundlegenden Sprachmodellen vorgestellt. Die seien auf Milliarden von Tokens trainiert und würden zeigen, dass es möglich ist, Modelle ausschließlich mit öffentlich verfügbaren Datensätzen zu trainieren, ohne proprietäre und unzugängliche Daten.

Wie Meta in seinem Entwicklerblog berichtet, soll der Datensatz LLaMA-13B den von GPT-3 (175B) bei den meisten Benchmarks übertreffen. Alle Modelle wolle man öffentlich zur Verfügung stellen.

Mark Zuckerberg schreibt auf Facebook, das LLaMA Forschern helfen soll, ihre Arbeit voranzubringen. LLMs (Large Language Models) hätten sich als vielversprechend erwiesen, wenn es darum gehe, Texte zu generieren, Gespräche zu führen, schriftliches Material zusammenzufassen und kompliziertere Aufgaben zu lösen, wie etwa mathematische Theoreme. Meta habe sich diesem offenen Forschungsmodell verschrieben und man werde das neue Modell der KI-Forschungsgemeinschaft zur Verfügung stellen, schreibt Zuckerberg.

Meta zufolge soll LLaMA derzeit nicht in den sozialen Netzen des Konzerns wie Faceook und Instagram eingesetzt werden, sondern eben in der KI-Forschung seinen Beitrag leisten. Eine Publikation der Meta-Forscher erläutert die KI von LLaMA näher.

Der Beitrag LLaMA:  Facebooks Einstieg in die KI-Forschung erschien zuerst auf Linux-Magazin.

Programmieren im Zeitalter von ChatGPT

02. März 2023 um 17:55

ChatGPT ist in aller Munde. Es formuliert in flüssigem Deutsch oder Englisch Hausaufgaben, löst Philosophie-Wiederholungsfragen und fügt bei Bedarf frei erfundene Quellen hinzu, damit der Text seriöser/wissenschaftlicher wirkt. Wenn man das Programm hinweist, dass 2+3 keineswegs 5 ist, entschuldigt es sich höflich für seinen Fehler. Kurzum, Bananen-Software, reift beim Anwender? Ich bin nicht dieser Meinung.

Trotz aller Unzulänglichkeiten schätze ich das Programm mittlerweile so sehr, dass ich bereit wäre, für seine Anwendung zu zahlen. Bisher war das nicht notwendig. Mit ein paar Versuchen ist mir der Login noch jedes Mal gelungen, auch bei angeblich unerwartet hoher Auslastung.

Nun zähle ich nicht zu den Twitter- oder YouTube-Enthusiasten, die Ihnen versprechen, mit ChatGPT 10 x produktiver zu arbeiten oder 10.000 EUR pro Monat extra zu verdienen. Blödsinn! Aber ich bin mittlerweile überzeugt, dass mir ChatGPT mehr Zeit erspart, als ich brauche, um die ca. 23 EUR zu verdienen, die ChatGPT Plus aktuell pro Monat kostet. Und ich bin schon sehr gespannt, welche KI-Tools als Nächstes kommen!

ChatGPT unterstützt mich beim Programmieren

Berufsbedingt wechsle ich zwischen rund einem Dutzend Sprachen hin und her. Manche Sprachen brauche ich beinahe täglich oder zumindest wöchentlich, bei anderen vergehen schon mal etliche Monate von der einen Anwendung zu nächsten. Das bringt es mit sich, dass ich mir einfach nicht auswendig merken kann, wie ich die letzten drei Zeichen einer Zeichenkette in einem SQL-Statement, in der PowerShell oder in Java extrahiere. Wie ich einen regulären Ausdruck in PHP anwende, und welche Funktionen dagegen in Python verwendet werden.

Solange ich nicht in meinen eigenen Büchern nachschauen kann (deren Aufbau kenne ich so gut, dass die Suchzeit gegen Null geht), habe ich mir derartige Fragen bisher meist von Google beantworten lassen. Google führt dann in die Dokumentation der jeweiligen Sprache oder (bevorzugt) auf einen Beitrag von StackOverflow. Und natürlich weiß ich, welche Seiten am ehesten zum Ziel führen. Dessen ungeachtet dauert es üblicherweise ein paar Minuten, um das im Internet präsentierte Wissen auf die eigene Fragestellung anzuwenden, die Streu eines langatmigen Blog-Beitrags vom Weizen zu trennen. (Mit Videos habe ich mich dagegen nie recht anfreunden können. Es dauert einfach viel zu lange, um an die Stelle zu kommen, wo es interessant wird.)

In den letzten zwei Monaten ist die Anzahl meiner Google-Programmier-Suchen stark gesunken. ChatGPT kann auch programmieren! Warum soll ich umständlich nach Details suchen, wenn ChatGPT innerhalb von Sekunden Code liefert, der nicht nur für die ganz spezifische Fragestellung funktioniert, sondern den die KI auch noch erläutert?

Beispiele

Ein Bild sagt mehr als 1000 Worte? Nun denn:

Wie kann ich in einem PHP-Programm das Bearer Token eines GET-Requests ermitteln?
Vor kurzem habe ich einen regulären Ausdruck gebraucht, um ein Datum im US-Format (also mm/dd/yyyy) zu erkennen.
Hier geht es nur um einen Vorschlag für die Struktur (das Grundgerüst) eines Scripts. Um die Details kümmere ich mich dann selbst, d.h. ich mache das wofür ich bezahlt werde, aber verschwende keine Zeit an Trivialitäten.
Ich will in einem Python-Script eine Datei herunterladen, aber ohne Zusatzmodule zu verwenden.
In einer Folgefrage suche ich nach einem Weg, beim GET-Request einen eigenen Header anzugeben. ChatGPT antwortet im Kontext der vorigen Frage.
In einem Bash-Script will ich die Kennung einer Datei auslesen.
ChatGPT kennt auch Kotlin samt der Datenbankbibliothek Exposed. Die Antwort schießt ein wenig über das Ziel hinaus und enthält auch Code, um eine neue Tabelle einzurichten.
Extrem cool: Ich habe Code in einer Sprache (hier in der Bash) und brauche äquivalenten Code in einer anderen Sprache (hier für die PowerShell). Kein Problem für ChatGPT.
Hier hilft ChatGPT bei der Formatierung von Bildern in einem Markdown-Dokument, das mit Pandoc verarbeitet wird. ChatGPT weist auf die Pandoc-spezifische Erweiterung der Markdown-Syntax hin.
ChatGPT hilft auch bei der Linux-Administration. Hier geht es darum, mit »tar« ein inkrementelles Backup zu erstellen.

ChatGPT versus Copilot

Aus Sicht von Entwicklern ist der GitHub Copilot ein kostenpflichtiges Konkurrenzprodukt zu ChatGPT. Der Copilot soll die Code-Erstellung in Editoren wie VSCode beschleunigen. Im Prinzip geben Sie einen möglichst aussagekräftigen Funktions- oder Methodennamen an, und der Copilot schlägt dafür fertigen Code vor. Die Code-Schnipsel kommen aus dem riesigen Angebot öffentlicher Git-Repositories.

Auch der Copilot nutzt KI-Technik bei der Auswahl und Adaptierung von Code-Schnipsel. Copyright-technisch ist das bedenklicher als die Vorgehensweise von ChatGPT, die in der Regel Code wirklich neu generiert. Natürlich kann es passieren, dass der Copilot Code vorschlägt, der bekannte Fehler oder gar Sicherheitslücken enthält. Das sind aber Probleme, die auch bei ChatGPT auftreten können. Letztlich bleibt es die Verantwortung des Entwicklers / der Entwicklerin, den Code zu verstehen und zu entscheiden, ob er für das Problem taugt oder nicht.

Für mich liegt der wesentliche Unterschied zwischen ChatGPT und dem Copilot weniger im produzierten Code als in der Bedienung: Mit ChatGPT kann ich gewissermaßen sprechen, ich kann mein ganz spezifisches Problem in Deutsch oder (besser!) in Englisch beschreiben und erhalte eine Antwort, die exakt auf die Aufgabenstellung eingeht. Bei Bedarf kann ich sogar um eine Nachbesserung im einen oder anderen Punkt bitten. Die Arbeitsweise ist für mich ungleich intuitiver, angenehmer und »menschlicher« als der Ansatz des Copiloten, einfach nur Code zu einer Funktionsdeklaration zu liefern.

Mich hat der Copilot schon in der Beta-Phase nicht so recht begeistert, und mit ChatGPT sieht das Angebot — nur wenige Monate nach der Markteinführung — schon ziemlich alt aus.

Letzte Anmerkungen

  • Ich habe aktuell keine Angst, dass mich ChatGPT oder eine ähnliche Technik als Programmierer, Admin, Vortragender oder Autor ablöst. Für mich ist ChatGPT einfach ein neues Hilfsmittel bei meiner Arbeit.
  • Insofern halte ich es auch für verrückt, den Einsatz in Schulen, Unis etc. zu verbieten. Das Ziel muss es vielmehr sein, KI-Tools produktiv (und durchaus verantwortungsvoll) anwenden zu lernen. Dieser Grundsatz gilt ja auch für andere Werkzeuge, die wir heute als selbstverständlich einsetzen, von der Rechtschreibkorrektur bis zur Nutzung der Wikipedia.
  • Ich bin mir ziemlich sicher, dass der Nutzen von KI-Tools umso höher ist, je größer das eigene Wissen ist. Insofern ersetzen diese Tools weder qualifizierte Mitarbeiter noch deren Ausbildung.
  • Vielleicht bin ich altmodisch, aber ich pflege einen höflichen Umgangston mit ChatGPT und vergleichbaren Werkzeugen.
  • Zu guter Letzt habe ich das Gefühl (das ich aber nicht objektiv belegen kann), dass die Kommunikation in englischer Sprache zu besseren Ergebnissen führt als Anfragen in Deutsch. Grundsätzlich ist es verblüffend, dass ChatGPT nahezu jeder Sprache mächtig ist. Aber die IT-Welt ist englisch. StackOverflow ist englisch. Die Originaldokumentation nahezu jedes IT-Tools ist englisch. Selbst Entwickler, die eine andere Muttersprache haben, verwenden in der Regel englischsprachige Variablen-, Klassen- und Methodennamen, kommentieren ihren Code idealerweise in Englisch. Insofern erscheint es mir nahe liegend, Code-Fragen in Englisch zu formulieren, was sich auch in den meisten Screenshots dieses Texts widerspiegelt.

Links

Eine andere Meinung, etwas skeptischer, aber auch mit wesentlich spezielleren Fragen:

OpenAI bringt API für ChatGPT und Whisper

03. März 2023 um 08:34

OpenAI hat für ChatGPT- und die Speech-to-Text-Funktionen von Whisper APIs verfügbar gemacht. Entwicklern sollen damit ihre Anwendungen an den Chatbot anbinden können. Auch für das Speech-to-Text-Modell Whisper gibt es ein API.

OpenAI rühmt sich, durch systemweite Optimierungen die Kosten für ChatGPT seit Dezember um 90 Prozent gesenkt zu haben. Davon sollen nun auch die API-Nutzer profitieren, heißt es in der Ankündigung.

Entwickler könnten jetzt das Open-Source-Modell Whisper large-v2 in der API mit viel schnelleren und kostengünstigeren Ergebnissen verwenden. ChatGPT-API-Nutzer sollen mit kontinuierlichen Modellverbesserungen und der Option rechnen können, dedizierte Kapazitäten für eine tiefere Kontrolle über die Modelle wählen zu dürfen.

Zu den Preisen für die kostenpflichtige API sagte OpenAI: Die ChatGPT-Modellfamilie, die man freigebe, gpt-3.5-turbo, sei das gleiche Modell, das in dem ChatGPT-Produkt verwendet werde. Der Preis liegt bei 0,002 US-Dollar pro 1000 Tokens. Das sei rund zehnmal günstiger ist als die bestehenden GPT-3.5-Modelle.

Der Tokenizer berechnet die Zahl der Tokens in einem Text. Unten sind die jeweiligen Zeichenfolgen des Token farblich markiert.

Tokens stehen dabei für Zeichenfolgen, die ChatGPT im Text ausmacht. OpenAI hat einen Rechner online gestellt, mit dem sich die Anzahl der Tokens für Textpassagen ausrechnen lässt.

Der Beitrag OpenAI bringt API für ChatGPT und Whisper erschien zuerst auf Linux-Magazin.

IT-Experten fordern Entwicklungspause für KI

30. März 2023 um 08:44

In einem offenen Brief setzen sich IT-Experten für eine Pause in der Entwicklung von KI-Systemen ein. Es solle einen sechsmonatigen Trainingsstop für KI-Systeme geben, die leistungsfähiger sind als GPT-4, fordern die rund 1400 Unterzeichner, zu denen auch Elon Musk, Steve Wozniak, Berkeley-Professor Stuart Russell und weitere prominente Namen aus der IT-Branche zählen.

Im Brief wird die Zukunft der Menschheit im Zusammenhang mit KI-Systemen düster beschrieben. Der Brief ist auf der Webseite des Future of Life-Instituts veröffentlicht. Das Institut, das sich als unpolitische Non-Profit-Organisation beschreibt, beschäftigt sich mit langfristigen Entwicklungen in Wissenschaft und Technik, die für die Zukunft der Menschheit eine Bedrohung darstellen können.

Im offenen Brief heißt es unter anderem:

“Heutige KI-Systeme werden bei allgemeinen Aufgaben immer konkurrenzfähiger für den Menschen, und wir müssen uns fragen: Sollen wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten? Sollten wir alle Arbeitsplätze automatisieren, auch die erfüllenden? Sollten wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen, überlisten, überflüssig machen und ersetzen könnten? Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren?“

Die für KI-Labs geforderte Pause solle, wenn nötig auch von Regierungen durchgesetzt werden, sollten die Akteure nicht dazu bereit sein.

KI-Labore und unabhängige Experten sollten diese Pause nutzen, um gemeinsam eine Reihe gemeinsamer Sicherheitsprotokolle für fortschrittliche KI-Designs und -Entwicklungen zu entwickeln und umzusetzen, die von unabhängigen externen Experten streng geprüft und überwacht werden, heißt es weiter. Diese Protokolle sollten dann gewährleisten, dass Systeme, die sich daran halten, zweifelsfrei sicher seien, schreiben die Experten im Brief.

Das Vorgehen bedeute keine generelle Pause in der KI-Entwicklung, sondern lediglich eine Abkehr von dem gefährlichen Wettlauf zu immer größeren, unberechenbaren Black-Box-Modellen mit emergenten Fähigkeiten, heißt es im Schreiben.

Der Beitrag IT-Experten fordern Entwicklungspause für KI erschien zuerst auf Linux-Magazin.

Investiert SAP in künstliche Intelligenz?

07. April 2023 um 04:59

ChatGPT von OpenAI ist derzeit in aller Munde. Doch ist ChatGPT nicht die einzige derzeit interessante KI-Lösung. Das scheint auch SAP so zu sehen und soll derzeit in das Heidelberger Unternehmen Aleph Alpha investieren zu wollen. Wie die FAZ berichtet, scheint SAP vorhaben künstliche Intelligenz in Deutschland aktiv zu fördern. Ein Einstieg in das Heidelberger...

Der Beitrag Investiert SAP in künstliche Intelligenz? erschien zuerst auf MichlFranken.

ChatGPT: Deutsche Unternehmen planen KI-Einsatz

11. April 2023 um 08:15

Künstliche Intelligenz zur Textgenerierung wie ChatGPT könnte bald in viele deutsche Unternehmen Einzug halten. Jedes sechste Unternehmen (17 Prozent) plant den Einsatz solcher KI-Anwendungen, weitere 23 Prozent haben keine konkreten Planungen, können sich die Nutzung aber vorstellen, hat der Digitalverband Bitkom in einer Umfrage ermittelt.

Für 29 Prozent der Unternehmen kommt ein KI-Einsatz nicht in Frage. Jedes Vierte (25 Prozent) hat sich mit der Frage noch nicht beschäftigt. Offiziell im Einsatz sind solche KI-Anwendungen in noch keinem Unternehmen. Das ist das Ergebnis einer repräsentativen Umfrage unter 603 Unternehmen ab 20 Beschäftigten in Deutschland im Auftrag des Digitalverbands Bitkom.

Eine Mehrheit von 56 Prozent der befragten Unternehmen sieht in Künstlicher Intelligenz zur Textgenerierung die größte digitale Revolution seit dem Smartphone. 40 Prozent sehen darin aber auch einen Hype, der bald wieder vorbeigehen werde. 70 Prozent erwarten dass KI zur Textgenerierung künftig zum Berufsalltag gehöre und daher in Schule und Ausbildung mehr Wissen über KI vermittelt werden müsse. Teilt der Bitkom mit.

Welche Auswirkungen KI auf den Arbeitsmarkt haben werde, darüber gehen die Meinungen auseinander. Rund die Hälfte der Unternehmen (51 Prozent) meint, dass weniger Personal benötigt werden könnte, 40 Prozent glauben sogar, dass bestimmte Berufe nicht mehr gebraucht werden. 44 Prozent rechnen damit, dass Beschäftigte von Routinearbeiten entlastet werden. Eine Mehrheit von 58 Prozent sieht sich vor neue Herausforderungen gestellt, etwa beim Datenschutz. Drei Viertel (74 Prozent) teilen zudem die Meinung, dass KI-Anwendungen zur Textgenerierung uns immer abhängiger von Tech-Unternehmen außerhalb Deutschlands machen.

Der Beitrag ChatGPT: Deutsche Unternehmen planen KI-Einsatz erschien zuerst auf Linux-Magazin.

OpenAI legt Bug Bounty Programm auf

13. April 2023 um 09:13

Das hinter ChatGPT stehende Unternehmen OpenAI hat ein Bug Bounty Programm gestartete. Die Geldprämien hängen laut OpenAI vom Schweregrad und den Auswirkungen der gemeldeten Probleme ab. Die Belohnungen reichen von 200 US-Dollar für weniger schwerwiegende Entdeckungen bis zu 20.000 US-Dollar für außergewöhnliche Entdeckungen.

Das Bug Bounty Programm sei eine Möglichkeit, die wertvollen Erkenntnisse von Sicherheitsforschern anzuerkennen und zu belohnen, die dazu beitragen, unsere Technologie und unser Unternehmen sicher zu halten, schreibt OpenAI.

Das Programm wird mit Bugcrowd als Partner abgewickelt, einer Bug-Bounty-Plattform. Der Melde- und Belohnungsprozess solle damit für alle Teilnehmer möglichst reibungslos funktionieren. Detaillierte Richtlinien und Regeln für die Teilnahme finden Interessierte auf der Bug Bounty Programm Seite von OpenAI. Dort weist OpenAI insbesondere auch darauf hin, dass Probleme, die sich auf den Inhalt von Prompts und Antworten der KI beziehen, nicht in den Geltungsbereich des Programms fallen und nicht belohnt werden, es sei denn, sie haben zusätzliche, direkt nachweisbare Sicherheitsauswirkungen auf einen Dienst, heißt es. Es genügt also nicht, der KI nur eine falsche Antwort zu entlocken, um eine Belohnung zu erhalten.

Der Beitrag OpenAI legt Bug Bounty Programm auf erschien zuerst auf Linux-Magazin.

Meta macht Animated Drawings zu Open Source

17. April 2023 um 10:01

Das Team von Fundamental AI Research (FAIR) vom Facebook-Mutterkonzern Meta hat Animated Drawings veröffentlicht. Das Open-Source-Projekt ermöglicht es Anwendern, eigene Zeichnungen von Strichmännchen mit künstlicher Intelligenz zu animieren.

Das Projekt wurde im Jahr 2021 gestartet, die Forscher von FAIR wollten damals mit Hilfe von Objekterkennungsmodellen, Modellen zur Posenschätzung und bildverarbeitungsbasierten Segmentierungsmethoden eine Möglichkeit schaffen, schnell eine digitale Version einer Zeichnung zu  erstellen. Diese ließe sich dann mit herkömmlichen Computergrafiktechniken verformen und animieren. Es gab dabei jedoch das Problem, das Charakterzeichnungen in dem Maßstab, der zum Trainieren eines Computer-Vision-Modells erforderlich ist, nur schwer zu bekommen sind. Daneben seien Informationen wie Gelenkpositionen und Segmentierungsmasken nötig. Um dieses Problem zu lösen, haben die Forscher damals die Animated Drawings Demo veröffentlicht und über dieses öffentlich zugängliche, webbasierte Tool Nutzern ermöglicht, Zeichnungen hochzuladen und gleichzeitig Angaben zu Gelenkpunkten zu machen um dann eine Animation der Figur in den Zeichnungen zu erhalten. Wer wollte, konnte auf freiwilliger Basis das Bild und die Anmerkungen an Meta für künftige Forschungszwecke übertragen.

Die Forscher veröffentlichten die Demo in der Hoffnung, irgendwann 10.000 Zeichnungen zu sammeln, mit denen sie die Leistung ihres Modells verbessern können. Die Realität sah anders aus. Innerhalb der ersten Monate hatten die Nutzer über 1,6 Millionen Bilder hochgeladen und ihre Zustimmung zur Nutzung gegeben, teilen die Forscher mit. Interessanterweise hätten viele Nutzer der Demo keine Amateurzeichnungen hochgeladen sondern auch Firmenlogos, Bilder von Spiezeugtieren, von Anime-Figuren und von Haustieren nebst Action-Figuren.

Das Projekt Animated Drawings ist bei Github unter der MIT-Lizenz veröffentlicht.

Der Beitrag Meta macht Animated Drawings zu Open Source erschien zuerst auf Linux-Magazin.

Databricks veröffentlicht quelloffenes Sprachmodell Dolly 2.0

17. April 2023 um 14:11

Databricks, Spezialist für Data-Engineering auf Basis von Apache Spark, hat mit Dolly 2.0 eine ChatGPT-ähnliches Large Language Model (LLM) unter Open-Source-Lizenz veröffentlicht.

Dolly 2.0 sei ein 12-Milliarden-Parameter-Sprachmodell, das auf der EleutherAI-Pythia-Modellfamilie basiere und das erste quelloffene LLM, das mit einem von Menschen generierten Anweisungsdatensatz trainiert worden sei, teilt Databricks mit.. Es sei auf einem qualitativ hochwertigen, von Menschen generierten Datensatz für die Verfolgung von Anweisungen abgestimmt worden. Den Datensatz hätten Databricks-Mitarbeiter per Crowdsourcing erstellt. Zum Vergleich: ChatGPT kann auf rund 175 Milliarden Parameter zurückgreifen, um Texte zu interpretieren und zu generieren.

Man stelle Dolly 2.0 in seiner Gesamtheit als freie Software unter der Creative Commons Attribution-ShareAlike 3.0 Unported License zur Verfügung, einschließlich des Trainingscodes und des Datensatzes und der Modellgewichtung. Alle Komponenten seien für die kommerzielle Nutzung geeignet, berichtet Databricks weiter. Das bedeutet, dass jede Organisation damit LLMs erstellen, besitzen und anpassen könne, die mit Menschen sprechen können, ohne für den API-Zugang zu bezahlen oder Daten mit Dritten zu teilen.

Der Datensatz databricks-dolly-15k enthalte 15.000 qualitativ hochwertige, von Menschen erstellte Prompt/Response-Paare, die speziell für die Abstimmung großer Sprachmodelle entwickelt worden seien. Gemäß den Lizenzbedingungen für databricks-dolly-15k könne jeder diesen Datensatz für jeden Zweck, einschließlich kommerzieller Anwendungen, verwenden, verändern oder erweitern, heißt es weiter.

Databricks-Dolly-15k sei von mehr als 5000 Databricks-Mitarbeitern im März und April 2023 aufgebaut. Die Trainingsdatensätze seien deshalb natürlich und ausdrucksstark und so konzipiert, dass sie ein breites Spektrum an Verhaltensweisen abbilden, von Brainstorming und Inhaltsgenerierung bis hin zu Informationsextraktion und Zusammenfassung, berichten die Entwickler von Databricks.

Auf der Databricks Hugging Face Seite lasse sich das auf dem Datensatz aufbauende Sprachmodell Dolly-v2-12b herunterladen. Der Datensatz Databricks-Dolly-15k liege im Dolly-Repo bei Databricks Labs. Außerdem biete man ein Webinar als Einführung von LLMs für Unternehmen an.

Der Beitrag Databricks veröffentlicht quelloffenes Sprachmodell Dolly 2.0 erschien zuerst auf Linux-Magazin.

Mojo: LLVM-Gründer will Python für KI-Anwendung aufbohren

Chris Lattner hat LLVM begründet und Swift erfunden. Die Sprache Mojo soll Vorteile von Python und C vereinen.

Die neue Programmiersprache Mojo soll allen KI-Programmierern eine Heimat bieten und dabei die Einfachheit von Python mit der Geschwindigkeit von C kombinieren. Das zumindest verspricht das KI-Startup Modular, das von LLVM-Gründer Chris Lattner mitbegründet worden ist und von diesem derzeit als CEO geführt wird.

Mojo baut dabei direkt auf Python auf, das als Grundlage der aktuellen KI-Forschung gilt und für zahlreiche Frameworks wie etwa Tensorflow oder Pytorch genutzt wird. Die neue Sprache soll offenbar eine Art Übermenge für Python selbst sein und den Zugriff auf das komplette Python-Ökosystem bieten. Modular zählt hier vor allem die für Berechnungen wichtigen Bibliotheken Numpy und Pandas auf.

Erreicht werden sollen die Geschwindigkeitsverbesserungen von Mojo vor allem dank einer Laufzeitumgebung, die Modular selbst erstellt, sowie der Compilertechnik MLIR. Bei dieser handelt es sich um eine neue Art der Intermediate Representation (IR), die Lattner selbst gemeinsam mit weiteren Forscher bereits vor mehr als drei Jahren vorstellte.

Statt diese Art der Compiler-Zwischenschicht je Sprache selbst zu erstellen oder auch für bestimmte Hardware zu optimieren, soll MLIR durch einen Mehrschichtansatz (Multi-Level) eben verschiedene Probleme lösen, diese aber letztlich in einem Projekt zusammenführen.

Für Mojo ergebe sich dank MLIR ein Zugriff auf die Beschleunigereinheiten von KI-Hardware. So sollen Threads ebenso genutzt werden können wie Low-Level-Funktionen, etwa Tensor-Cores oder die AMX-Erweiterungen. Bei spezifischen numerischen Berechnungen soll Mojo so bis zu 35.000-fach schneller sein als Python und damit auch schneller als üblicher C++-Code.

Noch befinde sich Mojo in der Entwicklung. Modular bietet aber eine Art Spielwiese auf Grundlage von Jupyter-Hub, um die Sprache bereits auszuprobieren. Dazu ist allerdings noch eine Anmeldung notwendig.

Der Beitrag Mojo: LLVM-Gründer will Python für KI-Anwendung aufbohren erschien zuerst auf Linux-Magazin.

TÜV: Jeder vierte nutzt ChatGPT – mit Bedenken

19. Mai 2023 um 07:24

Seit der Einführung im November 2022 haben schon 83 Prozent der Bundesbürger von ChatPT gehört. Und fast jeder Vierte hat ChatGPT bereits für berufliche oder private Zwecke genutzt (23 Prozent), hat eine repräsentative Forsa-Umfrage im Auftrag des TÜV-Verbands unter 1021 Personen ab 16 Jahren ergeben.

Vorreiter bei der Nutzung sind die Jüngeren: 43 Prozent der 16- bis 35-Jährigen haben ChatGPT mittlerweile eingesetzt, berichtet der TÜV-Verband. In der Altersgruppe der 36- bis 55-Jährigen sind es 20 Prozent. Unter den 56- bis 75-Jährigen sind es 7 Prozent. Männer nutzen die KI-Anwendung mit 27 Prozent etwas häufiger als Frauen mit 19 Prozent.

ChatGPT zeige aber auch, welche Risiken mit dem Einsatz von Künstlicher Intelligenz verbunden seien. 80 Prozent der Befragten stimmen der Aussage zu, dass beim Einsatz von KI derzeit nicht abschätzbare Risiken bestehen würden, heißt es vom TÜV-Verband. 65 Prozent befürchten, dass die Technologie für Menschen nicht mehr beherrschbar sei und 61 Prozent dass sie ohne ihr Wissen manipuliert werden könnten. Und 76 Prozent haben Bedenken, dass KI persönliche Daten nicht ausreichend schützt.

91 Prozent fordern, dass der Gesetzgeber einen rechtlichen Rahmen für den sicheren Einsatz von KI schaffen sollte. Dabei sollte sich die Regulierung und Nutzung von KI in der EU an europäischen Werten orientieren, sagen 83 Prozent.

Der Beitrag TÜV: Jeder vierte nutzt ChatGPT – mit Bedenken erschien zuerst auf Linux-Magazin.

❌
❌