Risiken der beruflichen ChatGPT-Nutzung
Experten des Security-Anbieters Kaspersky haben Datenschutzrisiken der beruflichen Nutzung von LLM-basierte Chatbots identifiziert.
Dazu zählt als erste Gefahr ein Datenleck oder Hack seitens des Providers selbst, berichtet Kaspersky. Denn obwohl LLM-basierte Chatbots von großen Tech-Konzernen betrieben würden, seien sie nicht immun gegenüber Hackingangriffen oder unabsichtlichen Datenlecks. So habe es bereits einen Zwischenfall gegeben, bei dem ChatGPT-Nutzer Eingaben aus dem Nachrichtenverlauf anderer Nutzer sehen konnten, teilt Kaspersky mit.
Datenlecks durch Chatbots zählen ebenfalls zu den Risiken. Da die Chats sich zumindest theoretisch dazu verwenden lassen, um neue Chatbot-Modelle zu trainieren, sollten Nutzer bedenken, dass Daten, die in den Trainingskorpus eingegeben werden, bewusst oder unabsichtlich von Anwendern desselben Sprachmodells aufgerufen werden können. Da LLMs anfällig gegenüber „unabsichtlicher Speicherung“ seien, könnten sie sich einzigartige Sequenzen wie Handynummern merken, die nicht die Modellqualität verbessern, aber die Privatsphäre gefährden, berichten die Experten. Allerdings würden B2B-Lösungen normalerweise keine Chatverläufe speichern und in manchen Fällen auch keine Daten an den Unternehmensserver senden, da der Chatbot lokal im Kundennetzwerk operiere.
Nicht zuletzt zählt das Knacken von Mitarbeiter-Accounts zu den Risiken. Angreifer könnten dann durch Phishing-Angriffe oder Credential Stuffing in Angestellten-Accounts eindringen und auf fremde Daten zugreifen. Außerdem finde die Kaspersky Digital Footprint Intelligence regelmäßig Darknet-Beiträge, die Chatbot‑Accounts zum Verkauf anbieten.
Der Beitrag Risiken der beruflichen ChatGPT-Nutzung erschien zuerst auf Linux-Magazin.