Samsung-Mitarbeiter haben versehentlich private Unternehmensdaten über ChatGPT preisgegeben – ein Beispiel dafür, warum KI eine so große Bedrohung für Ihre Privatsphäre und Sicherheit darstellt.

ChatGPT ist zu einem großen Sicherheits- und Datenschutzproblem geworden, weil zu viele von uns geistesabwesend unsere privaten Informationen darüber teilen. ChatGPT protokolliert jede Konversation, die Sie damit führen, einschließlich aller persönlichen Daten, die Sie teilen. Trotzdem würden Sie dies nicht wissen, wenn Sie sich nicht durch die Datenschutzrichtlinie, die Nutzungsbedingungen und die FAQ-Seite von OpenAI gegraben haben, um es zusammenzusetzen.

Es ist gefährlich genug, Ihre eigenen Informationen preiszugeben, aber angesichts der Tatsache, dass riesige Unternehmen ChatGPT verwenden, um täglich Informationen zu verarbeiten, könnte dies der Beginn einer Datenleck-Katastrophe sein.

Samsung hat vertrauliche Informationen über ChatGPT durchgesickert

Entsprechend Gizmodo, haben Mitarbeiter von Samsung innerhalb von 20 Tagen dreimal fälschlicherweise vertrauliche Informationen über ChatGPT preisgegeben. Dies ist nur ein Beispiel dafür, wie einfach es für Unternehmen ist, private Informationen zu kompromittieren.

ChatGPT steht wegen seiner Datenschutzprobleme öffentlich unter Beschuss, daher ist es ein erhebliches Versehen, dass Samsung dies zugelassen hat. Einige Länder haben ChatGPT sogar verboten ihre Bürger zu schützen, bis es ihre Privatsphäre verbessert, so dass Sie denken würden, dass Unternehmen vorsichtiger darauf achten würden, wie ihre Mitarbeiter es verwenden.

Glücklicherweise scheinen die Kunden von Samsung in Sicherheit zu sein – zumindest vorerst. Die verletzten Daten beziehen sich nur auf interne Geschäftspraktiken, einige proprietäre Codes, die sie behoben haben, und die Protokolle einer Teambesprechung, die alle von Mitarbeitern eingereicht wurden. Es wäre jedoch genauso einfach für die Mitarbeiter gewesen, die persönlichen Daten der Verbraucher preiszugeben, und es ist nur eine Frage der Zeit, bis wir sehen, dass ein anderes Unternehmen genau das tut. Wenn dies geschieht, könnten wir erwarten, zu sehen eine massive Zunahme von Phishing-Betrug und Identitätsdiebstahl.

Auch hier gibt es eine weitere Risikoebene. Wenn Mitarbeiter ChatGPT verwenden, um nach Fehlern zu suchen, wie sie es beim Samsung-Leck getan haben, wird der Code, den sie in das Chatfeld eingeben, auch auf den Servern von OpenAI gespeichert. Dies könnte zu Verstößen führen, die massive Auswirkungen auf Unternehmen haben, die unveröffentlichte Produkte und Programme beheben. Möglicherweise sehen wir sogar Informationen wie unveröffentlichte Geschäftspläne, zukünftige Versionen und durchgesickerte Prototypen, was zu enormen Umsatzverlusten führt.

Wie kommt es zu ChatGPT-Datenlecks?

Datenschutzrichtlinie von ChatGPT macht deutlich, dass es Ihre Gespräche aufzeichnet und die Protokolle mit anderen Unternehmen und seinen KI-Trainern teilt. Wenn jemand (z. B. ein Samsung-Mitarbeiter) vertrauliche Informationen in das Dialogfeld eingibt, werden diese aufgezeichnet und auf den Servern von ChatGPT gespeichert.

Es ist höchst unwahrscheinlich, dass die Mitarbeiter dies absichtlich getan haben, aber das ist der beängstigende Teil. Die meisten Datenschutzverletzungen werden durch menschliches Versagen verursacht. Dies liegt häufig daran, dass das Unternehmen seine Mitarbeiter nicht über die Datenschutzrisiken bei der Verwendung von Tools wie KI aufgeklärt hat.

Wenn sie beispielsweise eine große Kontaktliste in den Chat einfügen und die KI bitten, die Telefonnummern der Kunden aus den Daten zu isolieren, hat ChatGPT diese Namen und Telefonnummern in seinen Aufzeichnungen. Ihre privaten Daten sind Unternehmen ausgeliefert, denen Sie sie nicht mitgeteilt haben, die sie möglicherweise nicht gut genug schützen, um Sie zu schützen. Es gibt ein paar Dinge, die Sie tun können Schützen Sie sich nach einer Datenpanne, aber Unternehmen sollten dafür verantwortlich sein, Lecks zu verhindern.

Moral der Geschichte: Verraten Sie ChatGPT nicht Ihre Geheimnisse

Sie können ChatGPT sicher für Hunderte verschiedener Aufgaben verwenden, aber das Organisieren vertraulicher Informationen gehört nicht dazu. Sie müssen darauf achten, dass Sie nichts Persönliches in das Chat-Feld eingeben, einschließlich Ihres Namens, Ihrer Adresse, E-Mail-Adresse und Telefonnummer. Es ist leicht, diesen Fehler zu machen, also sollten Sie Ihre Eingabeaufforderungen sorgfältig überprüfen, um sicherzustellen, dass nichts versehentlich hineingekommen ist.

Das Samsung-Leck zeigt uns, wie real das Risiko eines ChatGPT-bezogenen Datenlecks ist. Leider werden wir mehr dieser Art von Fehlern sehen, vielleicht mit weitaus größeren Auswirkungen, da KI zu einem Kernbestandteil der meisten Unternehmensprozesse wird.