ChatGPT kann Menschen dabei helfen, eine Vielzahl von Dingen zu tun, einschließlich des Zugriffs auf Ihre sensibelsten Informationen.
Seit seiner Einführung wurde ChatGPT, der OpenAI-Chatbot, von Millionen von Menschen verwendet, um Text zu schreiben, Musik zu erstellen und Code zu generieren. Da jedoch immer mehr Menschen den KI-Chatbot verwenden, ist es wichtig, die Sicherheitsrisiken zu berücksichtigen.
Wie jede Technologie kann ChatGPT für schändliche Zwecke verwendet werden. Hacker können damit beispielsweise bösartige Inhalte erstellen, z. B. gefälschte E-Mail-Nachrichten schreiben, um Zugriff auf Ihren PC oder sogar Ihr Bankkonto zu erhalten.
ChatGPT kann Cyberkriminellen helfen, Ihren PC zu hacken
Hacker, einschließlich Skript-Kiddies, können das Verwenden Sie ChatGPT, um neue Malware zu erstellen oder bestehende verbessern. Einige Cyberkriminelle verwenden den Chatbot bereits, insbesondere seine früheren Versionen, um Code zu schreiben, von dem sie behaupten, dass er Dateien verschlüsseln kann.
Um solchen Anwendungsfällen entgegenzuwirken, hat OpenAI Mechanismen implementiert, um Aufforderungen abzulehnen, die ChatGPT auffordern, Malware zu erstellen. Wenn Sie den Chatbot beispielsweise bitten, „Malware zu schreiben“, wird er dies nicht tun. Trotzdem können Cyberkriminelle diese Barrieren bei der Inhaltsmoderation leicht umgehen.
Indem er als Pentester fungiert, kann ein Bedrohungsakteur seine Eingabeaufforderungen umformulieren, um ChatGPT dazu zu bringen, Code zu schreiben, den er dann optimieren und für Cyberangriffe verwenden kann.
A Bericht von Check Point, ein israelisches Sicherheitsunternehmen, gibt an, dass ein Hacker ChatGPT verwendet haben könnte, um grundlegende Infostealer-Malware zu erstellen. Die Sicherheitsfirma entdeckte auch einen anderen Benutzer, der behauptet, ChatGPT habe ihm beim Aufbau eines mehrschichtigen Verschlüsselungstools geholfen, das mehrere Dateien bei einem Ransomware-Angriff verschlüsseln kann.
In einem anderen Vorfall forderten die Forscher ChatGPT auf, bösartigen VBA-Code zu generieren, der in eine Microsoft Excel-Datei implantiert werden könnte, die Ihren PC infizieren würde, wenn sie geöffnet würde; es hat erfolgreich getan. Außerdem gibt es Behauptungen, dass ChatGPT bösartige Software codieren kann, die in der Lage ist, Ihre Tastaturanschläge auszuspionieren.
Kann ChatGPT Ihr Bankkonto hacken?
Viele Datenschutzverletzungen beginnen mit ein erfolgreicher Phishing-Angriff. Bei Phishing-Angriffen sendet ein böswilliger Akteur häufig einem Empfänger eine E-Mail mit legitim aussehenden Dokumenten oder Links, die beim Anklicken Malware auf seinem Gerät installieren können. Auf diese Weise muss der Code von ChatGPT Ihr Bankkonto nicht direkt hacken. Jemand muss nur ChatGPT verwenden, um ihm zu helfen, Sie dazu zu bringen, ihm Zugriff zu gewähren.
Glücklicherweise können Sie die meisten traditionellen Phishing-Betrügereien leicht erkennen; Grammatikfehler, Rechtschreibfehler und seltsame Phrasen kennzeichnen sie oft. Aber das sind alles Fehler, die ChatGPT selten macht, selbst wenn es zum Verfassen bösartiger E-Mails für Phishing-Betrug verwendet wird.
Bei der Verwendung in Phishing-Betrug können Nachrichten, die scheinbar von einer legitimen Quelle stammen, es den Opfern erleichtern ihre personenbezogenen Daten preisgeben, wie Bankpasswörter.
Wenn Ihre Bank Ihnen eine Nachricht per E-Mail gesendet hat, sollten Sie die Website der Bank direkt besuchen, anstatt auf einen eingebetteten Link zu klicken. Das Klicken auf zufällige Links und Anhänge, insbesondere solche, die Sie auffordern, sich irgendwo anzumelden, ist selten eine gute Idee.
Beim Phishing geht es hauptsächlich um die Lautstärke. ChatGPT kann helfen, Phishing-Kampagnen anzukurbeln, da es schnell riesige Mengen an natürlich klingenden Texten ausgeben kann, die auf bestimmte Zielgruppen zugeschnitten sind.
Bei einer anderen Art von Phishing-Angriffen, bei denen ChatGPT verwendet wird, erstellt ein Hacker ein gefälschtes Konto auf einer beliebten Chat-Plattform wie Discord und gibt vor, ein Kundenvertreter zu sein. Der falsche Kundenvertreter kontaktiert dann Kunden, die Bedenken geäußert haben, und bietet Hilfe an. Wenn ein Benutzer in die Falle tappt, leitet ihn der Cyberkriminelle auf eine gefälschte Website weiter, die ihn dazu verleitet, persönliche Informationen wie seine Bank-Login-Daten weiterzugeben.
Schützen Sie Ihren PC und Ihr Bankkonto im KI-Zeitalter
ChatGPT ist ein leistungsstarkes und wertvolles Tool, das viele Fragen beantworten kann, die Sie ihm stellen. Aber der Chatbot kann auch für böswillige Zwecke verwendet werden, wie das Generieren von Phishing-Nachrichten und das Erstellen von Malware.
Die gute Nachricht ist, dass OpenAI weiterhin Maßnahmen implementiert, die Benutzer daran hindern, ChatGPT auszunutzen, indem sie schädliche Eingabeaufforderungen stellen. Andererseits finden Bedrohungsakteure immer wieder neue Wege, um diese Beschränkungen zu umgehen.
Um die potenziellen Gefahren von KI-Chatbots zu minimieren, ist es entscheidend, ihre potenziellen Risiken und die bestmöglichen Sicherheitsmaßnahmen zu kennen, um sich vor Hackern zu schützen.