Leute verwenden ChatGPT, um Essays, Blogs und mehr zu schreiben. Aber kann ChatGPT auch zum Schreiben von Malware verwendet werden?
ChatGPT hat im Technologiebereich einige große Wellen geschlagen, da die Leute es für so ziemlich alles verwenden. Dieser KI-gestützte Chatbot kann Geschichten schreiben, Informationen bereitstellen, Texte übersetzen und vieles mehr. Aber könnten die Fähigkeiten von ChatGPT für dunklere Zwecke genutzt werden? Kann ChatGPT zum Schreiben von Malware verwendet werden, und wenn ja, was bedeutet dies für unsere Cybersicherheit?
Kann ChatGPT Malware schreiben?
ChatGPT funktioniert, indem es mit den Eingabeaufforderungen arbeitet, die Sie ihm geben. Wenn also ein Benutzer ChatGPT bitten würde, Malware für ihn zu schreiben, würde es sich daran halten?
Es wurde festgestellt, dass ChatGPT Malware schreiben kann. Im Januar 2023 tauchte eine Geschichte darüber auf Nutzung von ChatGPT durch Cyberkriminelle zur Erstellung bösartiger Programme. Ein Benutzer eines Hacking-Forums hatte einen Beitrag über einen Python-basierten Infostealer hochgeladen, den er mit ChatGPT geschrieben hatte. Infostealer sind
Trojaner-Malware-Programme speziell entwickelt, um wertvolle Daten zu exfiltrieren.Dies ist zweifellos besorgniserregend, da ChatGPT mittlerweile unglaublich beliebt und sehr einfach zu bedienen ist.
A Aufgezeichneter Zukunftsbericht erklärte, dass ChatGPT "die Eintrittsbarriere für Bedrohungsakteure mit begrenzten Programmierfähigkeiten oder technischen Fähigkeiten senkt" und es im Wesentlichen einfacher macht, Cyberkriminalität zu betreiben. Der Bericht stellte weiter fest, dass ChatGPT „effektive Ergebnisse mit nur einem elementaren Verständnis der Grundlagen der Cybersicherheit und der Informatik erzielen kann“.
Darüber hinaus berichtete Recorded Future, dass ChatGPT auch bei verschiedenen anderen Formen der Cyberkriminalität helfen kann, darunter „Social Engineering, Desinformation, Phishing, Malvertising und Schemata zum Geldverdienen“.
Anfängern im Bereich Cyberkriminalität die Möglichkeit zu geben, Malware für sie schreiben zu lassen, öffnet vielen eine Tür und automatisiert im Wesentlichen den Prozess der Malware-Erstellung.
Ist ChatGPT also eine Bedrohung für die Cybersicherheit? Die Antwort ist leider ja.
Einschränkungen von ChatGPT
Während Sie über eine Chatbot-Anfrage auf ChatGPT-Malware-Code zugreifen können, scheint dieser zum Zeitpunkt des Schreibens nur sehr einfachen bösartigen Code schreiben zu können. In dem oben erwähnten Recorded Future-Bericht wurde festgestellt, dass die von ChatGPT erstellte Malware, die auf illegalen Plattformen gefunden wurde, „fehlerhaft, aber funktionsfähig“ sei.
Das soll nicht heißen, dass hier keine Risiken bestehen. ChatGPT kann Cyberkriminellen immer noch einen einfacheren Weg zum Betrug und Angriff auf Opfer bieten und es Hackern ermöglichen, neben ihren üblichen Methoden andere Wege zu entdecken.
Darüber hinaus ist nicht abzusehen, ob sich ChatGPT oder ein anderer KI-gestützter Chatbot eines Tages so weit entwickeln wird, dass ausgeklügelte Malware produziert werden kann. Dies ist der Anfang, nicht das Ende.
Verwenden Hacker ChatGPT?
Es ist klar, dass ChatGPT bereits von böswilligen Akteuren missbraucht wird, aber die Bedrohung ist derzeit recht gering. Mit fortschreitender KI werden wir jedoch möglicherweise ausgeklügeltere Chatbots sehen, die von Cyberkriminellen verwendet werden, um weitaus gefährlichere Malware-Programme zu formulieren. Ob ChatGPT bei den größten Cyberangriffen eine Rolle spielen wird, weiß leider nur die Zukunft.