Leser wie Sie helfen, MUO zu unterstützen. Wenn Sie über Links auf unserer Website einen Kauf tätigen, erhalten wir möglicherweise eine Affiliate-Provision. Weiterlesen.

Wer hat ChatGPT zu diesem Zeitpunkt noch nicht verwendet? Es macht Spaß, ist absolut faszinierend, wenn Sie Interesse an künstlicher Intelligenz haben, und (vorerst) kostenlos.

Obwohl es normalerweise als Chatbot bezeichnet wird, ist ChatGPT viel mehr als das. Es kann Texte erstellen, komplexe Themen erklären, als Übersetzer fungieren, Witze erfinden und Code schreiben. Aber es kann auch von Bedrohungsakteuren bewaffnet werden.

Wie ChatGPT funktioniert und warum es für Cyberkriminelle attraktiv ist

ChatGPT (Generative Pre-trained Transformer) wurde vom Forschungslabor für künstliche Intelligenz OpenAI entwickelt und im November 2022 eingeführt. Es ist ein großes Sprachmodell, das eine Kombination aus überwachten und bestärkenden maschinellen Lerntechniken verwendet.

Vielleicht noch wichtiger ist, dass ChatGPT ständig von Benutzern verfeinert und geschult wird, die entweder positiv abstimmen können oder seine Antworten ablehnen, wodurch es umso genauer und leistungsfähiger wird, da es selbst Daten sammelt.

Das unterscheidet ChatGPT von anderen Chatbots. Und wenn Sie es schon einmal benutzt haben, wissen Sie, dass der Unterschied sofort spürbar ist: Im Gegensatz zu anderen ähnlichen Produkten ist es dazu in der Lage Nehmen Sie aktiv an einem Gespräch teil und erledigen Sie komplexe Aufgaben mit erstaunlicher Genauigkeit, während Sie kohärent und menschenähnlich liefern Antworten.

Wenn Ihnen ein kurzer Aufsatz gezeigt würde, der von einem Menschen geschrieben wurde, und einer, der von ChatGPT geschrieben wurde, würden Sie wahrscheinlich Schwierigkeiten haben, zu bestimmen, welcher welcher ist. Als Beispiel ist hier ein Teil des Textes, den ChatGPT generierte, als er aufgefordert wurde, einen kurzen Aufsatz über The Catcher in the Rye zu schreiben.

Das soll nicht heißen, dass ChatGPT nicht seine Grenzen hat – das hat es mit Sicherheit. Je mehr Sie es verwenden, desto mehr werden Sie feststellen, dass dies der Fall ist. So mächtig es auch ist, es kann immer noch mit elementarer Logik kämpfen, Fehler machen, Falsches und Irreführendes teilen Informationen, interpretieren Anweisungen auf komische Weise falsch und werden dazu manipuliert, das Falsche zu zeichnen Abschluss.

Aber die Stärke von ChatGPT liegt nicht in seiner Fähigkeit, sich zu unterhalten. Vielmehr liegt es in seiner nahezu unbegrenzten Fähigkeit, Aufgaben massenweise effizienter und viel schneller zu erledigen, als es ein Mensch könnte. Mit den richtigen Eingaben und Befehlen und ein paar kreativen Problemumgehungen kann ChatGPT in ein verstörend leistungsfähiges Automatisierungstool verwandelt werden.

Vor diesem Hintergrund ist es nicht schwer, sich vorzustellen, wie ein Cyberkrimineller ChatGPT bewaffnen könnte. Es geht darum, die richtige Methode zu finden, sie zu skalieren und die KI dazu zu bringen, möglichst viele Aufgaben gleichzeitig zu erledigen, notfalls mit mehreren Konten und auf mehreren Geräten.

5 Dinge, die Bedrohungsakteure mit ChatGPT tun könnten

Es gibt bereits einige reale Beispiele dafür, dass ChatGPT von Bedrohungsakteuren verwendet wird, aber es sind noch mehr als wahrscheinlich wird es auf verschiedene Weise bewaffnet oder wird es irgendwann in der Zukunft sein Zukunft. Hier sind fünf Dinge, die Hacker mit ChatGPT tun können (und wahrscheinlich tun).

1. Malware schreiben

Wenn ChatGPT Code schreiben kann, kann es Malware schreiben. Keine Überraschung. Aber das ist nicht nur eine theoretische Möglichkeit. Im Januar 2023 entdeckte das Cybersicherheitsunternehmen Check Point Research, dass es bereits Cyberkriminelle gibt Verwenden von ChatGPT zum Schreiben von Malware– und in Untergrundforen damit prahlen.

Der Bedrohungsakteur Check Point Research entdeckte, dass er den fortschrittlichen Chatbot ziemlich kreativ verwendete, um Python-basierte Malware nachzubilden, die in bestimmten Forschungspublikationen beschrieben wird. Als Forscher das Schadprogramm testeten, sagte der Cyberkriminelle die Wahrheit: Seine von ChatGPT generierte Malware tat genau das, wofür sie entwickelt wurde.

2. Generieren Sie Phishing-E-Mails

So leistungsfähig Spamfilter auch geworden sind, gefährliche Phishing-E-Mails rutschen immer noch durch das Raster, und es gibt nicht viel, was die durchschnittliche Person tun kann, außer den Absender ihrem Anbieter zu melden. Aber es gibt eine Menge, was ein fähiger Angreifer mit einer Mailingliste und dem Zugriff auf ChatGPT tun könnte.

Mit den richtigen Befehlen und Vorschlägen kann ChatGPT überzeugende Phishing-E-Mails generieren, den Prozess für den Angreifer potenziell automatisieren und ihm ermöglichen, seine Operationen zu skalieren.

3. Erstellen Sie betrügerische Websites

Wenn Sie einfach den Begriff „Erstellen einer Website mit ChatGPT“ googeln, finden Sie eine Reihe von Tutorials, die genau erklären, wie genau das geht. Obwohl dies eine gute Nachricht für jeden ist, der eine Website von Grund auf neu erstellen möchte, sind es auch großartige Nachrichten für Cyberkriminelle. Was hält sie davon ab, ChatGPT zu verwenden, um eine Reihe von Betrugsseiten oder Phishing-Zielseiten zu erstellen?

Die Möglichkeiten sind nahezu unbegrenzt. Ein Angreifer könnte eine bestehende Website mit ChatGPT klonen und dann modifizieren, gefälschte E-Commerce-Websites erstellen, eine Website mit Scareware-Betrug, usw.

4. Erstellen Sie Spam-Inhalte

Um eine gefälschte Website einzurichten, eine betrügerische Social-Media-Seite zu betreiben oder eine Nachahmer-Website zu erstellen, benötigen Sie Inhalte – und zwar jede Menge davon. Und es muss so legitim wie möglich aussehen, damit der Betrug funktioniert. Warum sollte ein Bedrohungsakteur Content-Autoren einstellen oder selbst Blog-Beiträge schreiben, wenn er das einfach von ChatGPT erledigen lassen kann?

Zugegeben, eine Website mit KI-generierten Inhalten würde wahrscheinlich ziemlich schnell von Google abgestraft werden und nicht in den Suchergebnissen erscheinen, Aber es gibt viele verschiedene Möglichkeiten, wie ein Hacker für eine Website werben, Traffic dorthin senden und Menschen um ihr Geld betrügen könnte oder ihre persönlichen Daten stehlen.

5. Verbreitung von Desinformation und Fake News

Online-Desinformation ist in den letzten Jahren zu einem großen Problem geworden. Fake News verbreiten sich wie ein Lauffeuer in den sozialen Medien, und Menschen, die es nicht besser wissen, fallen oft auf irreführende – und manchmal buchstäblich erfundene – Geschichten herein. Dies kann schwerwiegende Folgen im wirklichen Leben haben, und es scheint, als hätte niemand eine Ahnung, wie man damit aufhören kann die Verbreitung von Fake News ohne gegen die Gesetze zur freien Meinungsäußerung zu verstoßen.

Tools wie ChatGPT könnten dieses Problem noch verschlimmern. Bedrohungsakteure, die Zugang zu Software haben, die in der Lage ist, jeden Tag Tausende von gefälschten Nachrichten und Social-Media-Beiträgen zu generieren, scheinen ein Rezept für eine Katastrophe zu sein.

Nehmen Sie nicht unser Wort dafür

Wenn Sie nicht überzeugt sind, haben wir ChatGPT gefragt, wie ein Cyberkrimineller es verwenden würde. Es scheint mit dem Kern dieses Artikels übereinzustimmen.

In den falschen Händen wird ChatGPT gefährlich

Man kann sich nur vorstellen, wozu künstliche Intelligenz in fünf oder zehn Jahren in der Lage sein wird. Vorerst ist es am besten, den Hype und die Panik zu ignorieren und ChatGPT rational zu bewerten.

Wie alle Technologien ist ChatGPT weder von Natur aus hilfreich noch schädlich. Trotz einiger Mängel ist es bei weitem der leistungsfähigste Chatbot, der jemals für die Öffentlichkeit freigegeben wurde.