FraudGPT ist ein Sprachmodell, das darauf abgestimmt ist, Kriminelle bei betrügerischen Aktivitäten zu unterstützen. Erfahren Sie, was es heißt, sich vor potenziellen Bedrohungen zu schützen.

Der Aufstieg der künstlichen Intelligenz (KI) ist ein zweischneidiges Schwert. Wie jede transformative Technologie bietet KI immenses Potenzial, aber auch enorme Risiken. Trotz der nachdrücklichen Bemühungen, die KI zu regulieren, scheinen die Bedrohungsakteure der Zeit einen Schritt voraus zu sein.

Ein neues ChatGPT-ähnliches Tool, FraudGPT, erfreut sich bei Cyberkriminellen immer größerer Beliebtheit und ermöglicht es ihnen, einen großen Teil ihrer Betrugsvorgänge zu automatisieren und besser auszuführen. Jeder kann Opfer werden, daher ist es wichtig, informiert zu bleiben. Hier finden Sie alles, was wir bisher über FraudGPT wissen.

Was ist FraudGPT?

FraudGPT ist ein KI-Tool, das auf einem großen Sprachmodell basiert und speziell darauf abgestimmt ist, Cyberkriminellen bei der Begehung von Cyberkriminalität zu helfen. Das abonnementbasierte KI-Tool ermöglicht es Bedrohungsakteuren, ihre kriminellen Aktivitäten wie Carding, Phishing und die Erstellung von Malware zu erleichtern.

instagram viewer

Obwohl die Details zu dem Tool noch sehr begrenzt sind, haben Forscher von Netenrich, einem Sicherheitsforschungsunternehmen, mehrere Anzeigen im Dark Web aufgedeckt, die für das Tool werben. Entsprechend der Forschungsbericht von NetenrichDie Abonnementgebühren liegen zwischen 200 US-Dollar pro Monat und 1.700 US-Dollar pro Jahr.

Um sich das Tool besser vorzustellen, können Sie sich FraudGPT wie ChatGPT vorstellen, jedoch für Betrug. Aber wie genau funktioniert FraudGPT und wie nutzen Cyberkriminelle es?

Wie funktioniert FraudGPT?

Bildquelle: Freepik

Im Kern unterscheidet sich FraudGPT nicht wesentlich von anderen Tools, die auf einem großen Sprachmodell basieren. Mit anderen Worten: Das Tool selbst ist eine interaktive Schnittstelle, über die Kriminelle auf ein spezielles Sprachmodell zugreifen können, das auf die Begehung von Cyberkriminalität abgestimmt ist.

Verstehst du es immer noch nicht? Hier ist eine ungefähre Vorstellung davon, worüber wir sprechen. In den frühen Tagen der Einführung von ChatGPT konnte der KI-Chatbot für nahezu alles verwendet werden, einschließlich der Unterstützung von Cyberkriminellen bei der Erstellung von Malware. Dies war möglich, weil das zugrunde liegende Sprachmodell von ChatGPT auf einem Datensatz trainiert wurde, der wahrscheinlich Proben einer breiten Palette von Daten enthielt, darunter auch Daten, die einem kriminellen Unternehmen helfen könnten.

Große Sprachmodelle werden in der Regel mit allem gefüttert, von guten Dingen wie wissenschaftlichen Theorien, Gesundheitsinformationen und Politik. zu den weniger guten, wie Beispielen von Malware-Code, Nachrichten aus Karten- und Phishing-Kampagnen und anderen Kriminellen Materialien. Wenn es um die Art von Datensätzen geht, die zum Trainieren von Sprachmodellen wie der Art, die ChatGPT antreibt, benötigt werden, ist es fast unvermeidlich, dass das Modell Proben unerwünschter Materialien enthält.

Trotz der normalerweise akribischen Bemühungen, die unerwünschten Materialien im Datensatz zu entfernen, schlüpfen einige durch, und sie reichen in der Regel immer noch aus, um dem Modell die Möglichkeit zu geben, Materialien zur Erleichterung zu generieren Cyberkriminalität. Deshalb mit dem Recht schnelles Engineeringkönnen Sie Tools wie ChatGPT, Google Bard und Bing AI erhalten, die Ihnen beim Verfassen von Betrugs-E-Mails oder Computer-Malware helfen.

Wenn Tools wie ChatGPT trotz aller Bemühungen, diese KI-Chatbots sicher zu machen, Cyberkriminellen dabei helfen können, Verbrechen zu begehen, denken Sie jetzt darüber nach Die Leistung, die ein Tool wie FraudGPT bieten kann, wenn man bedenkt, dass es speziell auf bösartige Materialien abgestimmt wurde, um es dafür geeignet zu machen Cyberkriminalität. Es ist, als würde der böse Zwilling von ChatGPT Steroide nehmen.

Um das Tool zu nutzen, könnten Kriminelle also einfach den Chatbot auffordern, wie sie es mit ChatGPT tun würden. Sie könnten es beispielsweise bitten, eine Phishing-E-Mail für Jane Doe zu schreiben, die bei der Firma ABC arbeitet, oder es vielleicht bitten, Malware mit C++ zu schreiben, um alle PDF-Dateien von einem Windows 10-Computer zu stehlen. Kriminelle würden sich im Grunde einfach eine böse Mechanisierung einfallen lassen und dem Chatbot die schwere Arbeit überlassen.

Wie können Sie sich vor GPT-Betrug schützen?

Obwohl es sich um ein neuartiges Tool handelt, unterscheidet sich die von FraudGPT ausgehende Bedrohung nicht grundlegend. Man könnte sagen, dass es zu mehr Automatisierung und Effizienz bei bereits etablierten Methoden zur Durchführung von Cyberkriminalität führt.

Kriminelle, die das Tool nutzen, wären zumindest theoretisch in der Lage, überzeugendere Phishing-E-Mails zu schreiben und besser zu planen Betrügereien zu bekämpfen und effektivere Malware zu entwickeln, aber sie verließen sich zumeist immer noch auf die etablierten Methoden, um ihre schändlichen Machenschaften auszuführen Pläne. Daher gelten nach wie vor die bewährten Möglichkeiten, sich zu schützen:

  • Seien Sie vorsichtig bei unerwünschten Nachrichten, in denen Sie nach Informationen gefragt oder zum Klicken auf Links aufgefordert werden. Geben Sie in diesen Nachrichten keine Informationen an und klicken Sie nicht auf Links, es sei denn, Sie überprüfen die Quelle.
  • Kontaktieren Sie Unternehmen direkt über eine unabhängige, verifizierte Nummer, um die Legitimität zu überprüfen. Verwenden Sie keine in verdächtigen Nachrichten angegebenen Kontaktinformationen.
  • Verwenden Sie sichere, einzigartige Passwörter, die schwer zu knacken sind und nutzen Sie die Zwei-Faktor-Authentifizierung, sofern diese für alle Konten verfügbar ist. Geben Sie niemals Passwörter oder Codes weiter, die Ihnen zugesandt wurden.
  • Überprüfen Sie Ihre Kontoauszüge regelmäßig auf verdächtige Aktivitäten.
  • Halten Sie die Software auf dem neuesten Stand und verwenden Sie Antiviren- oder Anti-Malware-Tools.
  • Vernichten Sie Dokumente mit persönlichen oder finanziellen Informationen, wenn diese nicht mehr benötigt werden.

Weitere Informationen dazu, wie Sie sich schützen können, finden Sie in unserem Leitfaden wie Sie sich im Zeitalter der KI schützen können.

Bleiben Sie informiert, um sich zu schützen

Das Aufkommen von Tools wie FraudGPT erinnert uns daran, dass KI trotz allem Guten, das sie für uns tun kann, immer noch ein sehr wirksames Werkzeug in den Händen von Bedrohungsakteuren darstellt.

Während Regierungen und große KI-Unternehmen einen hektischen Wettlauf um bessere Möglichkeiten zur Regulierung der KI führen, ist dies der Fall Es ist wichtig, sich der Bedrohung bewusst zu sein, die die KI derzeit darstellt, und die notwendigen Vorkehrungen zum Schutz zu treffen du selbst.