ChatGPT kann ein nützliches Werkzeug sein, egal ob Ihre Absichten gut oder schlecht sind. Das heißt, wenn Sie sich auf Betrug einlassen wollen, kann ChatGPT helfen.

Obwohl viele Digital Natives ChatGPT loben, befürchten einige, dass es mehr schadet als nützt. Nachrichten über Gauner, die KI entführen, machen im Internet die Runde und erhöhen das Unbehagen unter Skeptikern. Sie halten ChatGPT sogar für ein gefährliches Tool.

KI-Chatbots sind nicht perfekt, aber Sie müssen sie nicht vollständig vermeiden. Hier ist alles, was Sie darüber wissen sollten, wie Gauner ChatGPT missbrauchen und was Sie tun können, um sie zu stoppen.

Wird ChatGPT Ihre persönlichen Daten kompromittieren?

Die meisten Front-End-Sicherheitsbedenken bezüglich ChatGPT stammen von Spekulationen und unbestätigten Berichten. Die Plattform ist schließlich erst im November 2022 gestartet. Es ist ganz natürlich, dass neue Benutzer falsche Vorstellungen über den Datenschutz und die Sicherheit unbekannter Tools haben.

Entsprechend Nutzungsbedingungen von OpenAI, so verarbeitet ChatGPT die folgenden Daten:

instagram viewer

Personenbezogene Daten

Gerüchte besagen, dass sich ChatGPT verkauft persönlich identifizierbare Informationen (PII).

Die Plattform wurde von OpenAI ins Leben gerufen, einem renommierten KI-Forschungslabor, das von Tech-Investoren wie Microsoft und Elon Musk finanziert wird. ChatGPT sollte Kundendaten nur verwenden, um die in der angegebenen Dienste bereitzustellen Datenschutz-Bestimmungen.

Darüber hinaus fragt ChatGPT nach minimalen Informationen. Sie können ein Konto nur mit Ihrem Namen und Ihrer E-Mail-Adresse erstellen.

Gespräche

OpenAI hält ChatGPT-Gespräche sicher, behält sich jedoch das Recht vor, sie zu überwachen. KI-Trainer suchen kontinuierlich nach Verbesserungsmöglichkeiten. Da die Plattform riesige, aber begrenzte Datensätze umfasst, erfordert die Behebung von Fehlern, Bugs und Schwachstellen systemweite Updates.

OpenAI kann Convos jedoch nur zu Forschungszwecken überwachen. Die Weitergabe oder der Verkauf an Dritte verstößt gegen die eigenen Nutzungsbedingungen.

Allgemein zugängliche Information

Entsprechend der BBC, trainierte OpenAI ChaGPT mit 300 Milliarden Wörtern. Es sammelt Daten von öffentlichen Webseiten, wie Social-Media-Plattformen, Unternehmenswebsites und Kommentarbereichen. Sofern Sie nicht vom Netz gegangen sind und Ihren digitalen Fußabdruck gelöscht haben, hat ChatGPT wahrscheinlich Ihre Informationen.

Welche Sicherheitsrisiken stellt ChatGPT dar?

Während ChatGPT nicht von Natur aus gefährlich ist, birgt die Plattform dennoch Sicherheitsrisiken. Gauner können Beschränkungen umgehen, um verschiedene Cyberangriffe auszuführen.

1. Überzeugende Phishing-E-Mails

Anstatt stundenlang E-Mails zu schreiben, verwenden Gauner ChatGPT. Es ist schnell und genau. Fortgeschrittene Sprachmodelle (wie GPT-3.5 und GPT-4) können innerhalb von Minuten Hunderte von kohärenten, überzeugenden Phishing-E-Mails erstellen. Sie nehmen sogar einzigartige Töne und Schreibstile an.

Da ChatGPT es schwieriger macht, Hacking-Versuche zu erkennen, Seien Sie besonders vorsichtig, bevor Sie E-Mails beantworten. Vermeiden Sie es grundsätzlich, Informationen preiszugeben. Beachten Sie, dass seriöse Unternehmen und Organisationen selten über zufällige E-Mails nach vertraulichen PII fragen.

Lernen Sie, Hacking-Versuche zu erkennen. Obwohl E-Mail-Anbieter Spam-Nachrichten filtern, könnten einige schlaue durch das Raster fallen. Sie sollten trotzdem wissen, wie Phishing-Nachrichten aussehen.

2. Datendiebstahl

ChatGPT verwendet ein Open-Source-LLM, das jeder ändern kann. Programmierer, die sich mit Large Language Models (LLM) und maschinellem Lernen auskennen, integrieren häufig vortrainierte KI-Modelle in ihre Legacy-Systeme. Das Training der KI mit neuen Datensätzen verändert die Funktionalität. Zum Beispiel wird ChatGPT zu einem Pseudo-Fitness-Experten, wenn Sie es mit Rezepten und Übungsroutinen füttern.

Obwohl kollaborativ und bequem, macht Open-Sourcing Technologien anfällig für Missbrauch. Geschickte Kriminelle nutzen ChatGPT bereits aus. Sie trainieren es mit großen Mengen gestohlener Daten und verwandeln die Plattform in eine persönliche Datenbank für Betrug.

Denken Sie daran: Sie haben keine Kontrolle darüber, wie Gauner vorgehen. Wenden Sie sich am besten an die Federal Trade Commission (FTC), sobald Sie es bemerken Anzeichen von Identitätsdiebstahl.

3. Malware-Produktion

ChatGPT schreibt brauchbare Codeschnipsel in verschiedenen Programmiersprachen. Die meisten Beispiele erfordern minimale Änderungen, um ordnungsgemäß zu funktionieren, insbesondere wenn Sie eine kurze Eingabeaufforderung strukturieren. Sie können diese Funktion nutzen, um Apps und Websites zu entwickeln.

Da ChatGPT mit Milliarden von Datensätzen trainiert wurde, kennt es auch illegale Praktiken wie die Entwicklung von Malware und Viren. OpenAI verbietet Chatbots das Schreiben von Schadcodes. Aber Gauner umgehen diese Einschränkungen, indem sie Eingabeaufforderungen umstrukturieren und präzise Fragen stellen.

Das folgende Foto zeigt, dass ChatGPT das Schreiben von Code für böswillige Zwecke ablehnt.

In der Zwischenzeit zeigt das folgende Foto, dass ChatGPT Ihnen schädliche Informationen liefert, wenn Sie Ihre Eingabeaufforderungen richtig formulieren.

4. Diebstahl von geistigem Eigentum

Unethische Blogger drehen Inhalte mit ChatGPT. Da die Plattform auf fortgeschrittenen LLMs läuft, kann sie schnell Tausende von Wörtern umformulieren und Plagiats-Tags vermeiden.

ChatGPT hat den folgenden Text in 10 Sekunden umformuliert.

Spinnen gilt natürlich immer noch als Plagiat. Paraphrasierte KI-Artikel rangieren manchmal zufällig, aber Google bevorzugt im Allgemeinen Originalinhalte aus seriösen Quellen. Billige Tricks und SEO-Hacks können qualitativ hochwertiges, immergrünes Schreiben nicht schlagen.

Außerdem veröffentlicht Google jährlich mehrere Core-Updates. Es wird sich bald darauf konzentrieren, faule, unoriginelle KI-generierte Teile aus den SERPs zu entfernen.

5. Generieren unethischer Antworten

KI-Sprachmodelle haben keine Vorurteile. Sie liefern Antworten, indem sie Benutzeranfragen analysieren und Daten aus ihrer bestehenden Datenbank abrufen.

Nehmen Sie ChatGPT als Beispiel. Wenn Sie eine Eingabeaufforderung senden, antwortet es basierend auf den Datensätzen, die OpenAI für das Training verwendet.

Während die Inhaltsrichtlinien von ChatGPT unangemessene Anfragen blockieren, umgehen Benutzer sie mit Jailbreak-Eingabeaufforderungen. Sie füttern es mit präzisen, cleveren Anweisungen. ChatGPT erzeugt die folgende Antwort, wenn Sie darum bitten, eine psychopathische fiktive Figur darzustellen.

Die gute Nachricht ist OpenAI hat die Kontrolle über ChatGPT nicht verloren. Seine laufenden Bemühungen zur Verschärfung der Beschränkungen hindern ChatGPT daran, unethische Antworten zu geben, unabhängig von Benutzereingaben. Jailbreaking wird nicht so einfach vorankommen.

6. Gegenleistung

Das schnelle Wachstum neuer, unbekannter Technologien wie ChatGPT schafft Möglichkeiten für Quid-pro-quo-Angriffe. Es handelt sich um Social-Engineering-Taktiken, bei denen Gauner Opfer mit gefälschten Angeboten anlocken.

Die meisten Leute haben ChatGPT noch nicht erkundet. Und Hacker nutzen die Verwirrung aus, indem sie irreführende Werbeaktionen, E-Mails und Ankündigungen verbreiten.

Die berüchtigtsten Fälle betreffen gefälschte Apps. Neue Benutzer wissen nicht, dass sie nur über OpenAI auf ChatGPT zugreifen können. Sie laden unwissentlich Spam-Programme und -Erweiterungen herunter.

Die meisten wollen nur App-Downloads, aber andere stehlen persönlich identifizierbare Informationen. Gauner infizieren sie mit Malware und Phishing-Links. Zum Beispiel im März 2023, a gefälschte ChatGPT-Chrome-Erweiterung hat Facebook-Anmeldeinformationen gestohlen von über 2.000 Benutzern täglich.

Vermeiden Sie Apps von Drittanbietern, um Quid-pro-quo-Versuche zu bekämpfen. OpenAI hat nie eine autorisierte mobile App, ein Computerprogramm oder eine Browsererweiterung für ChatGPT veröffentlicht. Alles, was so behauptet wird, ist ein Betrug.

Verwenden Sie ChatGPT sicher und verantwortungsbewusst

ChatGPT ist an sich keine Bedrohung. Das System hat Schwachstellen, aber es wird Ihre Daten nicht gefährden. Anstatt KI-Technologien zu fürchten, sollten Sie untersuchen, wie Gauner sie in Social-Engineering-Taktiken integrieren. So können Sie sich proaktiv schützen.

Aber wenn Sie immer noch Zweifel an ChatGPT haben, versuchen Sie es mit Bing. Das neue Bing verfügt über einen KI-gestützten Chatbot, der auf GPT-4 läuft, Daten aus dem Internet abruft und strenge Sicherheitsmaßnahmen befolgt. Vielleicht finden Sie es besser geeignet für Ihre Bedürfnisse.