Chatbots und Co. scheinen zwar viel Spaß zu machen, sind aber auch für Hacker nützlich. Deshalb müssen wir alle das Sicherheitsrisiko von KI kennen.

Die KI hat in den letzten Jahren erhebliche Fortschritte gemacht. Ausgefeilte Sprachmodelle können Romane in voller Länge verfassen, grundlegende Websites codieren und mathematische Probleme analysieren.

Generative KI ist zwar beeindruckend, birgt jedoch auch Sicherheitsrisiken. Manche Menschen nutzen Chatbots lediglich, um bei Prüfungen zu schummeln, andere nutzen sie jedoch direkt für Cyberkriminalität aus. Hier sind acht Gründe, warum diese Probleme nicht nur bestehen bleiben werden trotz Die Fortschritte der KI aber Weil auch von ihnen.

1. Open-Source-KI-Chatbots enthüllen Back-End-Codes

Immer mehr KI-Unternehmen stellen Open-Source-Systeme bereit. Sie teilen ihre Sprachmodelle offen, anstatt sie geheim zu halten oder proprietär zu halten. Nehmen Sie Meta als Beispiel. Im Gegensatz zu Google, Microsoft und OpenAI ermöglicht es Millionen von Benutzern den Zugriff auf sein Sprachmodell. Lama.

instagram viewer

Auch wenn Open-Source-Codes die KI voranbringen können, sind sie auch riskant. OpenAI hat bereits Probleme mit der Kontrolle von ChatGPT, sein proprietärer Chatbot. Stellen Sie sich also vor, was Kriminelle mit kostenloser Software anstellen könnten. Sie haben die vollständige Kontrolle über diese Projekte.

Selbst wenn Meta plötzlich sein Sprachmodell zurückzieht, haben Dutzende anderer KI-Labore bereits ihre Codes veröffentlicht. Schauen wir uns HuggingChat an. Da sein Entwickler HuggingFace stolz auf Transparenz ist, zeigt er seine Datensätze, sein Sprachmodell und frühere Versionen an.

2. Jailbreaking fordert Trick-LLMs auf

KI ist von Natur aus amoralisch. Es versteht nicht, was richtig und falsch ist – selbst fortschrittliche Systeme folgen Trainingsanweisungen, Richtlinien und Datensätzen. Sie erkennen lediglich Muster.

Um illegale Aktivitäten zu bekämpfen, kontrollieren Entwickler die Funktionalität und Einschränkungen, indem sie Einschränkungen festlegen. KI-Systeme greifen immer noch auf schädliche Informationen zu. Sicherheitsrichtlinien verhindern jedoch, dass sie diese mit Benutzern teilen.

Schauen wir uns ChatGPT an. Obwohl allgemeine Fragen zu Trojanern beantwortet werden, wird nicht auf den Prozess ihrer Entwicklung eingegangen.

Allerdings sind Beschränkungen nicht narrensicher. Benutzer umgehen Beschränkungen, indem sie Eingabeaufforderungen umformulieren, eine verwirrende Sprache verwenden und explizit detaillierte Anweisungen verfassen.

Lesen Sie das Folgende ChatGPT-Jailbreak-Eingabeaufforderung. Es verleitet ChatGPT dazu, unhöfliche Sprache zu verwenden und unbegründete Vorhersagen zu treffen – beide Handlungen verstoßen gegen die Richtlinien von OpenAI.

Hier ist ChatGPT mit einer gewagten, aber falschen Aussage.

3. KI gefährdet die Sicherheit zugunsten der Vielseitigkeit

KI-Entwickler legen Wert auf Vielseitigkeit vor Sicherheit. Sie geben ihre Ressourcen für die Schulung von Plattformen aus, um ein vielfältigeres Aufgabenspektrum zu erfüllen und letztendlich Einschränkungen abzubauen. Schließlich lobt der Markt funktionale Chatbots.

Lasst uns Vergleichen Sie ChatGPT und Bing Chat, Zum Beispiel. Während Bing über ein ausgefeilteres Sprachmodell verfügt, das Echtzeitdaten abruft, greifen Benutzer immer noch auf die vielseitigere Option ChatGPT zurück. Bings strenge Beschränkungen verbieten viele Aufgaben. Alternativ verfügt ChatGPT über eine flexible Plattform, die je nach Ihren Eingabeaufforderungen sehr unterschiedliche Ergebnisse erzeugt

Hier ist ChatGPT-Rollenspiel als fiktiver Charakter.

Und hier ist Bing Chat, der sich weigert, eine „unmoralische“ Rolle zu spielen.

Open-Source-Codes ermöglichen Startups den Einstieg in den KI-Wettlauf. Sie integrieren sie in ihre Anwendungen, anstatt Sprachmodelle von Grund auf zu erstellen, und sparen so enorme Ressourcen. Sogar unabhängige Programmierer experimentieren mit Open-Source-Codes.

Auch hier trägt nicht-proprietäre Software zur Weiterentwicklung der KI bei, aber die massenhafte Veröffentlichung schlecht trainierter, aber hochentwickelter Systeme schadet mehr als sie nützt. Kriminelle werden Schwachstellen schnell ausnutzen. Sie könnten sogar unsichere KI-Tools trainieren, um illegale Aktivitäten auszuführen.

Trotz dieser Risiken werden Technologieunternehmen weiterhin instabile Betaversionen von KI-gesteuerten Plattformen veröffentlichen. Das KI-Rennen belohnt Geschwindigkeit. Sie werden Fehler wahrscheinlich zu einem späteren Zeitpunkt beheben, als die Einführung neuer Produkte zu verzögern.

5. Generative KI hat niedrige Eintrittsbarrieren

KI-Tools senken die Eintrittsbarrieren für Straftaten. Cyberkriminelle verfassen Spam-E-Mails, schreiben Malware-Code und bauen Phishing-Links auf, indem sie diese ausnutzen. Sie benötigen nicht einmal technische Erfahrung. Da KI bereits auf riesige Datensätze zugreift, müssen Benutzer sie lediglich dazu verleiten, schädliche und gefährliche Informationen zu produzieren.

OpenAI hat ChatGPT nie für illegale Aktivitäten konzipiert. Es gibt sogar Richtlinien dagegen. Noch Betrüger bekamen fast sofort ChatGPT-Codierungs-Malware und das Verfassen von Phishing-E-Mails.

Während OpenAI das Problem schnell löste, betont es die Bedeutung der Systemregulierung und des Risikomanagements. Die KI entwickelt sich schneller als erwartet. Sogar Technologieführer befürchten, dass diese superintelligente Technologie in den falschen Händen massiven Schaden anrichten könnte.

6. KI entwickelt sich immer noch weiter

KI entwickelt sich immer noch weiter. Während Der Einsatz von KI in der Kybernetik reicht bis ins Jahr 1940 zurückModerne maschinelle Lernsysteme und Sprachmodelle sind erst vor kurzem entstanden. Man kann sie nicht mit den ersten Implementierungen von KI vergleichen. Selbst relativ fortschrittliche Tools wie Siri und Alexa verblassen im Vergleich zu LLM-basierten Chatbots.

Obwohl sie innovativ sein mögen, schaffen experimentelle Funktionen auch neue Probleme. Aufsehenerregende Pannen mit maschinellen Lerntechnologien Die Bandbreite reicht von fehlerhaften Google SERPs bis hin zu voreingenommenen Chatbots, die rassistische Beleidigungen ausspucken.

Natürlich können Entwickler diese Probleme beheben. Beachten Sie jedoch, dass Kriminelle nicht zögern, selbst scheinbar harmlose Fehler auszunutzen – einige Schäden sind irreversibel. Seien Sie also vorsichtig, wenn Sie neue Plattformen erkunden.

7. Viele verstehen KI noch nicht

Während die breite Öffentlichkeit Zugriff auf hochentwickelte Sprachmodelle und -systeme hat, wissen nur wenige, wie sie funktionieren. Die Menschen sollten aufhören, KI wie ein Spielzeug zu behandeln. Dieselben Chatbots, die Memes generieren und Trivia beantworten, programmieren auch massenhaft Viren.

Leider ist ein zentralisiertes KI-Training unrealistisch. Globale Technologieführer konzentrieren sich auf die Veröffentlichung KI-gesteuerter Systeme und nicht auf kostenlose Bildungsressourcen. Dadurch erhalten Benutzer Zugang zu robusten, leistungsstarken Tools, die sie kaum verstehen. Die Öffentlichkeit kann mit dem KI-Rennen nicht mithalten.

Nehmen Sie ChatGPT als Beispiel. Cyberkriminelle missbrauchen seine Popularität, indem sie ihre Opfer damit austricksen Spyware, die als ChatGPT-Apps getarnt ist. Keine dieser Optionen stammt von OpenAI.

8. Black-Hat-Hacker haben mehr zu gewinnen als White-Hat-Hacker

Black-Hat-Hacker haben das normalerweise mehr zu gewinnen als ethische Hacker. Ja, Pentests für globale Technologieführer sind gut bezahlt, aber nur ein Prozentsatz der Cybersicherheitsexperten bekommt diese Jobs. Die meisten arbeiten freiberuflich online. Plattformen wie HackerOne Und Käfermenge Zahlen Sie ein paar hundert Dollar für gewöhnliche Käfer.

Alternativ verdienen Betrüger Zehntausende, indem sie Unsicherheiten ausnutzen. Sie könnten Unternehmen erpressen, indem sie vertrauliche Daten preisgeben, oder Identitätsdiebstahl mit Diebstahl begehen Persönlich identifizierbare Informationen (PII).

Jede Institution, ob klein oder groß, muss KI-Systeme ordnungsgemäß implementieren. Entgegen der landläufigen Meinung gehen Hacker über Technologie-Startups und KMU hinaus. Einige der meisten historische Datenschutzverletzungen im letzten Jahrzehnt Beteiligt sind Facebook, Yahoo! und sogar die US-Regierung.

Schützen Sie sich vor den Sicherheitsrisiken der KI

Sollten Sie angesichts dieser Punkte ganz auf KI verzichten? Natürlich nicht. KI ist von Natur aus amoralisch; Alle Sicherheitsrisiken gehen von den Menschen aus, die sie tatsächlich nutzen. Und sie werden Wege finden, KI-Systeme auszunutzen, egal wie weit diese sich entwickeln.

Anstatt Angst vor den Cybersicherheitsbedrohungen zu haben, die mit KI einhergehen, sollten Sie verstehen, wie Sie diese verhindern können. Keine Sorge: Einfache Sicherheitsmaßnahmen reichen aus. Sich vor zwielichtigen KI-Apps in Acht zu nehmen, seltsame Hyperlinks zu vermeiden und KI-Inhalte mit Skepsis zu betrachten, bekämpft bereits mehrere Risiken.