KI-Chatbots können halluzinieren und selbstbewusst falsche Antworten geben – was Hacker ausnutzen können. So nutzen Hacker Halluzinationen als Waffe.
Große Sprachmodell-KIs sind unvollkommen und erzeugen manchmal falsche Informationen. Diese Halluzinationen genannten Vorfälle können eine Cyber-Bedrohung für Unternehmen und einzelne KI-Enthusiasten darstellen.
Glücklicherweise können Sie die Abwehrkräfte gegen KI-Halluzinationen durch ein erhöhtes Bewusstsein und gesundes Nachdenken stärken.
Warum halluziniert KI?
Es besteht kein Konsens darüber, warum KI-Modelle halluzinieren, obwohl es einige wahrscheinliche Vermutungen gibt.
KI wird anhand riesiger Datensätze trainiert, die häufig Fehler wie Denklücken, inhaltliche Abweichungen oder schädliche Vorurteile aufweisen. Jedes Training anhand dieser unvollständigen oder unzureichenden Datensätze könnte die Ursache für Halluzinationen sein, selbst wenn spätere Iterationen des Datensatzes von Datenwissenschaftlern kuratiert würden.
Mit der Zeit können Datenwissenschaftler die Informationen genauer machen und zusätzliches Wissen einbringen, um offene Stellen zu besetzen und das Halluzinationspotenzial zu minimieren. Aufseher könnten Daten falsch kennzeichnen. Der Programmiercode könnte Fehler enthalten. Die Behebung dieser Probleme ist unerlässlich, da KI-Modelle auf der Grundlage von Algorithmen für maschinelles Lernen weiterentwickelt werden.
Diese Algorithmen verwenden Daten, um Entscheidungen zu treffen. Eine Erweiterung davon ist das neuronale Netzwerk der KI, das durch maschinelle Lernerfahrungen neue Entscheidungen trifft ähneln der Originalität des menschlichen Geistes genauer. Diese Netzwerke enthalten Transformatoren, die die Beziehungen zwischen entfernten Datenpunkten analysieren. Wenn Transformatoren ausfallen, kann es zu Halluzinationen kommen.
Wie KI-Halluzinationen Hackern Chancen bieten
Leider ist es nicht allgemein bekannt, dass KI halluziniert, und KI wird selbstbewusst klingen, selbst wenn sie völlig falsch liegt. Dies alles trägt dazu bei, dass Benutzer selbstgefälliger und vertrauensvoller mit KI umgehen, und Bedrohungsakteure verlassen sich auf dieses Benutzerverhalten, um sie zum Herunterladen oder Auslösen ihrer Angriffe zu bewegen.
Beispielsweise könnte ein KI-Modell eine gefälschte Codebibliothek halluzinieren und Benutzern empfehlen, diese Bibliothek herunterzuladen. Es ist wahrscheinlich, dass das Modell weiterhin dieselbe halluzinierte Bibliothek vielen Benutzern empfehlen wird, die eine ähnliche Frage stellen. Wenn Hacker diese Halluzination entdecken, können sie eine echte Version der imaginären Bibliothek erstellen – allerdings voller gefährlichem Code und Malware. Wenn die KI nun weiterhin die Codebibliothek empfiehlt, laden unwissende Benutzer den Code der Hacker herunter.
Der Transport schädlicher Codes und Programme unter Ausnutzung von KI-Halluzinationen ist für Bedrohungsakteure ein wenig überraschender nächster Schritt. Hacker erschaffen nicht zwangsläufig unzählige neuartige Cyberbedrohungen – sie suchen lediglich nach neuen Wegen, diese ohne Verdacht zu verbreiten. KI-Halluzinationen basieren auf der gleichen menschlichen Naivität, auf die das Klicken auf E-Mail-Links angewiesen ist (weshalb Sie das auch tun sollten). Verwenden Sie Tools zur Linkprüfung, um URLs zu überprüfen).
Hacker könnten es auch auf die nächste Stufe bringen. Wenn Sie Hilfe beim Codieren benötigen und den gefälschten, bösartigen Code herunterladen, könnte der Bedrohungsakteur den Code auch tatsächlich funktionsfähig machen, indem ein schädliches Programm im Hintergrund ausgeführt wird. Nur weil es so funktioniert, wie Sie es erwarten, heißt das nicht, dass es nicht gefährlich ist.
Mangelnde Aufklärung kann Sie aufgrund des Online-Autopilot-Verhaltens dazu verleiten, von der KI generierte Empfehlungen herunterzuladen. Jeder Sektor steht unter kulturellem Druck, KI in seine Geschäftspraktiken einzuführen. Unzählige technologieferne Organisationen und Branchen spielen mit wenig Erfahrung und noch geringerer Cybersicherheit mit KI-Tools, nur um wettbewerbsfähig zu bleiben.
So schützen Sie sich vor Halluzinationen durch bewaffnete KI
Fortschritte sind am Horizont. Die Erstellung von Malware mit generativer KI war einfach, bevor Unternehmen Datensätze und Geschäftsbedingungen angepasst haben, um unethische Generationen zu verhindern. Welche Möglichkeiten gibt es, um sicher zu bleiben, wenn man die gesellschaftlichen, technischen und persönlichen Schwächen kennt, die man möglicherweise gegenüber gefährlichen KI-Halluzinationen hat?
Jeder in der Branche kann an der Weiterentwicklung der neuronalen Netzwerktechnologie und der Bibliotheksverifizierung arbeiten. Es müssen Kontrollen und Abwägungen stattfinden, bevor die Antworten die Endbenutzer erreichen. Obwohl dies ein notwendiger Fortschritt in der Branche ist, müssen Sie auch eine Rolle dabei spielen, sich und andere vor generativen KI-Bedrohungen zu schützen.
Durchschnittliche Benutzer kann üben, KI-Halluzinationen zu erkennen mit diesen Strategien:
- Rechtschreib- und Grammatikfehler finden.
- Erkennen, wenn der Kontext der Abfrage nicht mit dem Kontext der Antwort übereinstimmt.
- Anerkennen, wenn auf Computer Vision basierende Bilder nicht mit der Sichtweise des menschlichen Auges auf das Konzept übereinstimmen.
Seien Sie immer vorsichtig, wenn Sie Inhalte aus dem Internet herunterladen, auch wenn dies von der KI empfohlen wird. Wenn AI empfiehlt, Code herunterzuladen, tun Sie dies nicht blind; Überprüfen Sie alle Rezensionen, um sicherzustellen, dass der Code legitim ist, und prüfen Sie, ob Sie Informationen über den Ersteller finden.
Der beste Widerstand gegen halluzinationsbasierte KI-Angriffe ist Aufklärung. Über Ihre Erfahrungen zu sprechen und zu lesen, wie andere böswillige Halluzinationen hervorgerufen haben, sei es durch Zufall oder absichtliche Tests, ist für die künftige Navigation durch KI von unschätzbarem Wert.
Verbesserung der KI-Cybersicherheit
Sie müssen vorsichtig sein, wonach Sie fragen, wenn Sie mit einer KI sprechen. Begrenzen Sie das Risiko gefährlicher Ergebnisse, indem Sie so konkret wie möglich vorgehen und alles hinterfragen, was auf dem Bildschirm angezeigt wird. Testen Sie Code in sicheren Umgebungen und prüfen Sie andere scheinbar vertrauenswürdige Informationen auf Fakten. Darüber hinaus können Sie mit anderen zusammenarbeiten, Ihre Erfahrungen diskutieren und den Jargon zum Thema KI vereinfachen Halluzinationen und Cybersicherheitsbedrohungen können dazu beitragen, dass die Massen wachsamer und widerstandsfähiger dagegen sind Hacker.