Sie haben vielleicht schon von gegnerischen Angriffen in Bezug auf künstliche Intelligenz und maschinelles Lernen gehört, aber was sind sie? Was sind ihre Ziele?
Technologie bedeutet oft, dass unser Leben bequemer und sicherer wird. Gleichzeitig haben solche Fortschritte Cyberkriminellen jedoch ausgeklügeltere Möglichkeiten eröffnet, uns anzugreifen und unsere Sicherheitssysteme zu korrumpieren, wodurch sie machtlos werden.
Künstliche Intelligenz (KI) kann von Cybersicherheitsexperten und Cyberkriminellen gleichermaßen genutzt werden; In ähnlicher Weise können Systeme für maschinelles Lernen (ML) sowohl für das Gute als auch für das Böse eingesetzt werden. Dieser Mangel an moralischem Kompass hat gegnerische Angriffe in ML zu einer wachsenden Herausforderung gemacht. Was sind eigentlich gegnerische Angriffe? Was sind ihre Zwecke? Und wie kann man sich davor schützen?
Was sind gegnerische Angriffe beim maschinellen Lernen?
Adversarial ML oder Adversarial Attacks sind Cyberangriffe, die darauf abzielen, ein ML-Modell mit böswilligen Eingaben auszutricksen und so zu geringerer Genauigkeit und schlechter Leistung führen. Trotz seines Namens ist Adversarial ML also keine Art von maschinellem Lernen, sondern eine Vielzahl von Techniken, die Cyberkriminelle – auch bekannt als Gegner – verwenden, um ML-Systeme anzugreifen.
Das Hauptziel solcher Angriffe besteht normalerweise darin, das Modell dazu zu bringen, vertrauliche Informationen herauszugeben. das Versäumnis, betrügerische Aktivitäten zu erkennen, falsche Vorhersagen zu erstellen oder analysebasierte Daten zu verfälschen Berichte. Obwohl es verschiedene Arten von gegnerischen Angriffen gibt, zielen sie häufig auf die Deep-Learning-basierte Spam-Erkennung ab.
Sie haben wahrscheinlich schon von einem gehört Gegner-in-the-Middle-Angriff, eine neue und effektivere ausgeklügelte Phishing-Technik, die den Diebstahl privater Informationen, Sitzungscookies und sogar die Umgehung von Multi-Faktor-Authentifizierungsmethoden (MFA) beinhaltet. Glücklicherweise können Sie diese mit bekämpfen Phishing-resistente MFA-Technologie.
Arten von gegnerischen Angriffen
Der einfachste Weg, Arten von gegnerischen Angriffen zu klassifizieren, besteht darin, sie in zwei Hauptkategorien zu unterteilen:gezielte Angriffe Und ungezielte Angriffe. Wie bereits angedeutet, haben gezielte Angriffe ein bestimmtes Ziel (z. B. eine bestimmte Person), während ungezielte Angriffe niemanden im Auge haben: Sie können auf fast jeden abzielen. Es überrascht nicht, dass ungezielte Angriffe weniger zeitaufwändig, aber auch weniger erfolgreich sind als ihre gezielten Gegenstücke.
Diese beiden Typen können weiter unterteilt werden weiße Kiste Und Flugschreiber gegnerische Angriffe, bei denen die Farbe auf die Kenntnis oder Unkenntnis des anvisierten ML-Modells hindeutet. Bevor wir uns eingehender mit White-Box- und Black-Box-Angriffen befassen, werfen wir einen kurzen Blick auf die häufigsten Arten von gegnerischen Angriffen.
- Ausweichen: Umgehungsangriffe werden hauptsächlich in Malware-Szenarien verwendet und versuchen, sich der Erkennung zu entziehen, indem sie den Inhalt von Malware-verseuchten E-Mails und Spam-E-Mails verbergen. Durch die Verwendung der Trial-and-Error-Methode manipuliert der Angreifer die Daten zum Zeitpunkt der Bereitstellung und korrumpiert die Vertraulichkeit eines ML-Modells. Biometrisches Spoofing ist eines der häufigsten Beispiele für einen Umgehungsangriff.
- Datenvergiftung: Diese auch als kontaminierende Angriffe bezeichneten Angriffe zielen darauf ab, ein ML-Modell während der Trainings- oder Bereitstellungsphase zu manipulieren und die Genauigkeit und Leistung zu verringern. Durch das Einführen böswilliger Eingaben stören Angreifer das Modell und erschweren es Sicherheitsexperten, die Art der Beispieldaten zu erkennen, die das ML-Modell korrumpieren.
- Byzantinische Störungen: Diese Art von Angriff verursacht den Verlust eines Systemdienstes als Ergebnis eines byzantinischen Fehlers in Systemen, die einen Konsens zwischen allen seinen Knoten erfordern. Sobald einer seiner vertrauenswürdigen Knoten abtrünnig wird, kann er einen Denial-of-Service-Angriff (DoS) starten und das System herunterfahren, wodurch andere Knoten an der Kommunikation gehindert werden.
- Modellextraktion:Bei einem Extraktionsangriff untersucht der Angreifer ein Blackbox-ML-System, um seine Trainingsdaten oder – im schlimmsten Fall – das Modell selbst zu extrahieren. Dann könnte ein Angreifer mit einer Kopie eines ML-Modells in seinen Händen seine Malware gegen die Antimalware/Antivirus testen und herausfinden, wie er sie umgehen kann.
- Inferenzangriffe: Wie bei Extraktionsangriffen besteht das Ziel hier darin, ein ML-Modell dazu zu bringen, Informationen über seine Trainingsdaten preiszugeben. Der Angreifer wird dann jedoch versuchen herauszufinden, welcher Datensatz verwendet wurde, um das System zu trainieren, damit er Schwachstellen oder Verzerrungen darin ausnutzen kann.
Whitebox vs. Blackbox vs. Angriffe der Grey-Box-Angriffe
Was diese drei Arten von gegnerischen Angriffen unterscheidet, ist die Menge an Wissen, die Angreifer über die inneren Abläufe der ML-Systeme haben, die sie angreifen wollen. Während die White-Box-Methode umfassende Informationen über das angestrebte ML-Modell (einschließlich seiner Architektur und Parameter) benötigt die Black-Box-Methode keine Informationen und kann nur deren beobachten Ausgänge.
Das Grey-Box-Modell hingegen steht in der Mitte dieser beiden Extreme. Demnach können Gegner einige Informationen über den Datensatz oder andere Details über das ML-Modell haben, aber nicht alle.
Wie können Sie maschinelles Lernen gegen gegnerische Angriffe verteidigen?
Während Menschen immer noch die entscheidende Komponente bei der Stärkung der Cybersicherheit sind,KI und ML haben gelernt, böswillige Angriffe zu erkennen und zu verhindern– Sie können die Genauigkeit bei der Erkennung bösartiger Bedrohungen, der Überwachung von Benutzeraktivitäten, der Identifizierung verdächtiger Inhalte und vielem mehr erhöhen. Aber können sie gegnerische Angriffe abwehren und ML-Modelle schützen?
Eine Möglichkeit, Cyberangriffe zu bekämpfen, besteht darin, ML-Systeme so zu trainieren, dass sie gegnerische Angriffe im Voraus erkennen, indem sie ihrem Trainingsverfahren Beispiele hinzufügen.
Im Gegensatz zu diesem Brute-Force-Ansatz schlägt die defensive Destillationsmethode vor, dass wir das primäre, effizientere Modell zur Berechnung verwenden die kritischen Merkmale eines sekundären, weniger effizienten Modells heraus und verbessern Sie dann die Genauigkeit des sekundären mit dem primären eins. Mit defensiver Destillation trainierte ML-Modelle sind weniger empfindlich gegenüber feindlichen Proben, was sie weniger anfällig für Ausbeutung macht.
Wir könnten auch die Algorithmen, die die ML-Modelle für die Datenklassifizierung verwenden, ständig ändern, was gegnerische Angriffe weniger erfolgreich machen könnte.
Eine weitere bemerkenswerte Technik ist das Feature Squeezing, das den für Gegner verfügbaren Suchraum einschränkt, indem unnötige Eingabefeatures „herausgequetscht“ werden. Hier besteht das Ziel darin, Fehlalarme zu minimieren und die Erkennung gegnerischer Beispiele effektiver zu gestalten.
Schutz von maschinellem Lernen und künstlicher Intelligenz
Gegnerische Angriffe haben uns gezeigt, dass viele ML-Modelle auf überraschende Weise zerstört werden können. Schließlich ist das kontradiktorische maschinelle Lernen noch ein neues Forschungsfeld im Bereich der Cybersicherheit und bringt viele komplexe Probleme für KI und ML mit sich.
Es gibt zwar keine magische Lösung, um diese Modelle vor allen gegnerischen Angriffen zu schützen, aber die Die Zukunft wird wahrscheinlich fortschrittlichere Techniken und intelligentere Strategien zur Bewältigung dieses Schreckens bringen Gegner.