Künstliche Intelligenz (KI) hat das Potenzial, das Wesen unserer Gesellschaft zu verändern. Und wenn die KI-Tools, die uns derzeit zur Verfügung stehen, ein Hinweis darauf sind, was kommen wird, können wir uns auf eine Menge freuen.
Wir müssen auch auf vieles achten. Nämlich die Bewaffnung von KI durch Cyberkriminelle und andere Bedrohungsakteure. Dies ist keine theoretische Sorge, und nicht einmal KI-Bildgeneratoren sind vor Missbrauch gefeit.
Was sind KI-Bildgeneratoren? Wie arbeiten Sie?
Wenn Sie jemals einen KI-Bildgenerator verwendet haben, haben Sie eine ziemlich gute Vorstellung davon, worum es geht. Auch wenn Sie noch nie eines verwendet haben, sind Sie höchstwahrscheinlich auf KI-generierte Bilder in sozialen Medien und anderswo gestoßen. Die heute beliebte Software funktioniert nach einem sehr einfachen Prinzip: Der Benutzer tippt den Text ein, und die KI generiert auf der Grundlage dieses Textes ein Bild.
Was sich unter der Haube abspielt, ist viel komplexer. KI ist in den letzten Jahren viel besser geworden, und die meisten Text-zu-Bild-Generatoren heutzutage gibt es sogenannte Diffusionsmodelle. Das bedeutet, dass sie über einen langen Zeitraum an einer enormen Menge an Texten und Bildern „trainiert“ werden, was ihre Kreationen so beeindruckend und verblüffend realistisch macht.
Was diese KI-Tools noch beeindruckender macht, ist die Tatsache, dass sie nicht nur vorhandene Bilder modifizieren oder Tausende von Bildern zu einem kombinieren, sondern auch neue, originelle Bilder von Grund auf neu erstellen. Je mehr Menschen diese Text-zu-Bild-Generatoren verwenden, desto mehr Informationen werden ihnen zugeführt und desto besser werden ihre Kreationen.
Einige der bekanntesten AI-Bildgeneratoren sind Dream by WOMBO, DALL-E, Stable Diffusion, Midjourney, DeepAI, Fotor und Craiyon. Links und rechts tauchen neue auf, und Technologiegiganten – einschließlich Google – veröffentlichen ihre eigenen, sodass wir nur darüber spekulieren können, was die Zukunft bringen wird.
4 Möglichkeiten, wie Bedrohungsakteure KI-Bildgeneratoren bewaffnen
Wie so ziemlich jede Technologie können KI-Bildgeneratoren von böswilligen Akteuren missbraucht werden. Tatsächlich werden sie bereits für alle möglichen schändlichen Zwecke verwendet. Aber welche Art von Betrug und Cyberangriffen genau kann ein Krimineller mit Hilfe von KI-Bildgeneratoren durchführen?
1. Soziale Entwicklung
Eine offensichtliche Sache, die Bedrohungsakteure mit KI-Bildgeneratoren machen könnten, ist sich mit Social Engineering beschäftigen; Erstellen Sie beispielsweise gefälschte Social-Media-Profile. Einige dieser Programme können unglaublich realistische Bilder erstellen, die wie echte Fotos von echten Menschen aussehen, und ein Betrüger könnte diese gefälschten Social-Media-Profile zum Catfishing verwenden.
Im Gegensatz zu Fotos von echten Personen können KI-generierte Fotos nicht über die umgekehrte Bildsuche entdeckt werden, und der Cyberkriminelle muss nicht mit einem arbeiten begrenzte Anzahl von Fotos, um ihr Ziel zu betrügen – mithilfe von KI können sie so viele erstellen, wie sie möchten, und daraus eine überzeugende Online-Identität aufbauen kratzen.
Es gibt jedoch Beispiele aus dem wirklichen Leben von Bedrohungsakteuren, die KI-Bildgeneratoren verwenden, um Menschen zu betrügen. Im April 2022, TechTalks Blogger Ben Dickinson erhielt eine E-Mail von einer Anwaltskanzlei, in der behauptet wurde, er habe ein Bild ohne Erlaubnis verwendet. Die Anwälte schickten eine E-Mail mit einer DMCA-Urheberrechtsverletzungsmitteilung, in der sie Dickinson mitteilten, dass er einen Link zu einem ihrer Kunden herstellen oder das Bild entfernen müsse.
Dickinson googelte die Anwaltskanzlei und fand die offizielle Website. Es schien alles völlig legitim zu sein; Die Website hatte sogar Fotos von 18 Anwälten, komplett mit ihren Biografien und Zeugnissen. Aber nichts davon war echt. Die Fotos wurden alle von KI generiert und die angeblichen Urheberrechtsverletzungen wurden verschickt von jemandem, der versucht, Backlinks von ahnungslosen Bloggern zu erpressen, als Teil eines unethischen, schwarzen Hut SEO (Suchmaschinenoptimierung) Strategie.
2. Wohltätigkeitsbetrug
Als im Februar 2023 verheerende Erdbeben die Türkei und Syrien heimsuchten, drückten Millionen Menschen auf der ganzen Welt ihre Solidarität mit den Opfern aus, indem sie Kleidung, Lebensmittel und Geld spendeten.
Laut einem Bericht von BBC, Betrüger machten sich dies zunutze, indem sie mithilfe von KI realistische Bilder erstellten und um Spenden baten. Ein Betrüger zeigte KI-generierte Bilder von Ruinen auf TikTok Live und bat seine Zuschauer um Spenden. Ein anderer postete ein KI-generiertes Bild eines griechischen Feuerwehrmanns, der ein verletztes Kind aus Ruinen rettet, und bat seine Anhänger um Spenden in Bitcoin.
Man kann sich nur vorstellen, welche Art von Wohltätigkeitsbetrug Kriminelle in Zukunft mit Hilfe von KI betreiben werden, aber man kann davon ausgehen, dass sie nur besser darin werden, diese Software zu missbrauchen.
3. Deepfakes und Desinformation
Regierungen, Aktivistengruppen und Denkfabriken warnen seit langem davor Gefahren von Deepfakes. KI-Bildgeneratoren fügen diesem Problem eine weitere Komponente hinzu, wenn man bedenkt, wie realistisch ihre Kreationen sind. Tatsächlich gibt es in Großbritannien sogar eine Comedy-Show namens Deep Fake Neighbor Wars, die Humor in unwahrscheinlichen Promi-Paarungen findet. Was würde einen Desinformationsagenten davon abhalten, ein gefälschtes Bild zu erstellen und es mithilfe von Bots in sozialen Medien zu bewerben?
Dies kann reale Konsequenzen haben, wie es fast im März 2022 der Fall war, als ein gefälschtes Video, in dem der ukrainische Präsident Wolodymyr Selenskyj die Ukrainer aufforderte, sich zu ergeben, online kursierte, per NPR. Aber das ist nur ein Beispiel, denn die Möglichkeiten sind nahezu unbegrenzt, und es gibt unzählige Wege ein Bedrohungsakteure könnten mit ihrer Hilfe den Ruf einer Person schädigen, ein falsches Narrativ verbreiten oder gefälschte Nachrichten verbreiten von KI.
4. Werbebetrug
Trend Micro Forscher entdeckten im Jahr 2022, dass Betrüger KI-generierte Inhalte nutzten, um irreführende Werbung zu erstellen und zwielichtige Produkte zu bewerben. Sie erstellten Bilder, die nahelegten, dass beliebte Prominente bestimmte Produkte verwenden, und führten Werbekampagnen basierend auf diesen Bildern durch.
In einer Anzeige für eine „Finanzberatungsmöglichkeit“ war beispielsweise der Milliardär Elon Musk, der Gründer und CEO von Tesla, zu sehen. Natürlich hat Musk das fragliche Produkt nie befürwortet, aber das KI-generierte Filmmaterial ließ es so erscheinen und verlockte vermutlich ahnungslose Zuschauer, auf die Anzeigen zu klicken.
KI und Cybersicherheit: Ein komplexes Thema, das wir angehen müssen
In Zukunft werden staatliche Regulierungsbehörden und Cybersicherheitsexperten wahrscheinlich zusammenarbeiten müssen, um der aufkommenden Bedrohung durch KI-gestützte Cyberkriminalität zu begegnen. Aber wie können wir KI regulieren und normale Menschen schützen, ohne Innovationen zu unterdrücken und digitale Freiheiten einzuschränken? Diese Frage wird in den kommenden Jahren eine große Rolle spielen.
Bis es eine Antwort gibt, tun Sie, was Sie können, um sich zu schützen: Überprüfen Sie sorgfältig alle Informationen, die Sie online sehen, vermeiden Sie zwielichtige Websites, verwenden Sie sichere Software, halten Sie Ihre Geräte auf dem neuesten Stand und lernen Sie, künstliche Intelligenz für sich zu nutzen Vorteil.