Es kann Spaß machen, mit der Deepfake-Technologie herumzuspielen, aber ihr Schadenspotenzial ist erheblich. Hier ist, was die Zukunft von Deepfakes bringen könnte.

Die verräterischen Anzeichen eines Deepfake-Bildes waren früher leicht zu erkennen, aber die generative KI lässt uns fast alles in Frage stellen, was wir heute sehen und hören. Mit jedem neuen KI-Modell, das veröffentlicht wird, nehmen die verräterischen Anzeichen eines gefälschten Bildes ab und noch dazu Um Verwirrung zu vermeiden, können Sie jetzt Deepfake-Videos, Sprachklone Ihrer Lieben und gefälschte Artikel in bloßer Form erstellen Sekunden.

Um sich nicht von KI-Deepfakes täuschen zu lassen, lohnt es sich zu wissen, welche Art von Gefahren sie darstellen.

Die Evolution von Deepfakes

Ein Deepfake zeigt eine Person, die etwas tut, was im wirklichen Leben nie passiert ist. Es ist komplett gefälscht. Wir lachen über Deepfakes, wenn sie als Meme oder Witz im Internet geteilt werden, aber die wenigsten finden es lustig, wenn sie uns in die Irre führen.

instagram viewer

In der Vergangenheit wurden Deepfakes erstellt, indem ein vorhandenes Foto aufgenommen und in einer Bildbearbeitungssoftware wie Photoshop verändert wurde. Was einen KI-Deepfake jedoch auszeichnet, ist, dass er mithilfe von Deep-Learning-Algorithmen von Grund auf neu generiert werden kann.

Der Merriam-Webster-Wörterbuch definiert einen Deepfake als:

Ein Bild oder eine Aufzeichnung, die überzeugend verändert und manipuliert wurde, um jemanden fälschlicherweise so darzustellen, als würde er etwas tun oder sagen, was in Wirklichkeit nicht getan oder gesagt wurde.

Aber mit den Fortschritten in der KI-Technologie scheint diese Definition veraltet zu sein. Durch den Einsatz von KI-Tools umfassen Deepfakes jetzt Bilder, Text, Videos und das Klonen von Stimmen. Manchmal werden alle vier Modi der KI-Erzeugung gleichzeitig verwendet.

Da es sich um einen automatisierten Prozess handelt, der unglaublich schnell und kostengünstig zu verwenden ist, ist er das perfekte Werkzeug für die Produktion am laufenden Band Deepfakes in einer Geschwindigkeit, die wir noch nie zuvor gesehen haben – und das alles, ohne auch nur ein Wort darüber wissen zu müssen, wie man Fotos, Videos bearbeitet oder Audio.

Die großen Gefahren von KI-Deepfakes

Ein Veranstalter von KI-Videogeneratoren existieren bereits, neben vielen KI-Sprachgeneratoren. Werfen Sie ein großes Sprachmodell wie GPT-4 und Sie haben ein Rezept für die Erstellung der glaubwürdigsten Deepfakes, die wir bisher in der modernen Geschichte gesehen haben.

Sich der verschiedenen Arten von KI-Deepfakes bewusst zu sein und zu wissen, wie sie verwendet werden könnten, um Sie zu täuschen, ist eine Möglichkeit, sich nicht irreführen zu lassen. Hier sind nur einige ernsthafte Beispiele dafür, wie die KI-Deepfake-Technologie eine echte Bedrohung darstellt.

1. KI-Identitätsdiebstahl

Sie haben sie vielleicht gesehen. Zu den ersten wirklich viralen KI-Deepfakes, die sich auf der ganzen Welt verbreiteten, gehörten ein Bild von Donald Trump, der verhaftet wurde, und eines von Papst Franziskus in einer weißen Pufferjacke.

Während einer wie eine unschuldige Neuinterpretation dessen wirkt, was eine berühmte religiöse Figur an einem kühlen Tag in Rom tragen könnte; Das andere Bild, das eine politische Figur in einer ernsten Situation mit dem Gesetz zeigt, hat weitaus größere Konsequenzen, wenn es für real gehalten wird.

Bisher haben die Menschen bei der Erstellung von KI-Deepfakes hauptsächlich Prominente, politische Persönlichkeiten und andere berühmte Personen ins Visier genommen. Dies liegt zum Teil daran, dass berühmte Persönlichkeiten viele Fotos von ihnen im Internet haben, die wahrscheinlich dazu beigetragen haben, das Modell überhaupt zu trainieren.

Im Fall eines KI-Bildgenerators wie Midjourney – der sowohl im Deepfake von Trump als auch vom Papst verwendet wird – muss ein Benutzer einfach Text eingeben, der beschreibt, was er sehen möchte. Schlüsselwörter können verwendet werden, um den Kunststil anzugeben, z. B. ein Foto oder Fotorealismus, und die Ergebnisse können durch Hochskalieren der Auflösung feinabgestimmt werden.

Sie können genauso einfach lernen, Midjourney zu verwenden und testen Sie dies selbst, aber aus offensichtlichen moralischen und rechtlichen Gründen sollten Sie es vermeiden, diese Bilder öffentlich zu posten.

Leider garantiert auch ein durchschnittlicher, nicht berühmter Mensch nicht, dass Sie vor KI-Deepfakes sicher sind.

Das Problem liegt in einer Schlüsselfunktion, die KI-Bildgeneratoren bieten: die Möglichkeit, Ihr eigenes Bild hochzuladen und es mit KI zu manipulieren. Und ein Werkzeug wie Outpainting in DALL-E 2 Sie können ein vorhandenes Bild über seine Grenzen hinaus erweitern, indem Sie eine Textaufforderung eingeben und beschreiben, was Sie sonst noch generieren möchten.

Wenn jemand anderes dies mit Ihren Fotos tun würde, könnten die Gefahren erheblich größer sein als der Deepfake des Papstes in einer weißen Jacke – sie können ihn überall verwenden und sich als Sie ausgeben. Während die meisten Menschen KI im Allgemeinen mit guten Absichten verwenden, gibt es nur wenige Einschränkungen, die Menschen davon abhalten, sie zu verwenden, um Schaden anzurichten, insbesondere in Fällen von Identitätsdiebstahl.

2. Deepfake-Voice-Clone-Betrug

Mithilfe von KI haben Deepfakes eine Grenze überschritten, auf die die meisten von uns nicht vorbereitet waren: gefälschte Sprachklone. Mit nur einer kleinen Menge Original-Audio – vielleicht aus einem TikTok-Video, das Sie einmal gepostet haben, oder einem YouTube-Video, in dem Sie erscheinen – kann ein KI-Modell Ihre einzigartige Stimme replizieren.

Es ist sowohl unheimlich als auch beängstigend, sich vorzustellen, einen Anruf zu erhalten, der wie ein Familienmitglied, Freund oder Kollege klingt. Deepfake-Sprachklone sind ein ernsthaftes Problem, das die Federal Trade Commission (FTC) hat davor gewarnt.

Traue der Stimme nicht. Rufen Sie die Person an, die Sie angeblich kontaktiert hat, und überprüfen Sie die Geschichte. Verwenden Sie eine Telefonnummer, von der Sie wissen, dass sie ihnen gehört. Wenn Sie Ihren Angehörigen nicht erreichen können, versuchen Sie, ihn über ein anderes Familienmitglied oder dessen Freunde zu erreichen.

Das berichtete die Washington Post ein Fall von einem Paar in den Siebzigern, das einen Anruf von jemandem erhielt, der genau wie sein Enkel klang. Er saß im Gefängnis und brauchte dringend Geld für eine Kaution. Da sie keinen anderen Grund hatten, daran zu zweifeln, mit wem sie sprachen, machten sie weiter und übergaben das Geld dem Betrüger.

Gefährdet ist nicht nur die ältere Generation, Der Guardian berichtete Ein weiteres Beispiel eines Bankmanagers, der eine Transaktion in Höhe von 35 Millionen Dollar nach einer Reihe von „deep-fake“-Anrufen von jemandem genehmigte, den er für einen Bankdirektor hielt.

3. Massenproduzierte Fake News

Große Sprachmodelle, wie z ChatGPT sind sehr, sehr gut darin, Texte zu produzieren, die wie ein Mensch klingen, und wir haben derzeit keine effektiven Tools, um den Unterschied zu erkennen. In den falschen Händen werden gefälschte Nachrichten und Verschwörungstheorien billig produziert und es dauert länger, sie zu entlarven.

Das Verbreiten von Fehlinformationen ist natürlich nichts Neues, sondern eine Forschungsarbeit veröffentlicht auf arXiv im Januar 2023 erklärt, dass das Problem darin liegt, wie einfach es ist, die Ausgabe mit KI-Tools zu skalieren. Sie bezeichnen es als „KI-generierte Einflusskampagnen“, die ihrer Meinung nach beispielsweise von Politikern genutzt werden könnten, um ihre politischen Kampagnen auszulagern.

Durch die Kombination von mehr als einer KI-generierten Quelle entsteht ein Deepfake auf hohem Niveau. Beispielsweise kann ein KI-Modell eine gut geschriebene und überzeugende Nachricht generieren, die neben dem gefälschten Bild der Verhaftung von Donald Trump steht. Dies verleiht ihm mehr Legitimität, als wenn das Bild allein geteilt würde.

Gefälschte Nachrichten sind auch nicht auf Bilder und Schrift beschränkt, Entwicklungen in der KI-Videogenerierung bedeuten, dass wir sehen, dass immer mehr Deepfake-Videos auftauchen. Hier ist eines von Robert Downey Jr., das auf ein Video von Elon Musk gepfropft wurde, das von der gepostet wurde YouTube-Kanal Deepfakery.

Das Erstellen eines Deepfakes kann so einfach sein wie das Herunterladen einer App. Sie können eine App wie verwenden TokkingHeads, um Standbilder in animierte Avatare zu verwandeln, mit dem Sie Ihr eigenes Bild und Audio hochladen können, damit es so aussieht, als würde die Person sprechen.

Zum größten Teil ist es unterhaltsam und macht Spaß, aber es gibt auch Potenzial für Ärger. Es zeigt uns, wie einfach es ist, das Bild einer Person zu verwenden, um den Anschein zu erwecken, als hätte diese Person Worte geäußert, die sie nie gesprochen hat.

Lassen Sie sich nicht von einem KI-Deepfake täuschen

Deepfakes können schnell zu sehr geringen Kosten und mit geringem Fachwissen oder erforderlicher Rechenleistung bereitgestellt werden. Sie können die Form eines generierten Bildes, eines Sprachklons oder einer Kombination aus KI-generierten Bildern, Audio und Text annehmen.

Früher war es viel schwieriger und arbeitsintensiver, einen Deepfake zu erstellen, aber jetzt, da es viele KI-Apps gibt, hat fast jeder Zugriff auf die Tools, die zum Erstellen von Deepfakes verwendet werden. Da die KI-Deepfake-Technologie immer fortschrittlicher wird, lohnt es sich, die Gefahren, die sie darstellt, genau im Auge zu behalten.