Jeder denkt, er könne ein Deepfake-Video erkennen, aber die sich schnell verbessernde Technologie, einschließlich KI-Tools, macht das Erkennen eines gefälschten Videos schwieriger denn je.

Die zentralen Thesen

  • Deepfakes stellen erhebliche Bedrohungen für die Gesellschaft dar, darunter die Verbreitung von Desinformation, Rufschädigung durch Identitätsdiebstahl und die Anstiftung zu Konflikten um die nationale Sicherheit.
  • Die KI-Technologie bietet zwar Tools zur Deepfake-Erkennung, diese sind jedoch nicht perfekt und das Ermessen des Menschen bleibt bei der Identifizierung von Deepfakes von entscheidender Bedeutung.
  • Menschen und KI-Erkennungstools haben unterschiedliche Stärken und Schwächen bei der Identifizierung von Deepfakes Durch die Kombination ihrer Fähigkeiten können die Erfolgsquoten bei der Erkennung und Eindämmung der Gefahren von Deepfakes verbessert werden Technologie.

Deepfakes bedrohen jeden Aspekt der Gesellschaft. Unsere Fähigkeit, gefälschte Inhalte zu erkennen, ist für die Beseitigung von Desinformation von entscheidender Bedeutung. Aber wem können wir bei der Verbesserung der KI-Technologie vertrauen, um Deepfakes zu erkennen: Mensch oder Maschine?

instagram viewer

Die Gefahren von Deepfakes

Da die KI-Technologie voranschreitet, die Gefahren von Deepfakes stellen eine zunehmende Bedrohung für uns alle dar. Hier ist eine kurze Zusammenfassung einiger der dringendsten Probleme, die Deepfakes aufwerfen:

  • Desinformation: Deepfake-Videos und Sprachaufzeichnungen können Desinformationen, wie zum Beispiel Fake News, verbreiten.
  • Identitätswechsel: Indem sie sich als Einzelpersonen ausgeben, können Deepfakes den Ruf von Personen schädigen oder jeden, den sie kennen, täuschen.
  • Nationale Sicherheit: Das offensichtliche Weltuntergangsszenario bei Deepfakes sind gefälschte Film- oder Audioaufnahmen eines Weltmarktführers, der einen Konflikt anzettelt.
  • Bürgerunruhen: Täuschende Film- und Tonaufnahmen können von den Parteien auch dazu verwendet werden, Wut und Unruhen unter bestimmten Gruppen zu schüren.
  • Internet-Sicherheit: Cyberkriminelle nutzen bereits KI-Tools zum Klonen von Stimmen, um Einzelpersonen mit überzeugenden Nachrichten von ihnen bekannten Personen ins Visier zu nehmen.
  • Datenschutz und Einwilligung: Durch den böswilligen Einsatz von Deepfakes wird das Abbild von Personen ohne deren Zustimmung hergestellt.
  • Vertrauen und Zuversicht: Wenn Sie nicht zwischen Wahrheit und Täuschung unterscheiden können, werden genaue Informationen gleichermaßen unglaubwürdig.

Deepfakes werden immer überzeugender, daher brauchen wir robuste Tools und Prozesse, um sie zu erkennen. KI stellt ein solches Tool in Form von Deepfake-Erkennungsmodellen bereit. Allerdings gerne Algorithmen zur Identifizierung von KI-generiertem Schreiben, Deepfake-Erkennungstools sind nicht perfekt.

Derzeit ist die menschliche Diskretion das einzige andere Instrument, auf das wir uns verlassen können. Sind wir also besser als Algorithmen bei der Identifizierung von Deepfakes?

Können Algorithmen Deepfakes besser erkennen als Menschen?

Deepfakes stellen eine so ernste Bedrohung dar, dass Technologiegiganten und Forschungsgruppen enorme Ressourcen für Forschung und Entwicklung aufwenden. Im Jahr 2019 boten Unternehmen wie Meta, Microsoft und Amazon während eines Preises Preise im Wert von 1.000.000 US-Dollar an Herausforderung zur Deepfake-Erkennung für das genaueste Erkennungsmodell.

Das leistungsstärkste Modell war im Vergleich zu einem Datensatz öffentlich verfügbarer Videos zu 82,56 % genau. Als dieselben Modelle jedoch anhand eines „Black-Box-Datensatzes“ von 10.000 ungesehenen Videos getestet wurden, war das leistungsstärkste Modell nur zu 65,18 % genau.

Wir verfügen auch über zahlreiche Studien, in denen die Leistung von KI-Tools zur Deepfake-Erkennung gegenüber Menschen analysiert wird. Natürlich variieren die Ergebnisse von Studie zu Studie, aber im Allgemeinen erreichen Menschen entweder die Erfolgsquote von Deepfake-Erkennungstools oder übertreffen sie.

Eine Studie aus dem Jahr 2021, veröffentlicht am PNAS fanden heraus, dass „normale menschliche Beobachter“ eine etwas höhere Genauigkeitsrate erreichten als die führenden Deepfake-Erkennungstools. Die Studie ergab jedoch auch, dass die menschlichen Teilnehmer und KI-Modelle anfällig für verschiedene Arten von Fehlern waren.

Interessanterweise wurden Untersuchungen von durchgeführt Die Universität von Sydney hat herausgefunden, dass das menschliche Gehirn unbewusst Deepfakes effektiver erkennen kann als unsere bewussten Bemühungen.

Visuelle Hinweise in Deepfakes erkennen

Die Wissenschaft der Deepfake-Erkennung ist komplex und die erforderliche Analyse variiert je nach Art des Filmmaterials. Beispielsweise ist das berüchtigte Deepfake-Video des nordkoreanischen Führers Kim Jong-un aus dem Jahr 2020 im Grunde ein Talking-Head-Video. In diesem Fall könnte die effektivste Deepfake-Erkennungsmethode darin bestehen, Mundbilder (Mundbewegungen) und Phoneme (phonetische Laute) auf Inkonsistenzen zu analysieren.

Menschliche Experten, Gelegenheitsbeobachter und Algorithmen können diese Art von Analyse durchführen, auch wenn die Ergebnisse variieren. Der MIT definiert acht Fragen, die helfen sollen Identifizieren Sie Deepfake-Videos:

  • Achten Sie auf das Gesicht. Bei High-End-DeepFake-Manipulationen handelt es sich fast immer um Gesichtsveränderungen.
  • Achten Sie auf Wangen und Stirn. Wirkt die Haut zu glatt oder zu faltig? Ist die Alterung der Haut mit der Alterung der Haare und Augen vergleichbar? DeepFakes können in einigen Dimensionen nicht übereinstimmen.
  • Achten Sie auf die Augen und Augenbrauen. Erscheinen Schatten an Stellen, die Sie erwarten würden? DeepFakes bilden die natürliche Physik einer Szene möglicherweise nicht vollständig ab.
  • Achten Sie auf die Brille. Gibt es eine Blendung? Gibt es zu viel Blendung? Ändert sich der Blendwinkel, wenn sich die Person bewegt? Auch hier kann es sein, dass DeepFakes die natürliche Physik der Beleuchtung nicht vollständig abbildet.
  • Achten Sie auf die Gesichtsbehaarung oder deren Fehlen. Sieht diese Gesichtsbehaarung echt aus? DeepFakes kann einen Schnurrbart, Koteletten oder einen Bart hinzufügen oder entfernen. Allerdings gelingt es DeepFakes möglicherweise nicht, Gesichtsbehaarungstransformationen völlig natürlich zu machen.
  • Achten Sie auf Muttermale im Gesicht. Sieht der Maulwurf echt aus?
  • Achten Sie auf das Blinzeln. Blinzelt die Person genug oder zu viel?
  • Achten Sie auf die Lippenbewegungen. Einige Deepfakes basieren auf Lippensynchronisation. Sehen die Lippenbewegungen natürlich aus?

Die neuesten KI-Tools zur Deepfake-Erkennung können dieselben Faktoren analysieren, wiederum mit unterschiedlichem Erfolg. Auch Datenwissenschaftler entwickeln ständig neue Methoden, beispielsweise die Erkennung des natürlichen Blutflusses in den Gesichtern von Bildschirmsprechern. Neue Ansätze und Verbesserungen bestehender Ansätze könnten dazu führen, dass KI-Tools zur Deepfake-Erkennung in Zukunft den Menschen durchweg übertreffen.

Erkennen von Audiohinweisen in Deepfakes

Das Erkennen von Deepfake-Audio ist eine ganz andere Herausforderung. Ohne die visuellen Hinweise von Videos und die Möglichkeit, audiovisuelle Inkonsistenzen zu erkennen, Deepfake Die Erkennung basiert stark auf der Audioanalyse (in manchen Fällen können auch andere Methoden wie die Metadatenüberprüfung hilfreich sein). Fälle).

Eine Studie veröffentlicht von University College London Im Jahr 2023 wurde festgestellt, dass Menschen in 73 % der Fälle Deepfake-Sprache erkennen können (Englisch und Mandarin). Wie bei Deepfake-Videos erkennen menschliche Zuhörer oft intuitiv unnatürliche Sprachmuster in KI-generierter Sprache, auch wenn sie nicht genau sagen können, was ihnen komisch vorkommt.

Zu den häufigsten Anzeichen gehören:

  • Slurring
  • Mangel an Ausdruck
  • Hintergrund- oder Störgeräusche
  • Stimmliche oder sprachliche Inkonsistenzen
  • Mangel an „Fülle“ in den Stimmen
  • Übermäßig geskriptete Lieferung
  • Fehlen von Unvollkommenheiten (Fehlstarts, Korrekturen, Räuspern usw.)

Auch hier können Algorithmen auch Sprache auf die gleichen Deepfake-Signale analysieren, aber neue Methoden machen die Tools effektiver. Forschung von USENIX identifizierte Muster bei der KI-Rekonstruktion des Stimmapparats, die die natürliche Sprache nicht nachahmen können. Es wird zusammengefasst, dass KI-Sprachgeneratoren Audiosignale erzeugen, die schmalen Stimmbändern (etwa der Größe eines Trinkhalms) entsprechen, ohne die natürlichen Bewegungen der menschlichen Sprache.

Frühere Forschungen aus dem Horst-Görtz-Institut analysierte echtes und Deepfake-Audio auf Englisch und Japanisch und deckte subtile Unterschiede in den höheren Frequenzen von echter Sprache und Deepfake auf.

Sowohl der Stimmapparat als auch Hochfrequenz-Inkonsistenzen sind für menschliche Zuhörer und KI-Erkennungsmodelle wahrnehmbar. Bei hochfrequenten Unterschieden könnten KI-Modelle theoretisch immer genauer werden – das Gleiche gilt jedoch auch für KI-Deepfakes.

Sowohl Menschen als auch Algorithmen werden von Deepfakes getäuscht, allerdings auf unterschiedliche Weise

Studien deuten darauf hin, dass Menschen und die neuesten KI-Erkennungstools gleichermaßen in der Lage sind, Deepfakes zu erkennen. Die Erfolgsraten können je nach Testparameter zwischen 50 % und über 90 % variieren.

Im weiteren Sinne werden auch Menschen und Maschinen in ähnlichem Maße durch Deepfakes getäuscht. Entscheidend ist jedoch, dass wir auf unterschiedliche Weise anfällig sind, und dies könnte unser größter Vorteil bei der Bekämpfung der Gefahren der Deepfake-Technologie sein. Durch die Kombination der Stärken von Menschen und Deepfake-Erkennungstools werden die Schwächen beider gemildert und die Erfolgsquoten verbessert.

Zum Beispiel, MIT Untersuchungen ergaben, dass Menschen Deepfakes von Weltführern und berühmten Persönlichkeiten besser erkennen können als KI-Modelle. Es zeigte sich auch, dass die KI-Modelle Probleme mit Filmmaterial mit mehreren Personen hatten, obwohl es darauf hindeutete, dass dies darauf zurückzuführen sein könnte, dass Algorithmen auf Filmmaterial mit einzelnen Sprechern trainiert wurden.

Umgekehrt ergab dieselbe Studie, dass KI-Modelle Menschen mit minderwertigem Filmmaterial (verschwommen, körnig, dunkel usw.) übertrafen, das absichtlich zur Täuschung menschlicher Zuschauer verwendet werden könnte. Ebenso umfassen neuere KI-Erkennungsmethoden wie die Überwachung des Blutflusses in bestimmten Gesichtsregionen Analysen, zu denen Menschen nicht in der Lage sind.

Mit der Entwicklung weiterer Methoden wird sich nicht nur die Fähigkeit der KI verbessern, Zeichen zu erkennen, die wir nicht erkennen können, sondern auch ihre Fähigkeit, zu täuschen. Die große Frage ist, ob die Deepfake-Erkennungstechnologie weiterhin die Deepfakes selbst übertreffen wird.

Im Zeitalter der Deepfakes die Dinge anders sehen

KI-Tools zur Deepfake-Erkennung werden sich weiter verbessern, ebenso wie die Qualität der Deepfake-Inhalte selbst. Wenn die Fähigkeit der KI zur Täuschung ihre Fähigkeit zur Erkennung übersteigt (wie es bei KI-generiertem Text der Fall ist), ist menschliches Ermessen möglicherweise das einzige Mittel, das uns im Kampf gegen Deepfakes bleibt.

Jeder hat die Verantwortung, die Anzeichen von Deepfakes zu kennen und zu erkennen, wie man sie erkennt. Abgesehen davon, dass wir uns vor Betrug und Sicherheitsbedrohungen schützen, ist alles, was wir online besprechen und teilen, anfällig für Desinformation, wenn wir den Überblick über die Realität verlieren.