Inmitten des durch Deepfake-Bilder verursachten Chaos müssen wir uns jetzt auch mit der Bedrohung durch Deepfake-Musik auseinandersetzen.
Neue Songs berühmter Künstler gehen in den sozialen Medien viral, was normalerweise kein Problem darstellt, außer wenn ein Stimmklon singt. Während es eines der letzten Medien war, das sich durchgesetzt hat, ist Deepfake-Musik jetzt Realität.
Es funktioniert, indem ein KI-Modell mit der Stimme eines Sängers trainiert wird, und die Ergebnisse sind nicht immer schlecht. Es steckt viel echte Kreativität in der Erstellung von Deepfake-Songs, aber das Problem liegt nicht nur im Output. In vielen Fällen wird die Erlaubnis nicht erteilt, und Fragen, wer bezahlt wird und ob es ethisch vertretbar ist, sind nur einige der Probleme von Deepfake-Musik.
1. Nicht autorisierte Datensätze
Wenn Sie einen Deepfake-Track eines berühmten Künstlers erstellen möchten, müssen Sie Audiodateien seiner Singstimme in einem Datensatz sammeln. Ähnlich wie bei allen Daten, die jemandem gehören, sollten Sie wahrscheinlich ihre Erlaubnis einholen, sie zu verwenden, aber es handelt sich um einen Deepfake Song kann es auf eine große Musikplattform wie YouTube, Spotify oder TikTok schaffen, nachdem er eine nicht autorisierte Person verwendet hat Datensatz.
So erging es den Künstlern Drake und The Weeknd, als ein User namens Ghostwriter „Heart on My Sleeve“ erstellte. Der Hit-Song enthielt die KI-synthetisierten Stimmen der Künstler, komplett mit Texten über die Ex-Freundin von The Weeknd.
Der Song wurde von den Fans wirklich genossen, mit zusätzlichem Lob an Ghostwriter für den kreativen Einsatz des Deepfake-Gesangs, aber als Das berichtete die Seattle Times, das sahen nicht alle so. Ein Sprecher der Universal Music Group, dem Major-Label hinter beiden Künstlern, fragt:
„Auf welcher Seite der Geschichte wollen die Akteure des Musikökosystems stehen: auf der Seite der Künstler, Fans und menschlicher kreativer Ausdruck oder auf der Seite von Deepfakes, Betrug und der Verweigerung der gebührenden Entschädigung von Künstlern?"
2. Veraltetes Urheberrecht
Wenn Sie ein Künstler sind, der nicht möchte, dass Ihre Stimme geklont wird, kann Ihnen das Urheberrecht möglicherweise noch nicht helfen. Da unsere Urheberrechtsgesetze zu einer Zeit geschrieben wurden, als diese Art von KI-Technologie noch nicht existierte, ist es nicht verwunderlich, dass die Gesetze immer noch versuchen, aufzuholen.
Der engste Rechtsfall des „Sprachdiebstahls“ in den USA geht auf die 1990er Jahre zurück. Als berichtet von der Los Angeles Times, gewann der Sänger Tom Waits 2,475 Millionen Dollar Schadensersatz von Frito-Lay Inc., dem mächtigen Chip-Giganten hinter Doritos, Cheetos, Cracker Jack's und mehr.
Die Anzeige verwendete die Stimme von jemandem, der Tom Waits nahe genug klang, dass die Leute glauben könnten, der wahre Künstler stecke hinter der Werbekampagne. Das Gleiche gilt für Deepfake-Songs, die derzeit im Umlauf sind, aber KI-Musik muss noch in einem Rechtsstreit getestet werden.
Während wir auf die Aktualisierung des Rechtssystems warten, ist es erwähnenswert, dass nicht jeder ein Problem damit hat, dass Leute ihre Stimme klonen Holly Herdon, Zum Beispiel. Angesichts der Flut von KI-Musikanwendungen entschied sie sich dafür, ihren Gesangszwilling namens Holly+ neben einem System zu autorisieren, das ihr eine faire Vergütung gewährte.
Welche Seite Sie auch einnehmen, das Problem bleibt das gleiche. Es gibt kein spezielles Urheberrechtsgesetz, das besagt, dass Sie die Erlaubnis des Künstlers einholen müssen, bevor Sie seine Stimme verwenden. Bis dahin finden sich Künstler möglicherweise im wilden Westen der KI-Technologie wieder, ohne Gesetze, die sie leiten.
3. Wer wird bezahlt?
Ist es in Ordnung, mit der Musik von jemandem Geld zu verdienen? Es ist eine heikle Frage, die zu einem größeren Problem werden könnte, da mehr Deepfake-Musik auf Streaming-Plattformen veröffentlicht und auf Social-Media-Plattformen monetarisiert wird.
Wie wir alle wissen, ist es in Ordnung, ein Cover eines berühmten Songs zu singen und es auf YouTube oder Spotify zu posten, und in diesem Fall werden Dinge wie Text, Songstruktur, Melodie, Rhythmus usw. werden kopiert. Aber Gesangsklone sind ganz anders, und Deepfake-Musik riffelt nicht gerade einen bestehenden Song, sondern erschafft einen ganz neuen Song mit der Stimme eines anderen.
Anders ausgedrückt: Sprachklone würden nicht existieren, wenn es nicht KI-Tools und nicht autorisierte Datensätze gäbe. Künstler verbringen ihr Leben damit, die Stimme, mit der sie geboren wurden, zu verfeinern und einen einzigartigen Sound zu erschaffen. Jemandem die Stimme zu stehlen und damit Geld zu verdienen, könnte ein Schritt zu weit sein.
4. Ein Grauzonen-Genre
Um die Sache noch komplizierter zu machen, sehen einige Leute Deepfake-Musik vielleicht nicht als ganz schlecht an. Im Gegensatz zu Deepfake-Bildern oder -Videos, über die Sie vielleicht kurz lachen, bevor Sie auf Ihrem Telefon vorbeiscrollen, entwickelt sich Deepfake-Musik zu einem eigenen Genre.
Manche Leute vergleichen es mit der Idee des Fanfiction-Schreibens, einer lustigen und kreativen Art, einem Künstler Tribut zu zollen. Es ist eine positivere Sichtweise, die es schwierig macht, Deepfake-Musik einfach als Tabu auszuschließen. Schauen Sie sich einfach Holly Herndons Herangehensweise an das Klonen von KI-Stimmen im folgenden Video an.
Obwohl nicht alle zustimmen, dass diese Art von Musik erlaubt sein sollte. Als Die Financial Times schreibt, das große Plattenlabel Universal Music Group, zielte darauf ab, Songs mit geringerer Qualität von Streaming-Plattformen zu entfernen, einschließlich der von KI erstellten. Schließlich müssen Streaming-Plattformen wie Spotify, Apple Music oder Tidal entscheiden, ob dieses Musikgenre auf ihrer Plattform erlaubt ist.
Deepfake-Musik entzündet ähnliche Debatten, die bereits in der Kunstwelt stattfinden: sollte KI-generierte Kunst als Kunst betrachtet werden?? Erst jetzt stellen wir KI-Musik in Frage.
5. Ethische Bedenken in Bezug auf Rasse und Identität
Die Ära der Deepfake-Musik hat mit viel Musik begonnen, die Rap-Musik nachahmt. Da die historischen Wurzeln des Genres auf die afroamerikanische Jugend zurückgehen, die Anfang der 1970er Jahre in der Bronx, New York City, aufwuchs, sind einige Leute besorgt über Rasse und Identität in der KI-Musik.
Schriftsteller Lauren Chanel, ist eine Person, die Deepfake-Musik als ernsthaftes Problem empfindet. Wie in einem zitiert Artikel der New York Times, sie erklären:
„Es ist eine andere Möglichkeit für Menschen, die nicht schwarz sind, das Kostüm einer schwarzen Person anzuziehen – ihre Hände zu Kanye oder Drake zu heben und ihn zu einer Marionette zu machen – und das ist alarmierend für mich.“ „Dies ist nur ein weiteres Beispiel in einer langen Reihe von Menschen, die unterschätzen, was es braucht, um die Art von Kunst zu schaffen, die historisch gesehen von Schwarzen Menschen gemacht wird machen."
Dies ist nicht das erste Mal, dass Musik, die mit KI-Tools erstellt wurde, nicht ethisch einwandfrei ist. Als berichtet im Rolling Stone Magazin, ein virtueller Avatar-Rapper namens FN Meka, wurde bei einem Label unter Vertrag genommen und dann schnell wieder fallen gelassen, als er online ging Die Rechtegruppe Industry Blackout schrieb, dass das Projekt „grobe Stereotype“ über Back aufrechterhalte Kultur.
Wenn überhaupt, erinnert uns Deepfake-Musik daran, dass KI-Tools nicht von der Geschichte des Musikmachens getrennt werden können, und das Ignorieren trägt dazu bei die Gefahren von KI-Deepfakes.
6. Künstlern Schaden zufügen
Eine Sache, die nicht übersehen werden sollte, ist die emotionale Wirkung, die ein Deepfake-Song auf den Künstler haben kann, insbesondere wenn es sich um einen Stimmklon handelt können über Situationen singen, die nie passiert sind, Gefühle ausdrücken, die nicht ihre eigenen sind, und vorgeben, sich um Dinge zu kümmern, die ihnen vielleicht egal sind.
Im Fall des gefälschten Drake-Songs ft. The Weeknd, der Text enthielt Zeilen über Selena Gomez, die früher mit The Weeknd zusammen war. Mit einer Mischung aus realen Fakten und erfundenen Texten war es eine seltsame Verzerrung der Realität, die für den Künstler, der die reale Erfahrung durchlebte, schädlich sein konnte.
Ähnlich, Produzieren von KI-generierten Texten „im Stil“ von jemandem, der berühmte KI-Textgeneratoren verwendet, hat einige Künstler dazu gebracht, über den Einsatz von KI-Technologie zu verzweifeln. Wie Nick Cave es ausdrückt, "Was ChatGPT in diesem Fall ist, ist Replikation als Travestie."
Deepfake-Musik ist in der Lage, dem Künstler Worte in den Mund zu legen, die er nie gesprochen oder in diesem Fall gesungen hat. Auf persönlicher Ebene kann dies für den Künstler schädlich sein, der wenig Kontrolle über das Entfernen des Inhalts hat, ohne den Kampf vor Gericht zu bringen.
Bereiten Sie sich auf Veränderungen in der Musikindustrie vor
Dank des wachsenden Zugangs zu KI-Tools hat Musik insbesondere durch Stimmklone Einzug in die Welt der Deepfakes gehalten. Es ist extrem schwierig, den Unterschied zwischen einer KI-Stimme und einer menschlichen Stimme nur durch Zuhören zu erkennen, was es einem Deepfake-Song leicht macht, Streaming-Plattformen zu erreichen, bevor er entfernt wird.
Einerseits könnten Fans Deepfake-Musik genießen und es könnte ein gültiges Genre entstehen, das berühmte Stimmen verwendet, um neue und interessante Musik zu kreieren. Aber nicht jeder Künstler ist damit einverstanden, dass seine Stimme geklont wird, und es gibt keine Gesetze, die Menschen daran hindern, nicht autorisierte Datensätze zu erstellen.
Das Einholen von Einwilligungen, die Entschädigung von Künstlern und die Auseinandersetzung mit ethischen Bedenken sind nur einige Probleme, mit denen Künstler und die Musikindustrie konfrontiert sind. Angesichts der rasanten Entwicklung der KI-Technologie lohnt es sich, eine Pause einzulegen, um über die Probleme nachzudenken, die sie geschaffen haben.