Anwendungen von KI in der Musikproduktion existieren jenseits des fragwürdigen Klonens von Stimmen. Hier sind die ethischen Verwendungen dieser Technologie in der Musik.

Im schlimmsten Fall wird KI gedankenlos zum Klonen von Stimmen und zum Generieren von Grab-and-Go-Texten im Stil berühmter Musiker verwendet. Aber es gibt noch eine andere Seite der KI, die einen besseren Ruf verdient.

KI verändert die Art und Weise, wie wir Musik produzieren, zum Besseren. Werfen Sie einfach einen Blick darauf, wie es kreative Arbeitsabläufe beschleunigt, uns neue Möglichkeiten zum Durchsuchen von Sample-Bibliotheken bietet, bei der Entwicklung fortschrittlicher Plugins hilft und erschwingliche Mastering-Optionen erstellt.

Wenn Sie nach einer anderen Perspektive auf die KI- und Musikdebatte suchen, finden Sie hier einige der positiven Möglichkeiten, wie KI eingesetzt wird.

1. Fortgeschrittene Stimmsynthese

Deepfake-Stimmklone berühmter Künstler haben in der Musikindustrie gemischte Gefühle ausgelöst. Doch im Hintergrund tragen dieselben Fortschritte dazu bei, die Stimmsynthese in ein neues Gebiet vorzudringen.

Der Versuch, mit einem Computer eine menschliche Stimme zu bauen, ist nichts Neues. Ein singender Synthesizer wie VOCALOID6 hat eine Geschichte, die bis in die 2000er Jahre zurückreicht, und hat in seiner neueren Iteration begonnen, KI einzusetzen, um das synthetisierte Sprachinstrument zu verbessern.

Sie können Texte eingeben, die Tonhöhe auswählen und den Akzent feinabstimmen. Es kann auf Japanisch und Englisch singen, ab 2023 auch auf Chinesisch.

Ähnlich wie jedes Software-Instrument, wie das eines virtuellen Klaviers, versucht es, das Original nachzubilden. Aber nicht wie wie Deepfake-Musik entstehtarbeitete das Unternehmen mit echten Sängern, um mehrere Stimmprofile zu entwickeln.

Wenn Sie nach einer jüngeren Alternative suchen, dann versuchen Sie es Synthesizer V von Dreamtonics. Das Unternehmen wurde 2019 gegründet, als die KI-Technologie begann, sich zu beschleunigen und den Mainstream-Status zu erreichen, und die Ergebnisse sind beeindruckend.

2. Schnelle Stammtrennung

Das Trennen von Stems aus einem Track – das Extrahieren nur der Vocals oder vielleicht der Bassline – war schon immer schwierig, und selbst mit den richtigen Tools waren die Ergebnisse alles andere als perfekt. Glücklicherweise verändert die KI-gestützte Stammtrennung diesen Prozess zum Besseren.

Software wie RipX von Hit'n'Mix kann qualitativ hochwertige Stems ohne so viele Audioartefakte erzeugen, wie Sie es in der Vergangenheit normalerweise gehört haben. Während eine Drag-and-Drop-Web-App wie LALAL.AI rationalisiert den Prozess für technisch nicht versierte Benutzer.

Die Stem-Trennung ist ein Ausgangspunkt für eine ganze Reihe kreativer Produktionen, einschließlich Remixing, Sampling und Erstellen von Backing-Tracks und die Fortschritte, die KI in diesem Bereich bringt, sind ein Segen für DJs und DJs Produzenten.

Am unglaublichsten ist, dass KI noch einen Schritt weiter in Live-Auftritte geht, wo Sie die Stems eines Songs in Echtzeit aufteilen können. Vorbei sind die Stunden, die Sie mit der Vorbereitung eines Tracks verbracht haben. Wenn Ihnen der gewünschte Song einfällt, können Sie ein Deck laden und den Groove on-the-fly isolieren.

Es ist auch erwähnenswert, dass gute Open-Source-KI-Stem-Splitter seit Jahren auf GitHub im Umlauf sind, darunter einer namens Spleeter. Eine Plugin-Version davon wurde vom Künstler Azuki für Ableton erstellt, die Sie für nur 1 US-Dollar kaufen können Bandlager.

3. Erschwingliches Mastering

Wenn du Vergleichen Sie KI-Mastering mit menschlichem Mastering, sind die Hauptvorteile, die Sie aus der KI-Route ziehen, Zeit, Geschwindigkeit und Kosten.

Angenommen, Sie brauchen einen Track, der in ein paar Stunden poliert werden muss, im Gegensatz zu mehreren Tagen oder länger, oder Sie haben kein Budget, um ihn fertigzustellen, dann kommt KI-Mastering ins Spiel. Der Hauptnachteil ist natürlich, dass die Ergebnisse nicht mit denen eines erfahrenen Studioprofis mithalten können.

Ungeachtet dessen hilft vielen Einsteigern in die Musikproduktion und denjenigen, die es gerne als Hobby betreiben, eine günstige Option wie diese, um die Eintrittsbarriere zu senken. Optionen wie LANDR, verlangen beispielsweise 10 US-Dollar für einen einzelnen Master.

In diesem Fall wird der maschinelle Lernalgorithmus eingesetzt, um Ihren Song zu analysieren und zu identifizieren Abschnitte und Übergänge, dann wendet es Einstellungen wie EQ, Komprimierung und Lautstärke basierend auf was an es hört. Die genauen Parameter, die betrachtet werden, und wie die Änderungen beschlossen werden, sind Geheimnisse des Modells jedes Unternehmens.

Die beliebte Musik-Hosting-Plattform, SoundCloud, hat auch eine KI-Mastering-Funktion in seine Website integriert und wird insbesondere von Dolby (berühmt für seine Kino-Soundsysteme) unterstützt. Mit dem Next Pro-Abonnement erhalten Sie 3 kostenlose Mastering-Credits und zusätzliche Käufe kosten 3,99 $.

4. Bessere Möglichkeiten zum Durchsuchen Ihrer Soundbibliothek

Das Organisieren Ihrer Dateien ist keine sehr sexy Anwendung der KI-Technologie, aber eine, die leise verändert, wie wir in einer DAW durch Sounds navigieren.

Nehmen Sie zum Beispiel Algonaut Audioatlas 2. Traditionell bedeutete das Auffinden eines Drum-Samples, Listen und Ordner zu durchsuchen und jedes Sample abzuspielen, bis Sie das gesuchte gefunden hatten. Aber dieses Plugin verwendet KI, um jede Wellenform abzuhören und sie intelligent auf einer interaktiven visuellen Karte anzuordnen.

Samples werden basierend auf ihren Klangeigenschaften gruppiert, was zu Kontinenten mit ähnlich klingendem Audio führt, wie Kickdrums, Toms, Bongos oder Kuhglocken, um nur einige zu nennen. Wenn Sie den Mauszeiger über einen einzelnen Punkt bewegen, wird das Sample abgespielt, damit Sie es hören können.

Es gibt auch andere Methoden. Spleißen ist eine webbasierte Soundbibliothek, die KI verwendet, um die Suche nach Samples intuitiver zu gestalten, indem sie Ihnen hilft, ähnlich klingende Samples zu finden. Das Durchsuchen Ihrer Soundbibliothek ist dank KI weniger lästig und macht viel mehr Spaß.

5. AI-betriebene Emulatoren

Emulatoren machen einen großen Teil der Plugins aus, die für die Musikproduktion entwickelt werden, und bisher war ihre Erstellung mit viel Rätselraten verbunden. Aber mit dem Zugang zur KI-Technologie können Entwickler dem authentischen Klang alter Audiogeräte noch näher kommen.

Nehmen wir zum Beispiel die AI-powered TAIP Tape-Plugin von BABY Audio das den Klang alter Analogbänder emuliert. Um den Algorithmus zu trainieren, wurden zwei Arten von Audio in das System eingespeist. Eines mit Bandeffekt und eines ohne. Das KI-Modell hat die Aufgabe, die Merkmale zu lernen, die sie von anderen unterscheiden, damit es sie auf neues Audio anwenden kann.

So klingt es:

Wie BABY Audio schreibt, könnte KI „aufrichtig und mit einem legitimen Zweck verwendet“ die Zukunft der Musiktechnologie sein. Dies ist ein Bereich der Musikproduktion, in den KI perfekt passt, da das ultimative Ziel darin besteht, etwas Altes neu zu erstellen möglichst originalgetreu klingen – ob ein Mensch oder ein KI-System das besser kann, spielt keine Rolle viel.

Einerseits haben Sie Öffnen Sie die Jukebox von AI, um Musik ohne harte Arbeit zu produzieren, während auf der anderen Seite kreative KI-gestützte Emulatoren verbesserte Tools anbieten, mit denen etwas Originelles produziert werden kann.

Die KI hinter der Musikszene

Die KI-Technologie verändert die Art und Weise, wie wir Samples erkunden und neue Musik arrangieren, und bietet einige neue Fortschritte im Bereich der Emulatoren und Vokalsynthesizer. Allein die Lebendstammtrennung reicht aus, um zu sehen, wie diese Technologie uns von mühsamer Vorbereitungsarbeit befreien kann.

Gesangsklone und Chatbots zum Schreiben von Texten sind sensationell, aber die dauerhaften Vorteile der KI ergeben sich aus den KI-unterstützten Musikproduktionstools, die uns helfen, uns auf die kreative Seite der Dinge zu konzentrieren.