neural audio synthesis

Sztuczna inteligencja zaatakowała jazz

Jazz, który jestem symbolem muzyki prowadzi do rozwoju w muzycznej sferze AI, przy pomocy technologii neural audio synthesis.

Wyobraź sobie koncert jazzowy, podczas którego saksofonista improwizuje z perkusistą, a trzecim członkiem zespołu jest sztuczna inteligencja. Dzięki technologii neural audio synthesis (NAS) artyści mogą dziś grać wspólnie z AI w czasie rzeczywistym, tworząc muzykę tak świeżą i nieprzewidywalną, jak sam jazz. Właśnie w taki sposób powstał album Latent Imprints, nowy projekt trio Sveið, z udziałem dr. Federico Reubena z University of York.

Dr. Reuben określający się mianem „improwizatora laptopowego” nie korzysta z AI jako automatu do generowania dźwięków, ale jako aktywny, twórczy element zespołu. Systemy NAS analizują dźwięki w czasie rzeczywistym i reagują na nie, generując nowe brzmienia. To nie playback ani zaprogramowany loop. To dialog między człowiekiem, a maszyną. Jak tłumaczy badacz, „to proces współtworzenia, w którym AI uczy się od muzyków, a muzycy odpowiadają na reakcje AI”.

Jedną z technik NAS, która budzi szczególne emocje, jest timbre transfer. Dzięki niej możliwe jest przekształcanie dźwięków jednego źródła w charakter innego np. grając na perkusji, można wygenerować dźwięki przypominające beatbox lub wokal. Efektem jest hipnotyzująca, niemal nie do przewidzenia faktura dźwięku, w której zacierają się granice między człowiekiem, a maszyną.

Choć projekt Sveið działa na pograniczu free jazzu i eksperymentu, konsekwencje mogą sięgać daleko poza niszowe sceny. Współpraca Reubena z profesor Franziską Schroeder z Queen’s University w Belfaście zakłada stworzenie interfejsów NAS, które reagują nie tylko na dźwięk, ale też oddech, dotyk, ruch czy sygnały biologiczne. To oznacza, że muzyk może grać „całym ciałem”, współtworząc z AI muzykę w sposób niemal fizjologiczny.

Podobne próby można już zaobserwować na innych polach. Artystka Holly Herndon stworzyła kilka lat temu Spawn, AI-trenera wokalnego, uczącego się z próbek jej głosu i generującego „współśpiew” z artystką na koncertach. Z kolei niemiecki DJ i producent Richie Hawtin korzysta z AI do „reaktywnego miksowania” muzyki techno w czasie rzeczywistym. Coraz częściej mówimy więc nie o sztucznej inteligencji zamiast, ale razem z artystą.

Nie brakuje jednak głosów krytycznych. Elton John i inni muzycy apelują o ostrzejsze regulacje w zakresie wykorzystania AI w przemyśle muzycznym, obawiając się komercjalizacji i plagiatów. Słusznie, bo wiele modeli AI uczy się na bazie komercyjnych utworów, często bez zgody ich twórców. Reuben i jego zespół próbują przeciwdziałać temu trendowi m.in. poprzez projekt Lotus Code, w którym tworzą nowe zbiory danych we współpracy z japońskimi muzykami. Celem jest zróżnicowanie estetyczne AI i ochrona przed dominacją zachodniego, komercyjnego brzmienia.

Wszystko prowadzi do jednego wniosku. Neural audio synthesis może zrewolucijonizować muzykę, tak jak sampling w latach 80. dał początek hip-hopowi, tak NAS może otworzyć drzwi do zupełnie nowych gatunków i form ekspresji. Nie chodzi tu o zastępowanie muzyków, ale o poszerzenie ich możliwości. Wejście w przestrzeń, w której granice instrumentu, ciała i technologii zaczynają się zacierać.

W dzisiejszym świecie muzyka staje się coraz bardziej techniczna i wykorzystuje coraz większą liczbę urządzeń starających się poprawić jakość dźwięków wprowadzanych na platformy streamingowe. Obecnie dochodzi do tego sztuczna inteligencja, która rozpycha się łokciami również po tej branży.

Szymon Ślubowski

SUBSKRYBUJ „GAZETĘ NA NIEDZIELĘ” Oferta ograniczona: subskrypcja bezpłatna do 30.04.2025.

Strona wykorzystuje pliki cookie w celach użytkowych oraz do monitorowania ruchu. Przeczytaj regulamin serwisu.

Zgadzam się