
Sztuczna inteligencja zaatakowała jazz
Jazz, który jestem symbolem muzyki prowadzi do rozwoju w muzycznej sferze AI, przy pomocy technologii neural audio synthesis.
Wyobraź sobie koncert jazzowy, podczas którego saksofonista improwizuje z perkusistą, a trzecim członkiem zespołu jest sztuczna inteligencja. Dzięki technologii neural audio synthesis (NAS) artyści mogą dziś grać wspólnie z AI w czasie rzeczywistym, tworząc muzykę tak świeżą i nieprzewidywalną, jak sam jazz. Właśnie w taki sposób powstał album Latent Imprints, nowy projekt trio Sveið, z udziałem dr. Federico Reubena z University of York.
Dr. Reuben określający się mianem „improwizatora laptopowego” nie korzysta z AI jako automatu do generowania dźwięków, ale jako aktywny, twórczy element zespołu. Systemy NAS analizują dźwięki w czasie rzeczywistym i reagują na nie, generując nowe brzmienia. To nie playback ani zaprogramowany loop. To dialog między człowiekiem, a maszyną. Jak tłumaczy badacz, „to proces współtworzenia, w którym AI uczy się od muzyków, a muzycy odpowiadają na reakcje AI”.
Jedną z technik NAS, która budzi szczególne emocje, jest timbre transfer. Dzięki niej możliwe jest przekształcanie dźwięków jednego źródła w charakter innego np. grając na perkusji, można wygenerować dźwięki przypominające beatbox lub wokal. Efektem jest hipnotyzująca, niemal nie do przewidzenia faktura dźwięku, w której zacierają się granice między człowiekiem, a maszyną.
Choć projekt Sveið działa na pograniczu free jazzu i eksperymentu, konsekwencje mogą sięgać daleko poza niszowe sceny. Współpraca Reubena z profesor Franziską Schroeder z Queen’s University w Belfaście zakłada stworzenie interfejsów NAS, które reagują nie tylko na dźwięk, ale też oddech, dotyk, ruch czy sygnały biologiczne. To oznacza, że muzyk może grać „całym ciałem”, współtworząc z AI muzykę w sposób niemal fizjologiczny.
Podobne próby można już zaobserwować na innych polach. Artystka Holly Herndon stworzyła kilka lat temu Spawn, AI-trenera wokalnego, uczącego się z próbek jej głosu i generującego „współśpiew” z artystką na koncertach. Z kolei niemiecki DJ i producent Richie Hawtin korzysta z AI do „reaktywnego miksowania” muzyki techno w czasie rzeczywistym. Coraz częściej mówimy więc nie o sztucznej inteligencji zamiast, ale razem z artystą.
Nie brakuje jednak głosów krytycznych. Elton John i inni muzycy apelują o ostrzejsze regulacje w zakresie wykorzystania AI w przemyśle muzycznym, obawiając się komercjalizacji i plagiatów. Słusznie, bo wiele modeli AI uczy się na bazie komercyjnych utworów, często bez zgody ich twórców. Reuben i jego zespół próbują przeciwdziałać temu trendowi m.in. poprzez projekt Lotus Code, w którym tworzą nowe zbiory danych we współpracy z japońskimi muzykami. Celem jest zróżnicowanie estetyczne AI i ochrona przed dominacją zachodniego, komercyjnego brzmienia.
Wszystko prowadzi do jednego wniosku. Neural audio synthesis może zrewolucijonizować muzykę, tak jak sampling w latach 80. dał początek hip-hopowi, tak NAS może otworzyć drzwi do zupełnie nowych gatunków i form ekspresji. Nie chodzi tu o zastępowanie muzyków, ale o poszerzenie ich możliwości. Wejście w przestrzeń, w której granice instrumentu, ciała i technologii zaczynają się zacierać.
W dzisiejszym świecie muzyka staje się coraz bardziej techniczna i wykorzystuje coraz większą liczbę urządzeń starających się poprawić jakość dźwięków wprowadzanych na platformy streamingowe. Obecnie dochodzi do tego sztuczna inteligencja, która rozpycha się łokciami również po tej branży.
Szymon Ślubowski