Numer 9 / 2006

Stanisław Krupowicz – wywiad

Jan Topolski

Pisanie biogramów to sprawa co najmniej kłopotliwa, uważa Stanisław Krupowicz. Więc albo wspomina muczenie krów za oknem, albo mówi „Urodził się, studiował, dostał stypendia, jest wykonywany, mieszka w…”, albo snuje refleksje metodologiczne na temat samego gatunku. Więc zacznijmy tak: piękny drewniany dom. Z widokiem na staw gdzieś poniżej. Wioska, ale jeszcze Czechowice-Dziedzice. W domu wspaniała żona, Magdalena. I nowonarodzone dziecko, uśmiechnięty Filip. Wilczyca Dama i dwa koty,Markiz (albo Wampir) i  stara kotka Kukusia. Kominek. Drewno. Piwniczka z winami i nielichy barek. No i syntezator, komputer, głośniki. W końcu to przecież kompozytor.Urodził w 1952 w Grodnie; studiował w Warszawie (matematykę i kompozycję) i w Stanford (kompozycję, komputery i doktorat); dostał stypendia Fulbrighta, w IRCAM-ie, w Glasgow; jest wykonywany głównie w USA i Polsce (Warszawa i Wrocław), założyciel Studia Kompozycji Komputerowej i twórca festiwalu Musica Electronica Nova; mieszka w pięknym, drewnianym domu…

Jakie kryteria musi spełniać muzyka, by była dobra?

Kluczowy jest dla mnie moment zachłyśnięcia się, podniecenia, zafascynowania, ta chwila emocjonalna, kiedy ciarki przechodzą po plecach. Dopiero później mogę się zastanawiać nad przyczyną takiej reakcji oraz próbować ją zwerbalizować. Czasem pierwszy odruch jest mylący, są rzeczy, które dostrzega się dopiero przy którymś z kolei spotkaniu z utworem muzycznym. To prawie jak z miłością. Ale przede wszystkim: ja nie lubię się nudzić na koncercie. Wiem, że tak formułowana ocena bywa czasem niesprawiedliwa dla muzyki czy kompozytora, bo może wynikać z mego np. złego samopoczucia. Do pewnego stopnia chodzi też o przewidywalność: jeśli utwór jest całkowicie przewidywalny, to staje się nudny, ale i odwrotnie, jeśli jest nieprzewidywalny, chaotyczny, to też. Znalezienie równowagi między utrzymywaniem zainteresowania słuchacza, jego stałym zaskakiwaniem a wrzuceniem go w sytuację skrajnie amorficzną i złożoną jest bardzo trudne. Dobry przykład stanowi tu estetyka klasycystyczna, gdzie – mowa o kompozytorach średniej klasy – znając dwa tematy formy sonatowej, łatwo przewidzieć, co się wydarzy. Jednak w przypadku twórców bardzo dobrych nie jest to już możliwe, np. wolne części utworów Mozarta są pełne zaskakujących pomysłów harmonicznych. Działa wtedy ów element zaskoczenia: czuję już kadencję, oczekuję toniki czy dominanty, a tu – coś zupełnie innego.

Czym jest dla Pana muzyka elektroakustyczna?

Na początku zafascynowały mnie jej możliwości barwowe – takie, których tradycyjne instrumentarium nie dawało (choć można by wskazać w latach 60. na analogie między poszukiwaniami sonorystycznymi Pendereckiego i Serockiego a ówczesną muzyką elektroakustyczną). Drugą sprawą, jaka mnie wówczas interesowała, był problem muzyki algorytmicznej, czyli sformalizowanie procesów kompozytorskich. Myślałem również o tzw. sztucznej inteligencji – symulowaniu sposobu myślenia kompozytora i próbach ujęcia tego algorytmicznie. Takich programów napisałem wówczas kilka, o różnym stopniu otwartości i dowolności.

Jednak można sobie wyobrazić, że w działaniach algorytmizujących używa się komputera tylko na etapie prekompozycji, a rezultat rozpisuje się później na tradycyjne obsady (jak robił to często Xenakis). Czy w takim razie medium elektroakustyczne wpływa jakoś na kierunek czy wynik Pańskich poszukiwań?

To dobre wrażenie; powstało wiele udanych realizacji takiego podejścia. Zwykle bywa jednak tak, że skoro już usiedliśmy do komputera, aby zsyntezować kilka ciekawych dźwięków, to powstaje pokusa, by późniejsze ich porządkowanie powierzyć w jakiejś mierze komputerowi. I w większości kompozycji komputerowych ten element algorytmiczności jest obecny, nawet jeśli polega to tylko na oddaniu pewnych decyzji przypadkowi. Z drugiej strony, można sobie wyobrazić użycie maszyny jedynie do montażu gotowych próbek, jak w muzyce konkretnej czy kolażu. Ta ostatnia technika jest w sposób oczywisty bardzo komputerowa, bo łatwa w realizacji: kiedyś trzeba było ciąć i montować dużo partytur i taśm.

Czy utwory algorytmiczne, które zrealizował Pan na komputerze, byłyby do pomyślenia czysto akustycznie, na instrumentach?

Niektóre tak, ale nie wszystkie. Na przykład w Tako rzecze Bosch jest pewien klawesynawy fragment w stylu barokawym, który „improwizuje” komputer wedle trzech reguł (swoją drogą, byłem bardzo zaskoczony, że tak mało informacji potrzebne jest komputerowi, aby zrealizowana przez niego sugestia baroku była tak wyrazista): pierwszą z nich jest plan tonacji (tonika-dominanta-tonika), drugą, postulat dwugłosowej faktury, która uwzględnia rejestry i ograniczenia manualne klawesynisty; trzecią natomiast jest użycie kilku typowych motywów rytmicznych(śpiewa). Kontrapunkt jest oczywiście całkowicie niepoprawny i pełen błędów, gdyż stworzony został przez generator liczb losowych. Ale gdybym te zasady zadał ludziom-improwizatorom, niektórzy w ogóle tego by nie zagrali. Ci z kolei, którzy dobrze się czują w improwizacji w stylu barokowym, zagraliby wedle wszystkich zasad z epoki, zbyt porządnie – maszyna zaś zrobiła to tak, jak ją zaprogramowałem, ani więcej, ani mniej. Muzyk zawsze by coś dodał lub ujął. Nie mówię już o kwestiach bardzo szybkich temp czy skomplikowanych podziałów rytmicznych, w przypadku których komputer czy disklavier (fortepian MIDI) jest jedynym bezbłędnym wykonawcą; może też być realizatorem „niemożliwych” utworów, choćby na 18 rąk; przy fortepianie nie byłoby nawet miejsca dla tylu pianistów. To oczywiście przypadki ekstremalne i nie zawsze najciekawsze.

Czy barwa ciągle jest dla Pana ważna?

Oczywiście, zwłaszcza w utworach elektroakustycznych. Czasem jednak również w instrumentalnych, gdzie przydaje się całe doświadczenie sonoryzmu, który podpowiada różne interesujące rozwiązania instrumentacyjne, sposoby podkolorowywania itp. Komputerowa synteza dźwięku zaczynała się, jak wszystko zazwyczaj, dość marnie, to były bardzo naiwne i prymitywne brzmienia. W latach sześćdziesiątych w Bell Laboratory AT&T pojawił się Jean-Claude Risset i stworzył w programie Maxa Mathewsa MUSIC V swój Wstępny katalog dźwięków zsyntezowanych przez komputer (Introductory Catalogue of Computer Synthesized Sounds, 1969) – pokazał, że można świadomie syntezować od podstaw znane dźwięki. Według mnie przełom, która spowodowała ta publikacja, nie polegał na tym, że komputer zaczynał udawać klarnet, tylko że w ogóle da się takie brzmienia przy pomocy komputera zbudować. Metodą prób i błędów potrafimy się przybliżyć do rozmaitych wyobrażanych barw, co jest niezwykle stymulujące. Kiedyś może nawet było bardziej, bo człowieka satysfakcjonowało mniej… Oczywiście słuchacz nie jest zainteresowany tym, jakiej dokładnie syntezy użył kompozytor, aby uzyskać takie a nie inne brzmienia, ale dla kogoś o skłonnościach analitycznych (m.in. dla mnie) wyzwaniem było już osiągnięcie pewnego rezultatu metodą przez wszystkich odradzaną. Jak rozwiązanie zadania matematycznego. To frajda zupełnie subiektywna, już trochę poza muzyką. Pisanie czy używanie programów bywa prawdziwą przygodą intelektualną, wielce podniecającą i zajmującą samą w sobie.

Słuchając Pańskiej muzyki elektroakustycznej, jak Alcoforado czy A Lighter Shade of Grey, można odnieść wrażenie ciągłej w niej obecności pewnych kategorii muzyki akustycznej, takich jak linie melodyczne, rejestry czy warstwy, a przede wszystkim barwy, które są na instrumentalnych jawnie wzorowane. Oczywiście nigdy dosłownie ich nie przypominają, ale chodzi tu o samą strukturę, np. używanie mniej lub bardziej regularnych widm harmonicznych oraz obwiedni. Czy też Pan tak to widzi?

W dużej mierze tak. Zaczynając od barw, dostrzec można wiele podobieństw do instrumentów, ale to jest chyba problem subiektywnej percepcji: jak daleko należy odejść od „oryginału”, żeby podobieństwo nie było irytujące – dla każdego granica ta przebiega gdzie indziej. Tak jest w przypadku użycia materiału konkretnego jako materiału wyjściowego. Z drugiej strony, jeśli decyduję się na dźwięki syntetyczne, to czasem mam potrzebę aluzji do znanych skądinąd dźwięków, też instrumentalnych. Stopień tej aluzyjności jest właśnie zasadniczą decyzją w procesie tworzenia materiału dla utworu.

Zazwyczaj do muzyki elektroakustycznej podchodzę analogicznie jak do instrumentalnej: myślę o pewnej fakturze, harmonii, melodyce, czasie, nawet jeśli są one algortymizowalne. Czasem robię to nawet w sposób ostentacyjny – po to, by w następnej sekwencji użyć czegoś, co się zupełnie w tych kategoriach nie da opisać, np. szumu.

Jeśli przyjmiemy, że muzykę elektroakustyczną można tworzyć niejako z dwóch krańców – albo wychodząc od barwy instrumentalnej, którą zniekształcamy, albo od szumu, który się filtruje – to czy nie preferuje Pan jednak wyraźnie tego pierwszego?

Być może, chociaż w moich utworach zdarza się wiele fragmentów zupełnie nieanalizowalnych wysokościowo, jak bliżej nieokreślone pasma wysokie, niskie, szumy, zgrzyty itp. Na przykład, wA Lighter Shade of Grey po kadencji skrzypiec mamy glissanda zwykłych tonów prostych. Stopniowo jest ich coraz więcej i zaczynają się zagęszczać, dając w konsekwencji typowe syntezatorowe brzmienie. Początkowo trudno tu mówić o jakościach melodyczno-harmonicznych; w miarę trwania utworu te elementy nabierają znaczenia. Z kolei w Wariacjach pożegnalnych na temat Mozarta szum spełnia rolę destrukcyjną, posiada wymiar niszczący, zabijający wszystko, jak refren tnie epizody kwartetu smyczkowego i organizuje formę. W percepcji szumów, szmerów czy zgrzytów kluczowe staje się nasze doświadczenie. Mamy parę z grubsza ciosanych kategorii – że coś jest podobnie do odkurzacza albo potoku – i jest to w jakiejś mierze konsekwencją naszego osłuchania, przyzwyczajeń czy edukacji muzycznej.

Mam jednak takie intuicyjne wyobrażenie, że elektronika więcej ciekawych możliwości oferuje właśnie w obszarze szumów, które można różnicować, zmieniać, dynamizować itd…

Uważam, że z szumów można zrobić interesujący utwór pod warunkiem, że będzie on krótki. Jeśli chce się stworzyć coś dłuższego niż 10, 12 minut, trzeba, według mnie, odnieść się do innego obszaru percepcji. Przypomina mi się tu rozmowa z Pendereckim, kiedy go pytałem, dlaczego wcześniej pisał tak zwarte i krótkie utwory, a obecnie interesują go tylko duże formy. „Tamtą techniką dało się tworzyć tylko takie – odpowiedział – wyobraża Pan sobie 40-minutoweFluorescencje?” Coś w tym jest. Są może tacy, którzy godzinami lubią słuchać szumów. Mnie one prędzej czy później nudzą, nie mogę więc robić własnych utworów tylko z nich. Oczywiście może być tak, że inni się nudzą, a ja nie – ale przecież nie sytuacja odwrotna! (śmieje się)

W jaki sposób organizuje Pan zwykle materiał dźwiękowy? Jaką formę uważa Pan za najdoskonalszą?

Organizacją materiału zajmuję się najczęściej na samym końcu. Na początku bowiem zakładam sobie pewien ogólny szkielet formalny, taki „kanon z pourywanymi łebkami.”[1] Materiał wyobrażam sobie bardzo ogólnie – „gęsto”, „rzadko”, „wysoko”, „nisko” itp. Inaczej bywa podczas pracy w studiu komputerowym: tu często już na początku pracy dysponuje się jakimś materiałem – nagranym lub wygenerowanym – i on prowokuje do pewnego szczególnego go przetworzenia a później złożenia go w większą całość. Forma jest wtedy często wymuszana niejako przez materiał, co nie znaczy, że nie można jej dowolnie kształtować. Przykładem niech będzie znowu A Lighter Shade of Grey. Za punkt wyjścia służy tu 4-minutowe nagranie syntezatora (z innego mojego utworu), w którym zawarte jest wszystko: harmonia, melodyka itp. Wziąłem następnie filtry grzebieniowe o różnej grubości i po prostu przeczesywałem ten ciągle powtarzany materiał, zmieniając rozstaw „ząbków” – od małych przerw między nimi (kiedy ostały się tylko niektóre sinusoidy) po bardzo szerokie (kiedy rezultat był bliski oryginałowi. Później dodałem partię skrzypiec opierającą się częściowo na dźwiękach wyekstraktowanych z materiału, a częściowo z nimi korespondujących. Z chwilą gdy zdecydowałem się na ten konkretny materiał i na pomysł filtrowania, cały utwór już był właściwie gotowy.

Przypomina to „wyłanianie się z mgły”, jak by to powiedzieli nienasyceni w metaforach niektórzy radiowi redaktorzy. A więc najpierw jakieś majaki, zarysy, a potem samo wynurzanie się, wyostrzanie się kształtów. Dobrym przykładem wykorzystania podobnej koncepcji jestPartita IVSzymańskiego, gdzie na końcu, po długim procesie „wyostrzania się obrazu” okazuje się, że chodzi w istocie o rozwiązanie kwarty na tercję (śmieje się). Ta sama ogólna koncepcja zrealizowana została przy pomocy filtra grzebieniowego. Podobnie potraktowałem partię wiolonczeli w Particie. Andrzej Bauer był nieco rozczarowany, gdy po raz pierwszy usłyszał, co komputer w czasie realnym zrobił z jego kunsztownym, perfekcyjnym wykonaniem partii wiolonczeli.

Czym jest algorytm w Pana twórczości i czemu go Pan używa?

Wszyscy jesteśmy przecież algorytmikami. To przekonanie wywodzi się z koncepcji człowieka teleologicznego; człowieka, który ma świadomość celu i znajduje dla jego realizacji odpowiednie metody. W naszym życiu codziennym bez przerwy posługujemy się algorytmami, nawet parząc kawę. Zwykle nie przywiązujemy do tego wagi i często nie jesteśmy tego świadomi. Wszyscy kompozytorzy – bez wyjątku, włącznie z tymi, co to siadają i w boskim natchnieniu improwizują – też posługują się algorytmami. Niektórzy zdają sobie z tego sprawę, inni się hipokrytycznie nie przyznają, zaś jeszcze inni w ogóle o tym nie wiedzą. Są kompozytorzy, którzy nie wyobrażają sobie nawet, że można pisać inaczej, niż oni zwykle piszą; mimo to myślą, iż są wolni. A przecież toż to tylko ich rutyna, ich metoda komponowania, ich algorytm. Jeśli klasycznie wykształcony pianista usiądzie do fortepianu i zagra metafizyczną improwizację, to i tak będzie się posługiwał pasażami i konfiguracjami dźwięków, które ma w palcach, czyli swoimi algorytmami.

Oczywiście stwierdzenie „wszyscy jesteśmy algorytmikami” brzmi efektownie, ale – jak większość zbyt ogólnych zdań – jest zagrożone atakiem zwanym exemplum in contrarium. (śmieje się). Myśląc tak, można popaść w skrajny pogląd, w rodzaju tych, jakie wyznają akustycy nagraniowi, którzy wierzą, iż cały świat składa się z filtrów. Nie sposób z nimi polemizować, w końcu powietrze, ściana, wszystko jest jakimś filtrem. Jeśli ktoś wyobraża sobie pewną abstrakcyjną konstrukcję, niekoniecznie muzyczną, to w momencie próby jej opisania, a na pewno w czasie jej realizacji musi pojawić się metoda, tj. algorytm. Z praktycznych względów pojęcie muzyki algorytmicznej ograniczyłbym do takiej, w której mamy do czynienia zarówno z uświadomieniem sobie tego faktu, jak i formalnym opisem metody kompozytorskiej. Innymi słowy, muzyka algorytmiczna polega na skonstruowaniu raczej mechanizmu produkującego dźwięki i ich wzajemne relacje, niż samych dźwięków i ich konfiguracji. Ja nie umiem inaczej funkcjonować. To dla mnie organiczna konieczność, jak oddychanie.

Jak Pan postępuje zatem w sytuacji, kiedy ma się wyobrażenie utworu, wybiera się metodę czy algorytm, i pod koniec okazuje się nagle, że „coś nie brzmi” – trzyma się Pan algorytmu czy brzmienia?

Ostatecznym kryterium jest zawsze to, co się słyszy; nie ma takich reguł, których nie wolno byłoby zmienić. Często tak zresztą robię, modyfikuję je na bieżąco podczas komponowania. Mając komputer, można szybko weryfikować, sprawdzać różne możliwości i konfiguracje dźwięków oraz ich dźwiękowe rezultaty. Czasem będzie to wyglądać jak wyjątek od reguły albo wręcz niedbalstwo, ale zdarzają się i niezaplanowane odstępstwa, jak pominięcie jakichś dźwięków, co udało się wyśledzić p. Annie Siemińskiej w analizie Pewnego szczególnego przypadku… (śmieje się)

Jakie znaczenie ma dla słuchacza użycie algorytmu?

Nie musi mieć żadnego i zazwyczaj nie ma. Nie zależy mi na tym, by słuchacz szukał w moich utworach algorytmów. Gdyby były one łatwe do rozszyfrowania, to bym się raczej martwił, bo muzyka nie powinna być przewidywalna. Najbardziej lubię – także z własnego doświadczenia jako słuchacza – kiedy odbiorca wie, że coś tam w utworze jest, ale nie wie do końca co. Podejrzewa jakiś pomysł, lecz nie całkiem go rozumie. To intryguje, zaostrza apetyt na słuchanie, stale aktywuje uwagę. A przecież o to właśnie chodzi, nie wolno muzyką nudzić. Ile wart jest piękny algorytm, jeśli muzyka nudna?

Stąd mój amatorski może bunt przeciwko notom programowym, w których kompozytorzy bardzo często opisują, jakich oni to transformacji użyli, jakich programów, jakich metod – i co z tego, jeśli muzyka niedobra? Kompozytor pada czasem ofiarą nadmiaru adrenaliny wydzielającej się podczas procesu komponowania i rozwiązywania technicznych zagadnień: jest tak zaabsorbowany swoją pracą, że środki stają się ważniejsze od celu i im poświęca noty programowe. Inna sprawa, że o rezultacie swojej pracy pisać niełatwo, a kompozytorowi nawet niezręcznie.

Czy matematykę (którą Pan kiedyś ukończył) wykorzystuje Pan w swoich utworach tylko w sposób techniczny, czy też ma ona jakieś znaczenie metafizyczne?

Jest to tylko narzędzie, którego nie powinno się fetyszyzować. Z nutką rozbawienia czytam komentarze kompozytorskie świadczące o fascynacji kwadratami magicznymi, kabalistycznymi wyliczeniami, ciągami Fibonacciego. Liczby należy traktować tak, jak na to zasługują, w zależności od ich użyteczności, nie obdarzając ich jakimiś nadzwyczajnymi własnościami. Tę fascynację metafizycznym aspektem liczb dostrzegam u różnych neofitów, którzy z matematyką zetknęli się późno, np. przez muzykę, i dopiero wtedy zauważyli, że liczby mogą być użyteczne w opisie niebanalnych rozwiązań kompozytorskich. A ciągi Fibonacciego to jakaś światowa histeria: stowarzyszenia, bractwa ezoteryczne… Nie zdziwiłbym się, gdyby jakiś Brown „odkrył“, że w sprawę są zamieszani templariusze i Opus Dei. Kiedy jednak poprosi się tych ludzi o zrobienie złotego podziału cyrklem i linijką – nie potrafią. (śmieje się)

Jednak Pańskie wykształcenie ścisłe wydaje się ważne dla muzyki…

Możliwe, bo matematyka wymaga dyscypliny myślowej, umiejętności posługiwania się abstrakcyjnymi symbolami, jest nauką niesłychanie dyscyplinującą umysł. Trzeba mieć zdolności zarówno analityczne, jak i syntetyczne: umieć problem rozebrać na części i złożyć go w nową całość. I to na pewno przydaje się w muzyce. Nawet jeśli problem jest mgliście zarysowany, to krążąc wokół niego, rozkładam go na coraz mniejsze moduły, i gdy dojdę już do szczegółu, to składam wszystko z powrotem i powstaje kompozycja. I znowu przykład A Lighter Shade of Grey: dzięki zastosowanym tam filtrom uzyskuję kompletny obraz wyjściowego materiału, w wyniku tej analizy wiem co, gdzie, kiedy i jak drga. Mogę później z tą informacją zrobić, co chcę, złożyć tak, jak było lub składając pozamieniać ze sobą różne parametry np. amplitudy składowych i ich obwiednie… We wspomnianym utworze złożyłem składowe tak jak w oryginale. Był to więc przypadek techniki syntezy znanej pod nazwą „synteza poprzez analizę“. Ale może w następnym utworze pomieszam trochę dane opisujące spektrum…

I to będzie Ciemniejszy odcień szarości

Może i ciemniejszy (śmieje się). Mam te wszystkie dane i mogę do nich w każdej chwili wrócić!

A proporcje czynników intelektualnych i zmysłowych w Pańskiej muzyce – jaki jest stosunek tych form i algorytmów do żywego brzmienia czy muzykowania?

Element emocjonalny jest bardzo ważny. Jeśli podczas pracy w studio słyszy się coś, co sprawia, że włosy stają dęba, choćby na dłoni czy ramieniu (śmieje się), to wiadomo, że to jest to. Ostatecznym kryterium jest dla mnie zawsze słuch. Co do muzykowania i improwizacji, to ostatnio uprawiam je niezwykle rzadko, ale uważam, że można dojść tą drogą do fascynujących rezultatów. Jest to takie komponowanie w czasie rzeczywistym, choć tak być nie musi. Jeśli przypomnimy sobie zjawisko free jazzu lat 60. – wówczas bardziej awangardowe od czegokolwiek z obszaru muzyki klasycznej – było ono w swych założeniach zbyt free; powstały w efekcie chaos mógł skupić uwagę słuchacza na jakieś dziesięć minut, później zwykle było, przynajmniej dla mnie, nudno. Brakowało porządkującej idei. Uważam, że każda improwizacja powinna być trochę skomponowana, w przeciwnym razie powstaje bałagan.

Potrzeba grania, którą daje zaobserwować u wielu młodych kompozytorów, zwykle połączona z elementami teatru czy multimediami, taka sztuka synkretyczna dla ubogich, to choroba wieku młodzieńczego którą się przechodzi i do której się już nie wraca. Kompozytor rzadko jest w stanie ogarnąć wszystko, znać się na wszystkich sztukach, dlatego też teatr instrumentalny zwykle zdawał mi się trochę żałosny i nieudolny. Do wspólnego grania trzeba mieć odpowiednie warunki: czas, grupę podobnie myślących ludzi. I tak się kilka razy w moim życiu zdarzyło. Na przykład Tonus Finalis Ensemble[2], choć od początku był efemerydą (istniał nieco ponad rok) skupiał ludzi o podobnych poglądach na komputerowe live electronics. Z kolei Niezależne Studio Muzyki Elektroaukustycznej, działające w latach 1982-84, było konsekwencją wydarzeń politycznych i związanym z nimi bojkotem państwowych instytucji muzycznych. Koncertowaliśmy w różnych dziwnych miejscach. Nie był zespół jazzowy, choć improwizacja była w nim zasadą. Naszym celem była penetracja pewnych interesujących nas obszarów, co odbywało się rozmaity sposób, także za pomocą różnych haseł do improwizacji. Mój pomysł polegał na wymyśleniu dyrygenta-kompozytora, który stawał się takim „kompozytorem na żywo”, formującym muzykę graną swobodnie przez członków składu… Były i pomysły gastronomiczne Mietka [Litwińskiego], w których stół i zgromadzone na nim warzywa były amplifikowane, a ugryzienie marchewki stawało się wybuchem wulkanu, ale też dogrywaliśmy muzykę do taśmy Under the Plain Tree…Pawła [Szymańskiego].

Przechodząc do live electronics, którego był Pan – np. w Koncercie saksofonowym – jednym z polskich pionierów: czy widzi Pan to jako utopię czy spełniony projekt?

Dwadzieścia lat temu komputerowe live electronics może było utopią, ale teraz już tak nie jest. Dziś to po prostu oczywistość, a utwór na taśmę jest anachronizmem. Istnieje jednakowoż grupa kompozytorów i zwolenników tzw. muzyki akuzmatycznej, którzy uważają, że tylko muzyka na taśmę daje pełne możliwości realizacji kunsztownie i precyzyjnie zaplanowanej przestrzennej projekcji dźwięku przy użyciu kilkunastu lub nawet kilkudziesięciu głośników. Mają oni swoje stowarzyszenia, festiwale i swoją publiczność. Inaczej sprawy się mają z muzyczną sztuczną inteligencją. W latach 70. i 80. panowała w informatyce prawdziwa euforia, myślano o uczącym się komputerze, o sieciach neuronowych symulujących pracę mózgu człowieka. Znane są próby wykorzystania tych pomysłów w muzyce (np. Tod Machover), ale nie znam przekonujących ich realizacji. Narzędzia już są, trzeba je użyć. Chodzi mi ta idea po głowie od dawna, trzeba będzie spróbować… Są już utwory, w których komputer, znając partyturę, dogrywa swoją partię na żywo, ale projekt inteligentnego sztucznego wykonawcy ciągle jest niezrealizowany.

Jeśli pomyślimy o początkach muzyki elektroakustycznej, o studiu kolońskim, to dźwięki te wydają się nam dziś płaskie, są, jak Pan kiedyś powiedział, niczym schulzowskie manekiny prawdziwych brzmień. Czy muzyka komputerowa z racji samego medium nie starzeje się najszybciej i czy za 40 lat barwy Koncertu saksofonowego nie będą się nam wydawały podobnie anachroniczne?

Już teraz są, choć ja jestem do nich przywiązany. Można by było je nieco podrasować, poprawić ich techniczną jakość, ale utwór napisałbym dziś podobnie. Inną sprawą jest kwestia jego wykonania, do którego trzeba byłoby sprowadzać syntezatory z jakichś muzeów. Istnieje też możliwość symulacji brzmienia Yamahy na współczesnym komputerze, gdyż rozwój informatyki ma charakter kumulatywny i asymiluje poprzednie dokonania. Inna jest kwestia utworów na taśmę; są one w zasadzie zamknięte, co najwyżej można je nieco podretuszować.

Starzenie się muzyki elektroakustycznej stanowi oczywisty problem – odczułem to dotkliwie po wykonaniu Déserts Varèse’a podczas koncertu finałowego festiwalu Musica Electronica Nova. Pierwsze wrażenie: te puzony w ogóle się nie zestarzały, a taśmy nie da się słuchać! Im dalej sięgamy w przeszłość, tym wyraźniej widać przemożny wpływ technologii na warstwę brzmieniową, a nawet estetykę tej muzyki. Pewnych rzeczy nie dało się w tamtym czasie robić inaczej, inne zaś w ogóle nie były możliwe. Mimo to produkcje kolońskie, pokryte patyną lat, pozostają obecnie wyznacznikiem swojej epoki i mają specyficzny walor estetyczny, co powoduje, że nieudolność czy niemożność ówczesnych technologii staje się kwestią, którą można zignorować. Wydaje się, że dzisiejsza technologia jest bardziej otwarta i elastyczna, łatwiej się poddaje się woli kompozytora, ale nie wiem, czy dożyjemy takich czasów, kiedy instrument-komputer będzie się starzał tak wolno jak skrzypce.

Często używa Pan cytatów (z własnej i cudzej twórczości), stąd pytanie: na ile można sobie w takiej działalności pozwolić?

Uważam, że na cytowanie innych, zwłaszcza in crudo, w ogóle nie powinno się sobie pozwalać: to złodziejstwo i rzecz niedopuszczalna. Dlatego też kolaże, choć nieraz brzmieniowo bardzo ciekawe, są z powodów etycznych niedozwolone. Cały recycling jest barbarzyństwem, grandą i przestępstwem. Oczywiście nie mam nic przeciwko remiksom dokonywanym za zgodą twórcy, jak to robi np. Scanner. Ale jak się bierze za Vivaldiego czy Mozarta… Dziwię się, że w świecie, w którym nie można przecież bezkarnie zmienić, przerobić, złożyć na nowo katedry gotyckiej, brakuje ustaw chroniących zabytki kultury muzycznej – każdy może użyć muzyki Mozarta do reklamy podpasek.

Sam pozwoliłem sobie na parę cytatów, co sobie wyrzucam i jedyną okolicznością łagodzącą mógłby być fakt, iż zawsze były one zdeformowane, przetworzone. Ale to marne usprawiedliwienie. W końcu jeśli komuś naprawdę zależy na zacytowaniu Mozarta, to może przecież użyć pastiszu, pseudocytatu – osiągnie ten sam efekt: przywołanie czy kolażowe zderzenie pewnych idiomów, bez posłużenia się twórczością kompozytora, który leży w grobie (nie wiadomo nawet do końca, gdzie) i nie jest się w stanie w żaden sposób obronić.

Inną sprawą są wariacje. Jest to forma uświęcona tradycją i tak jej użyłem w moichWariacjach pożegnalnych na temat Mozarta. Tematem wariacji jest Menuet z Eine kleine Nachtmusik i potraktowałem go w nieco inny sposób niż zwykle tematy wariacji się traktuje – działałem w obszarze faktury bardziej niż tematu rozumianego jako melodia, i pozwalałem sobie na daleko idące deformacje oryginału. Np. trio brzmi tu jak katarynka, mimo że wszystkie nuty są oryginalne. Więc ten Mozart jest zdeformowany – i to jest dopiero granda! (śmieje się)

Przychodzi tu na myśl pewien kluczowy termin, który narodził się podczas burzliwej nocnej dyskusji z Pawłem Szymańskim: surkonwencjonalizm. Jak Pan to widzi po latach: czy to pomysł ciągle dla Pana aktualny i istotny?

Z początku koncepcja była dla mnie frapująca. Później zaczęto doklejać do niej różne inne znaczenia i doszedłem do wniosku, że coraz mniej mi po drodze z różnymi samozwańczymi surkonwencjonalistami. Przez chwilę nawet się zastanawiałem nad koncepcją surkonwecjanalnego surkonwencjonalizmu, czyli „metasurkonwencjonalizmu”, ale nie wiem jeszcze, na czym by to miało polegać (śmieje się). Mówiąc poważnie, ciągle jestem zdania, że muzyka jest w istocie sztuką kreowania kontekstów. One stanowią, co jest czym i jakiego nabiera znaczenia, same elementy są bowiem niczym. Postanowiłem wówczas ekstrapolować ową kontekstowość na większe struktury, jak np. bloki stylistyczne. Do gry kontekstami trzeba oczywiście historii, przeszłości – konwencja nie rodzi się z dnia na dzień, choć ideałem byłoby samodzielne stworzenie w trakcie utworu kilku na tyle przejrzystych i czytelnych konwencji, żeby ich zderzenie było zauważalne. W latach 80. spotykałem się z zarzutami: „ja to już gdzieś słyszałem”, na co odpowiadałem niezmiennie: „ale nie słyszałeś nigdy jednego obok drugiego: tego właśnie słuchaj”. Oczywiście technika kolażu jest czymś bardzo podobnym, ale ja staram się unikać dosłownego cytatu na rzecz aluzji do pewnej konwencji.

Na czym, Pana zdaniem, polega różnica między stosowaniem surkonwencji przez Pana i przez Pawła Szymańskiego?

Paweł wypowiadał się wielokrotnie wprost: dla niego to palimpsest. Przy tej okazji przywołuje on często metaforę z tzw. liniuszkiem, czyli zadrukowaną liniami tekturką, którą podkładało się pod kartkę zeszytu, żeby równo pisać. Najczęściej liniuszkiem jest kanon w stylu barokowym poddawany następnie różnym przekształceniom, w tym izometrycznym, tak przecież często używanymi przez kontrapunkcistów różnych epok. Ciekawe, że żaden z nich nie wpadł na pomysł posłużenia się obrotem (też izometria), a Paweł wpadł. Stąd w jego muzyce tak wiele glissand. U źródeł jego wyrafinowanej muzyki tkwią w istocie zazwyczaj bardzo proste pomysły.

W odróżnieniu od Pawła ja się palimpsestem nie posługuję, poza przypadkiem Pewnego szczególnego przypadku… czy, w jakimś stopniu, Fin de siècle. Moim pierwszym świadomie napisanym utworem surkonwencjonalnym jest chyba II Kwartet smyczkowy. Po raz pierwszy zastosowałem tam „pewien szczególny przypadek pewnego uogólnienia“ – tak chyba mógłbym nazwać proces myślowy, który doprowadził mnie do pomysłu na ten utwór. Inspiracją była tu koncepcja fenomenologicznej redukcji ejdetycznej, która postuluje poznanie istoty czegokolwiek poprzez odrzucanie tzw. cech powierzchniowych, tj. tych, bez których badane cokolwiek jest w dalszym ciągu tym cokolwiek. Zadałem sobie pytanie: co jest istotą trójdźwięku? I stosując husserlowską metodę odpowiedziałem: trój-brzmienie. I to jest właśnie to „pewne uogólnienie“. No dobrze, trójdźwięk jest trój-brzmieniem trzech dźwięków. A gdyby tak zamiast dźwięków skonstruować trój-brzmienie czegokolwiek innego, np. trzech różnych „muzyk“? I to jest właśnie ów „pewien szczególny przypadek“ zastosowany w Kwartecie smyczkowym, odmienny od innego szczególnego przypadku trój-brzmienia, a mianowicie współbrzmienia trzech dźwięków.

Czy w tej grze zastanymi konwencjami z zachowaniem do nich pewnego dystansu czuje się Pan postmodernistą?

Nie rezygnuję z nowości ani oryginalności, które realizuję poprzez zestawianie w zaskakujących kontekstach znanych elementów, podobnie jak Dali ukazywał rzeczy codziennego użytku w niezwykłej dla nich konfiguracji. W tym sensie surkonwencjonalizm jest muzycznym odpowiednikiem surrealizmu w malarstwie. Czy czuję się postmodernistą? Na wszelki wypadek powiem: nie, bo zbyt wiele znaczeń próbowano już temu terminowi nadać.

Czy jest Panu bliska postawa muzyki eksperymentalnej: prób stawiania zupełnie nowych pytań bez żadnych prognoz czy oczekiwań wobec odpowiedzi?

Oczywiście, że tak. Bez nich w ogóle nie umiem sobie wyobrazić muzyki. Eksperymenty są fascynujące, nawet jeśli czasem nieudane. Te, które sam przeprowadzałem, dotyczyły innych wymiarów kompozycji niż typowe dla lat 60. eksperymenty ze strukturami albo – zwłaszcza w Polsce – z barwą orkiestry. Moje atomy były wielkie, czasem tak duże, że mogłyby stanowić pokaźną część całego utworu. Spowodowane to zostało poszerzeniem perspektywy, innym punktem widzenia, obejmującym nie tylko nowe dźwięki czy barwy, ale całe ich konteksty. Dziś trudno już utrzymywać, że jedna idea (np. serializm) zbawi świat: źródła są wielorakie, wszystko jest dozwolone, pod warunkiem, że zrobi się z nich sensowny użytek. Kiedyś zakazana była kwinta czysta, w ramach ortodoksji à rebours. A przecież ważne jest tylko, jak jej użyjesz, czy ciekawie, dobrze…

Po wysłuchaniu wielu Pańskich utworów można nabrać przekonania, że muzykę traktuje Pan jako swego rodzaju intelektualną grę operującą konwencjami, idiomami, algorytmami, tworząc muzykę o muzyce. Pojawiają się jednak takie pozycje, jak Miserere i Oratorium na Boże Narodzenie, które działają chyba w innych rejestrach. Czy one wykraczają poza tamten model?

Są one faktycznie inne, bo nie operują ironią, na co nie mogłem i nie chciałem sobie w takich wypadkach pozwolić. Ale ciągle pozostają surkonwencjonalne i w tym nie różnią się od pozostałych. Jeśli sięga się po tekst taki jak Miserere – a zdarzają się w życiu człowieka takie momenty – to nie można sobie pozwolić nawet na cień ironii, choćby to miała być nawet autoironia.

 

Jednak czy muzyka pełni w tych dziełach tę samą rolę, co w innych?

 

Gdybyśmy wyabstrahowali ją ze wszystkich kontekstów, jak np. wykonanie w kościele – to tak, dokładnie tę samą. Ale tego zrobić się nie da, nawet jeśli tekst jest niezrozumiały. To, że to są utwory wokalne, powoduje, że muszą być inaczej napisane. Trzeba uwzględniać pewne ograniczenia głosu, żeby muzyka zabrzmiała dobrze i przekonująco. Może to powoduje, że te utwory są nieco inne.

Ale czy muzyka jest tam transcendentna i wskazuje na coś poza nią samą? Słuchając innych Pańskich dzieł, jesteśmy bowiem niemal pewni, że zazwyczaj pozostaje immanentna, jest skierowana na siebie.

Chyba nie. Tekst wskazuje, ale sama muzyka – nie. Gdybyśmy sobie wyobrazili, że to są same fonemy, albo zastąpili te słowa innymi, to muzyka by się nie zmieniła. Choć nie wiem, czy nie napisałbym jej inaczej, gdybym nie miał psalmu przed oczami. Poza tym tekst ma swoją strukturę, prozodię, potencjał retoryczny czy walor sonorystyczny i one wpływają na muzykę. Bywa też i odwrotnie, np. w przypadku wstępnego etapu pracy nad moim utworem Komentarzna chór a cappella poprosiłem zaprzyjaźnioną poetkę, Marytkę Książkiewicz, o napisanie wiersza mającego konkretne właściwości formalne – i ona go napisała.

Dopatrywanie się w muzyce do tekstów lirycznych czy religijnych jakiegoś innego wymiaru pozostaje tylko naszą projekcją. Nawiązując w tych utworach do pewnych koncepcji czy idiomów historycznych, nie podejmuję jednocześnie tradycji retoryki czy muzyki transcendentnej. Dla mnie muzyka jest zawsze pewną konstrukcją dźwiękową. Wszystko inne nie ma większego znaczenia.

Który z polskich kompozytorów mógłby być dla Pana mistrzem? Za granicą łatwiej znaleźć takie postaci: Iannis  Xenakis, John Chowning, Lejaren Hiller – ale w kraju?

Muzyka wielu twórców jest dla mnie ciekawa i fascynująca, ale to tyle. Nie mam poczucia, że z którymś z wymienionych kompozytorów jestem szczególnie związany estetycznie, nie czuję się niczyim spadkobiercą ani kontynuatorem. Oczywiście pozostaję dozgonnym dłużnikiem Włodzimierza Kotońskiego, mego wspaniałego nauczyciela, który wielu rzeczy mnie nauczył.

Wymienił Pan tu kilku kompozytorów, z którymi nie łączą mnie żadne mocne więzi artystyczne, choć ich działaniom kompozytorskim i naukowym wiele zawdzięczam. Hillerowi koncepcję muzyki komponowanej przez komputer. Chowning był ważnym nauczycielem i człowiekiem niezwykle inspirującym. Każde spotkanie z nim, wspólna rozmowa, picie wina było fascynującym przeżyciem. Uwielbiałem go i wiele czasu spędzaliśmy razem, świetnie się rozumieliśmy. Wiele mu zawdzięczam.

Z Xenakisem czuję silniejszą więź artystyczną; dzięki niemu uświadomiłem sobie, że często nieważne jest trzy, pięć dźwięków, lecz sto pięćdziesiąt. Duża ilość dźwięków tworzy nową jakość, jak w Wariacjach…, gdzie są całe segmenty dźwięków byle jakich, ale jest ich dużo. Wtedy nieważne jest przecież, czy to fisdis, czy pis – ważna jest ich zagęszczenie, ruch, makrostruktura drobnoustrojów…

W pańskiej biografii zwraca uwagę długi pobyt zagraniczny (1983-92): kolejne stypendia, ośrodki, studia. Jednak po tym okresie swobodnego dostępu do najnowocześniejszych technologii oraz kompetentnych przewodników nastąpiła dość zaskakująca decyzja o powrocie. Jakie były jej motywy?

Motywy były zasadniczo dwa: po pierwsze, szeroko rozumiane okoliczności polityczne. Wydawało mi się, że jest już na tyle dobrze, iż można wrócić, w coś się włączyć i coś sensownego zrobić w sprawach, którymi się zajmowałem (Związek Kompozytorów Polskich, „Warszawska Jesień” itp.) – to powód bardziej szlachetny. Drugim, egoistycznym, było pewne znudzenie tym całym supersprzętem, miałem już dość komputerów i muzyki elektroakustycznej, chciałem pisać na orkiestrę. Proszę zwrócić uwagę, że przez dziesięć lat tj. od roku 1992 do 2002 (Partita na wiolonczelę i komputer) nie napisałem żadnego utworu elektroakustycznego (pomijam w dużej mierze improwizowane wspólne przedsięwzięcia z rzeźbiarzem Ryszardem Piegzą). Ale uczyłem muzyki komputerowej.

Oczywiście, Stanford i Kalifornia to wspaniałe miejsca i dobrze się tam czułem, zaś dla kogoś, kto chciał się wówczas zajmować muzyką komputerową pobyt tam był w zasadzie koniecznością. Dziś każdy może mieć studio w domu, nie ma tego problemu. A przecież w roku 1979, kiedy komponowałem Ardo 4031 z użyciem komputera Odra 1304, trzeba było oszukiwać, bo obliczenia szły na koszt Politechniki Warszawskiej – wszystko udało się tylko dzięki mojemu znajomemu, który zgodził się udostępnić część przysługującego mu czasu komputerowego na generowanie mojej partytury. Wydaje mi się, że każdy młody kompozytor powinien wyjechać na co najmniej rok do innego ośrodka: spotkania z różnymi ludźmi, nowa muzyka, odmienny klimat są bardzo potrzebne.

Kiedy wrócił Pan do Polski, miał Pan wówczas wiedzę w kraju dość rzadką i widać było, że chce się Pan nią podzielić…

Nie wiem, czy aż tak bardzo było to widać. Kursy PTMW w Kazimierzu znałem jeszcze z czasów, kiedy w nich uczestniczyłem, i byłem ich wielkim orędownikiem, więc kilkakrotnie przyjąłem zaproszenie do ich prowadzenia. Ale zacząłem wykładać dopiero w 1995 roku, zaś przez trzy lata nigdzie nie pracowałem i nie miałem z tego powodu poczucia żadnego dyskomfortu. Chyba nie mam zbyt rozwiniętego instynktu dydaktycznego. Jednak zgodziłem się na kilka wykładów gościnnych w Akademii Muzycznej we Wrocławiu i poznałem tam grupę studentów – pasjonatów muzyki komputerowej. I to był argument. Miałem szczęście, że trafiłem na rocznik Marcina Bortnowskiego, Cezarego Duchnowskiego, Marcina Rupocińskiego – ludzi, którzy włożyliby dwa palce do kontaktu, żeby było elektrycznie… Dlatego zostałem we Wrocławiu – zresztą pierwszy raz tak długo pozostaję w jednym miejscu. Chyba już za długo. Studio tworzą ludzie i oni tam byli, czułem ich wsparcie i pasję.

Mając oparcie wśród kolegów uczących w Akademii kompozycji, a zwłaszcza u dziekana I Wydziału, prof. Janusza Wichrowskiego i prof. Grażyny Pstrokońskiej-Nawratil, oraz entuzjastyczną młodzież doszliśmy do wniosku, że po paru latach tułaczki i pomieszkiwania kątem w tzw. Studio Technik Audio-wizualnych, należy sprawy muzyki komputerowej w Akademii zinstytucjonalizować. Po długich miesiącach negocjacji i mediacji prof. Jerzy Mrozik, ówczesny rektor Akademii, dokonał aktu erekcyjnego. Początek nie był zbyt imponujący. Dostaliśmy dwa pomieszczenia i nieco pieniędzy na zakup podstawowego sprzętu. W grudniu 1998 roku Studio Kompozycji Komputerowej – taką nazwę przyjęliśmy – zaczęło formalnie istnieć. Wówczas sprzęt stanowił dla Akademii poważny wydatek, ale stworzenie miejsca, gdzie są profesjonalne warunki do tworzenia muzyki, jaką się chce robić – bez żadnej zależności od technologii – musiało trochę kosztować. Żeby uczynić studio możliwie otwartym, inwestowaliśmy raczej w software, bo ten można uaktualnić, zaś przestarzałą czarną skrzynkę najwyżej wyrzucić. Dlatego zdecydowałem się na MAX-a, który w Polsce nie był wówczas powszechnie znany, gdyż w innych studiach (Warszawa, Kraków, Katowice) posługiwano się głównie programami komercyjnymi. Był to najlepszy i najbardziej otwarty program, jaki wtedy znałem, a dziś – uzupełniony o moduł MSP – zdominował świat profesjonalnej muzyki komputerowej. Tak więc nie pomyliłem się, inwestując w MAX/MSP, bo podobne do niego programy straciły przez lata na znaczeniu, choć w informatyce wszystko może się szybko zmienić.

Zasugerowałem dziekanowi, że jeśli naukę kompozycji komputerowej mamy potraktować poważnie, to musi ona trwać co najmniej dwa lata; dziś trwa już trzy. W programie znalazła się też historia muzyki elektroakustycznej, gdyż po pierwsze, jest to dziewiczy teren dla młodych adeptów kompozycji, że o teorii i muzykologii nie wspomnę, a po drugie uważam, że bez znajomości kanonicznych utworów oraz podstawowych publikacji dotyczących tej tematyki można łatwo paść ofiarę syndromu wyważania otwartych drzwi. Także nieco teorii, czyli elementy matematyki, akustyki i psychoakustyki. Ale przede wszystkim praktyka: dowiedziawszy się, czym jest synteza addytywna, studenci mogą od razu wypróbować ją w swoich etiudach kompozytorskich. Każdy musi zrealizować jedną 3-5- minutową w semestrze.

I powstało studio, o którym jest w Polsce głośno…

Miło mi to słyszeć, faktycznie dochodzą do mnie takie wieści. Bez fałszywej skromności, uważam, iż powstało u nas parę dobrych utworów, co jest zasługą głównie kompozytorów, ale też i warunków, jakie mieli do dyspozycji.

Parę lat później miała miejsce pierwsza edycja bezprecedensowego w kraju festiwalu Musica Electronica Nova. Jakie miejsce zajmuje on w życiu Pana jako założyciela i dyrektora artystycznego? Czy to dopełnienie Pańskiej pozostałej działalności, czy coś innego, i wreszcie, jak się Pan w nim ujawnia jako twórca?

Od wielu lat myślałem o takim festiwalu, ale nie miałem możliwości tego zrobić – dopiero Wrocław wydał mi się miejscem odpowiednim na tego typu przedsięwzięcie. Moja recepta na ten festiwal jest prosta: w miarę możliwości finansowych powinien on pokazywać to, co jest najbardziej interesujące w komputerowej twórczości muzycznej na tle klasyki muzyki elektroakustycznej. Jego dopełnieniem powinny być warsztaty muzyki komputerowej, organizowane przez Studio Kompozycji Komputerowej Akademii Muzycznej. Połączenie festiwalu z warsztatami nie jest sytuacją typową dla festiwalów w Polsce; na Zachodzie stanowi dość częstą praktykę.

Choć pierwsza edycja miała charakter autorski, to samego pomysłu czy projektu tak nie postrzegam – sformułowane wówczas w książce programowej krótkie „credo” nie musi obowiązywać podczas przyszłych edycji. Jestem przeciwnikiem kolektywnego podejmowania decyzji; program układać powinna jedna osoba, zmieniająca się co pewien czas. Ta pierwsza edycja była dla mnie wielce pouczającym doświadczeniem, ale w przyszłym roku dyrektorem ma być ktoś inny. Taki festiwal zabiera dużo czasu i jest niezwykle absorbujący, ostatnie cztery miesiące przed jego rozpoczęciem są praktycznie całkowicie zajęte. Może mógłbym w tym czasie robić coś innego, choć nie jestem pewien czy z większym pożytkiem dla potomności (śmieje się).

Samo programowanie festiwalu jest fascynujące, bo trzeba sobie parę rzeczy uświadomić, przypomnieć, posłuchać, uzasadnić (to już nie sobie, tylko innym). Ale wszystko poza tym to koszmar. Pewnie festiwale o dłuższych tradycjach mają swoje rutynowe sposoby funkcjonowania, a w Polsce wszystko co rutynowe jest łatwiejsze. Ciągłe zabiegania o finanse, o dotacje, koszmarna indolencja biurokratów wszelkiej maści i orientacji politycznej, bezsensowne i głupawe procedury. Na razie dochodzą mnie słuchy, że MEN 2007 się odbędzie.

Nawiązując jeszcze do owego wstępu z książki programowej ubiegłorocznego festiwalu, gdzie zauważa Pan, że w muzyce elektronicznej można i należy wyróżniać utwory dobrze zrobione, powstające zazwyczaj w kręgach mniej lub bardziej „akademickich”, wokół których rozciąga się morze dyletanctwa i miernoty muzyki popularnej, zastanawiam się, na ile jest to Pana głębokie przekonanie, a na ile zostało to sformułowanie na potrzeby chwili?

Ależ to oczywiste. To, że festiwal zdominowali kompozytorzy związani z jakimiś akademiami czy studiami, niczego jednak nie oznacza. Posiadanie dyplomu nie stanowi tu żadnego kryterium, zresztą wielu znakomitych kompozytorów żadnej akademii nie kończyło. Zależy mi po prostu na poprawności warsztatowej, na utworach dobrze zrobionych. Krótko mówiąc, chodziło mi artystyczną muzykę komputerową, a nie jej ludową odmianę. Bo przecież truizmem jest stwierdzenie, że w historii muzyki zawsze istniały te dwa nurty: muzyka artystyczna, robiona przez profesjonalistów i muzyka ludowa, tworzona przez amatorów. Kiedyś, gdy pastuszkowi coś w duszy grało, to wycinał sobie z wierzby fujarkę i dawał upust swym dusznym potrzebom. Dziś, będący w takiej potrzebie pastuszek globalnej wioski idzie do sklepu i kupuje sobie gitarę elektryczną, perkusję albo laptopa. Nie za wszystkie utwory prezentowane we Wrocławiu dałbym się pokroić czy choćby dać sobie obciąć paznokcie, ale śmiem twierdzić, że były dobrze zrobione. W moim zamierzeniu MEN nie miało być ludowym festiwalem muzyki elektroakustycznej z globalnej wioski. Muzyka ludowa ma swoje festiwale i tam jest grana, czasem na fujarce, a czasem na komputerze.

Mi chodzi jednak bardziej o wszelką twórczość alternatywną: improwizowaną, otwartą, procesualną, szmerową, noise’ową, w której pod względem elektroniki dzieje się nie mniej – jeśli nie więcej – ciekawego niż w skomponowanych utworach. Dlaczego jej nie można było usłyszeć na MEN?

Ależ można. Wszystkie techniki i technologie, które Pan wymienił, były reprezentowane na festiwalu. Bywam i bywałem na różnych festiwalach, gdzie takiej muzyki jest dużo, jak choćby na Audio Art Marka Chołoniewskiego czy Turning Sounds Antoniego Beksiaka. I mało znalazłem tam dla mnie interesującej muzyki. Większość mnie nudziła albo wręcz irytowała, bo zauważałem, w jak prymitywny sposób używany jest komputer. Zdarzają się zjawiska, jak np. instalacje, które są frapujące intelektualnie, ale muzycznie – niekoniecznie. Poza tym znam już dwa takie festiwale, a na pewno jest ich w Polsce więcej. Po co kolejny?

Co znaczy dziś „poprawność warsztatowa”?

Jest to kryterium, które trudno zwerbalizować, ale czuje się je podczas słuchania. Na nieudolność reaguje się negatywnie, choć czasem bywa i tak, że w pewnych sytuacjach kompozytor może liczyć na uwzględnienie pewnych okoliczności łagodzących. W dziedzinie muzyki elektroakustycznej dodatkowo pojawia się kryterium poprawności technologicznej: sposób użycia materiału i stopień jego obróbki, montaż, przejście z jednej sekwencji do drugiej. Zdarza się, że nieudolność jest świadomą konwencją, ale utwór musi być tak skomponowany, aby wywoływać przekonanie, że tak jest, że to decyzja, a nie przypadek. Słuchając wielu utworów, które – jak mniemam – mieszczą się w nurtach „alternatywnych“, o których Pan mówi, nie miałem przekonania, że intencją kompozytora jest dźwięk prymitywny, surowy, materialny. Skłonny byłbym raczej sądzić, że twórca po prostu nie umie sobie poradzić z dźwiękiem i sprawić, by pojawił się on w sensownej postaci. Dźwięk sam w sobie nie jest ani piękny, ani brzydki, staje się takim dopiero w określonej konwencji czy kontekście. Słuchając wielu takich produkcji, mam wrażenie, że robi się dobrą minę do złej gry, w której failure staje się feature. Jak wiemy, były w sztuce już różne pomysły, jak np. konceptualizm, ale nie są mi one bliskie. Z Pawłem Szymańskim wymyśliliśmy kiedyś ontyzm, którego istotą jest już nie tyle sama koncepcja dzieła czy jego zarys, lecz to, by być artystą. Cokolwiek wówczas zrobię, napluję, nagryzmolę – staje się aktem artystycznym, dziełem sztuki. Wiele ze wspomnianych produkcji zbyt bardzo trąci mi ontyzmem…

Wywiad przeprowadzony został 11 lutego tego roku.
Redakcja: Jan Topolski, Anna Siemińska i Anna Pęcherzewska. Tekst autoryzowany