Numer 16 / 2010

Pełna imersja: rzeczywistość czy utopia?

Ewa Trębacz

Technologie przestrzenne z punktu widzenia artysty

Pierwsza dekada dwudziestego pierwszego wieku przyniosła prawdziwą inwazję audiowizualnych technologii trójwymiarowych w przemyśle rozrywkowym i filmowym. Na miano małej rewolucji zasługuje zwłaszcza skala ich upowszechnienia i postępująca standaryzacja: od zadomowionych już na dobre systemów Home Theatre, poprzez nowe standardy projekcji stereoskopowej (jak Dolby 3D Digital Cinema) po początki telewizji trójwymiarowej (3D HD TV).

Wielowymiarowość mediów oraz dążenie do pełnej imersji wydaje się być tendencją dominujacą, ale nie jedyną. Z jednej strony mamy bowiem do czynienia z dramatycznym wzrostem jakości, np. rozdzielczości (jak High Definition), z drugiej – gładko zaakceptowaliśmy jej drastyczne ograniczenia w formatach kompresji na potrzeby internetu. Zmienia się zasadniczo charakter naszej percepcji, ewoluując w stronę symultaniczności doświadczeń przy jednoczesnym rozproszeniu uwagi. Należę jeszcze do pokolenia, które na internecie i nowych mediach się wprawdzie nie wychowało, ale bardzo prędko zaanektowało je jako niezbędny i naturalny element rzeczywistości. Dla ludzi niewiele młodszych ode mnie symultaniczność i wielowątkowość są oczywistością: o ile potrafią oni dowolnie przeskakiwać pomiędzy tematami czy wątkami, to dłuższe skupienie się na wybranym zagadnieniu przedstawia coraz wiekszą trudność.

Jest to zresztą cecha naturalna ludzkiej percepcji wizualnej – nasz wzrok w pozornie chaotycznym rytmie „skanuje“ otoczenie, wybierając fragmenty przestrzeni w skokowy sposób. Przez kilkadziesiąt lat amerykański artysta Stan Brakhage próbował w swoich filmachprzetransponować ten ruch naszych oczu na ruch kamery, tworząc kaskady wizualnych rytmów.Mamy rok 2010. Z dnia na dzień całość naszej percepcji coraz bardziej pogrąża się w rytmie jak z filmów Brakhage’a. Dla niektórych jest to już jedyny znany rytm.

Czy nie przymykamy więc oczu na prawdziwą rewolucję, która w jakiś tajemniczy sposób dokonuje się po cichu w ciągu ostatnich lat? Z perspektywy artysty trudno jest przecenić wagę tego rodzaju przemiany. Ten nowy w swej powszechności, symultaniczny, wielowątkowy, intermedialny i wielowymiarowy, a jednocześnie „krótkodystansowy“ sposób postrzegania świata ma i będzie miał zasadnicze konsekwencje dla dalszego rozwoju sztuki. Jednak pomimo nagłego przyśpieszenia w technologiach 3D brakuje nam wciąż nowego oryginalnego języka, właściwego temu medium, podobnie jak nie ma jeszcze właściwie paradygmatu audiowizualnej kompozycjiprzestrzennej.

Warto zauważyć, że ludzie niewidomi od urodzenia, którzy w wyniku operacji nagleodzyskują wzrok, odczuwają początkowo duży dyskomfort, związany z nagłą symultaniczną naturąpercepcji wizualnej otoczenia. Przyzwyczajeni są oni bowiem do postrzegania przestrzeni jakosekwencji obiektów w czasie (rozpoznawanych np. przez dotyk), w podobny sposób, w jakiodbieramy przestrzeń dźwiękową. Gdy nagle otwiera się nieznany dotąd wymiar, ludzie ciodczuwają często rodzaj przytłoczenia równoczesnością doświadczeń.

Jesteśmy dzisiaj w podobnej sytuacji. Syndrom „przeładowania“ percepcyjnego – nadmiernego obciążenia naszych zmysłów, bombardowanych symultanicznie wielowymiarowymi i nieskoordynowanymi impulsami, staje się swojego rodzaju signum temporis. W kontekście fizycznych granic ludzkiej percepcji, dalszy rozwój sztuki wydaje się być raczej tylko nieokreśloną bliżej możliwością niż czymś pewnym i gwarantowanym.

Z drugiej strony niedoskonałość dzisiejszych technologii wielowymiarowych eskponuje obszary graniczne: wyjątki od reguł, obszary błędu, w których iluzja ulega załamaniu. Eksploracja tych właśnie rejonów stanowi idealne pole dla sztuki eksperymentalnej i potencjalnie prowadzić może do wielu zaskakujących odkryć dotyczących ludzkiej percepcji. Jeśli prawdą okaże się, że przyszły rozwój sztuki jest uwarunkowany bezpośrednią fizyczną modyfikacją ludzkich zmysłów, to jednocześnie eksperyment w sztuce – dzisiaj, tu i teraz – być może byłby zdolny ten proces zainicjować.

Tego właśnie rodzaju pytania i dylematy skłoniły mnie do zainteresowania się dwoma wybranymi technologiami w zakresie przestrzenności dźwięku i obrazu: ambisonics (w pełni trójwymiarowy system surround sound) oraz stereoskopią, a więc zbiorem technik symulacji widzenia przestrzennego, poprzez połączenie obrazów zarejestrowanych przez dwie kamery (rzeczywiste lub wirtualne), reprezentujące prawe i lewe oko. Poniżej opiszę krótko obie technologie w kontekście moich doświadczeń w kolejnych projektach realizowanych w latach 2005-2009.

 

*

 

W podejściu do przestrzeni dźwiękowej w muzyce elektronicznej dominują dwie niejako przeciwstawne koncepcje. W pierwszej z nich dźwięk rozumiany jest jako punkt albo pojedyncze zdarzenie w określonej przestrzeni, a wiec zdefiniowany jest jako pewien obiekt, poruszający się po zaprojektowanych przez kompozytora trajektoriach. Dla artysty preferującego to podejście idealnym środowiskiem pracy jest studio, przestrzeń stworzona sztucznie i neutralna akustycznie, o znikomym pogłosie: tabula rasa, która dopiero zostanie zapisana w dalszym procesie twórczym.

W drugiej koncepcji centrum zainteresowania staje się nie wybrany obiekt i jego ruch, ale pewien całościowy „obraz“, w anglojęzycznej literaturze określany jako sound image (obraz dźwiękowy). Zamiast koncentracji na wybranym zdarzeniu dźwiękowym i jego ruchu, artysta projektuje przestrzeń jako całość, mikrokosmos wzajemnych relacji, ewentualnie wydobywając jej wybrane cechy. Obraz dźwiękowy jest z definicji wielowymiarowy: obserwować można go z różnych stron w sposób zbliżony do trójwymiarowej rzeźby. Ruch jednego z elementów takiego „obrazu“ natychmiast wpływa na ruch czy rozmieszczenie pozostałych elementów.

W mojej pracy to właśnie druga z wymienionych koncepcji stanowi centrum zainteresowania. Obraz dźwiękowy może powstawać w warunkach studyjnych – niemal od zera –  ale niekoniecznie. Innym znakomitym sposobem kreowania tak rozumianych przestrzeni jest realizacja nagrań w miejscach o unikalnej i inspirującej akustyce.

Wybór lokacji ma tutaj kluczowe znaczenie – przestrzeń musi mieć swoją osobowość, która niekoniecznie jest oczywista „na pierwszy rzut oka“ (czy raczej ucha). Poprzez serie testów, rejestrując dźwięk z użyciem różniących się od siebie kombinacji mikrofonów, przestrzeń dotąd niewidzialna nagle zaczyna otwierać się na tysiące nieoczekiwanych sposobów. Nic wyraźniej nie demaskuje mitu o rzekomym „obiektywizmie nagrań“ niż właśnie podobna wielo-mikrofonowa sesja nagraniowa w przestrzeni o unikalnych cechach akustycznych. Nagle odsłaniają się miriady przestrzeni, współistniejących ze sobą, symultanicznych, ale przecież zupełnie odmiennych, a projekt z technicznego testu zamienia się w fascynujący eksperyment.

Istnieje wiele technik i podejść, pozwalających na tworzenie wiarygodnych „obrazów dźwiękowych“, posługując się zarówno syntetycznymi jak i naturalnymi źródłami dźwięku, warto jednak zwrócić szczególną uwagę na jedną z nich: ambisonics. Jest to technika rejestracji i reprodukcji dźwieku, mająca na celu jak najwierniejsze uchwycenie jego naturalnej trójwymiarowości. Podstawy teoretyczne pochodzą już z lat 70. XX wieku, będąc m.in. wynikiem badań Michaela Gerzona. Jednak dopiero upowszechnienie komputerów osobistych i ich dzisiejsze parametry sprawiają, że operowanie dźwiękiem zakodowanym w ambisonics jest dostępne niemal dla każdego, warunkiem jest tutaj chęć zastosowania niestandardowego rozwiązania i podstawowa znajomość jednego z języków syntezy i przetwarzania dźwięku (SuperCollider, CSound, Max/MSP i wiele innych).

Jednym z możliwych źródeł materiału dźwiękowego jest nagranie zrealizowane za pomocą wyspecjalizowanego systemu mikrofonów, w którym to dźwięk zakodowany jest w tzw. B-format, jako kombinacja 3 lub 4 sygnałów mono. W bardzo dużym uproszczeniu można powiedzieć, że kombinacja ta reprezentuje kierunkowe „osie“: dwie horyzontalne (prawo-lewo, przód-tył) oraz wertykalną (góra-dół). Nagranie 3-kanałowe z reguły oznacza, że pominięta została informacja wertykalna (jest to tzw. pantophonic system, w przeciwieństwie do 4-kanałowego periphonic system – gdzie rejestruje się i odtwarza również element wertykalny).

Możliwe jest również sztuczne uzyskanie sygnału w B-format – poprzez zakodowanie dźwięku 1-kanałowego, nagranego lub uzyskanego syntetycznie, za pomocą odpowiedniego równania (wówczas kierunkowość dźwięku zależy od apriorycznej decyzji). Zarejestrowany w B-format dźwięk można następnie poddać manipulacjom przestrzennym, sprowadzającym się do prostych operacji matematycznych, np. obrócić powstały w ten sposób sound image pod dowolnym kątem czy też uwypuklić jego wybraną część. Podstawy matematyczne – równania kodujące i manipulacje przestrzenne – zostały dokładnie opisane w literaturze, warto tutaj polecić artykuły Davida Malhama.

Dźwięk zakodowany w ambisonics można następnie „rozpakować“ (z zastosowaniem oprogramowania czy sprzętowego dekodera) i odtworzyć za pomocą stosownego do sytuacji systemu głośników surround, przy czym ich absolutnie minimalna ilość to 4 (daje to system płaski, jednowarstwowy, zbliżony do kwadrofonii). Istnieje również format dźwięku, który umożliwia dość wierną konwersję z ambisonics do stereo, tzw. UHJ: zachowując większość informacji kierunkowej, tracimy oś wertykalną i trochę precyzji, obraz dźwiękowy pozostaje jednak ciągle rozpoznawalny. Co istotne – możliwy jest również proces odwrotny (tzn. konwersja ze stereo UHJ do B-format, z utratą informacji wertykalnej).

Jakie więc cechy ambisonics mogą zachęcić do wyboru tej niestandardowej przecież technologii – zamiast innych, bardziej przystępnych systemów dystrybucji dźwięku?Po pierwsze – pełna peryfonia. Tutaj trójwymiarowość rozumiana jest również jako ruch wertykalny dźwięku. Podczas gdy komercyjne systemy surround są z reguły płaskie (jednowarstwowe), w ambisonics możemy zestawić ze sobą wiele warstw głośników, ustawionych w pionie jedna warstwa ponad drugą. Realizując nagrania z pominięciem wertykalnego aspektu dźwieku, rejestrujemy jedynie wybraną część zamiast trójwymiarowej całości.

W większości komercyjnych systemów dystrybucja dźwięku w przestrzeni jest apriorycznie zdefiniowana przez fizyczne położenie głośników i ich ilość (liczba zarejestrowanych kanałów równa się liczbie głośników). W ambisonics – nagrywamy 4 kanały zakodowanego dźwięku, natomiast decyzję o ilości głośników można odłożyć na później: dźwięk zostanie odkodowany zależnie od rozdzielczości systemu, jaką pragniemy uzyskać.

Możliwe są zarówno regularne, jak i nieregularnie zaprojektowane konfiguracje głośników. Najłatwiejsze i najbardziej efektywne podejście to ustawienie głośników w wielowarstwowy układ regularny, w którym każda pojedyncza warstwa jest wielokątem foremnym (np. układ 12 głośników, 2 warstwy – po 6 głośników w każdej, każda z warstw ustawiona w kształt sześciokąta). Następnie zaś (zamiast manipulować rozmieszczeniem głośników), przemieszczamy i przetwarzamy cały obraz dźwiękowy w trójwymiarowej przestrzeni za pomocą oprogramowania.

W przypadku komercyjnych systemów surround często można odnieść wrażenie, że dźwięk „siedzi“ na głośnikach, wyraźnie słyszalne stają się „przerwy“ w przestrzeni pomiędzy nimi. W drastycznym przypadku (np. niewłaściwego rozmieszczenia głośników i zbyt dużych odległości) można wręcz osiągnąć efekt piłeczki ping-pongowej: dźwięk przeskakuje w przestrzeni od jednego głośnika do drugiego. Wyraźnie można też określić tylko jedno miejsce (najczęściej centralny punkt), w którym odbiór dźwięku jest zbliżony do optymalnego (określane jako sweet spot). Często sprowadza się to do prostej sytuacji: im dalej od centrum, tym mniej wiarygodne stają się relacje przestrzenne.

W technologii ambisonics obraz dźwiękowy przemieszcza się w pewnym sensie wraz ze słuchaczem, mimo że może stać się mniej oczywisty, wciąż jednak pozostaje rozpoznawalny. Można porównać to do sytuacji, w której widz ogląda trójwymiarową rzeźbę, spogladając na nią pod różnymi kątami, obchodząc ją dookoła i co chwila zmieniając perspektywę. O ile można wciąż wyróżnić optymalne miejsce, jego granice stają się mniej oczywiste, a definicja o wiele szersza niż w systemach komercyjnych.

Jako główne wady ambisonics wymienić należy przede wszystkim cenę mikrofonów oraz konieczność używania dekodera do odtworzenia dźwięku, jak również brak standardowego oprogramowania do przetwarzania i manipulacji przestrzennej dźwięku w B-format.

Dekoder

Nagrany w B-format dźwięk należy odpowiednio „odkodować“, aby mogł zostać odtworzony za pomocą docelowego systemu głośników. Można to zrobić albo za pomocą dość kosztownego dekodera sprzętowego, albo oprogramowania. Do przygotowania własnego dekodera wystarczy ogólna znajomość jednego z języków syntezy i przetwarzania dźwieku oraz zapoznanie się podstawami teoretycznymi ambisonics. Osobiście polecam język SuperCollider 3, dostępny obecnie jako open source (klasa Ambisonics zawiera szereg metod pozwalających na przetwarzanie i manipulacje przestrzenne dźwięku w B-format oraz algorytmy konwersji do innych formatów dźwiękowych).

Mikrofony

Optymalnym rozwiązaniem jest zastosowanie jednego z systemów mikrofonowych SoundField:

  • SoundField MKV (najstarszy model, wersja wyłącznie studyjna: mikrofon ten jest niesamowicie wrażliwy na zmiany temperatury i wilgotności, a rozmiar jednostki kontrolnej nie zachęca do zabierania go w plener);
  • ST250 Portable Microphone System – znakomite rozwiązanie przenośne;
  • ST350 Portable Microphone System – nowsza, zminiaturyzowana wersja poprzedniego, dodatkowo oferująca zbalansowany output w B-format.

Mikrofony te przeznaczone są zarówno do nagrań w B-format jak i stereo (M/S) i charakteryzują się znakomitą jakością dźwięku, niestety jednak jest to rozwiązanie dość kosztowne. Istnieje kilka tańszych alternatyw – warto tutaj zwrócić uwagę na Core SoundTetraMic Microphone (którego jednak osobiście nie testowałam). Innym rozwiązaniem jest realizacja nagrania za pomocą 4 identycznych równomiernie rozmieszczonych mikrofonów mono i potraktowanie sygnału z tych mikrofonów jako tzw. A-format, następnie zaś konwersja do B-format za pomocą oprogramowania.

Praktyka dowodzi, że w zależności od charakteru i rozmiaru przestrzeni konieczne może okazać się stosowanie kombinacji różnych mikrofonów. Podczas pracy nad moimi projektami zdarzyło mi się korzystać z dwóch lub nawet trzech mikrofonów SoundField jednocześnie, przykładowo rozmieszczając je na różnych wysokościach, uzupełniając je często innymi mikrofonami mono i stereo. Uzyskane w ten sposób symultaniczne obrazy dźwiękowe o całkowicie odmiennych cechach stały się materiałem wyjściowym do dalszych poszukiwań artystycznych, a ich wzajemne relacje w znaczący sposób wpływały na konstrukcję formalną utworów.

Podczas pracy nad materiałem źródłowym stosuję zazwyczaj dwie uzupełniające się wzajemnie metody. Metoda pierwsza sprowadza sie do serii nagrań w wybranym miejscu, przy czym docelowe źródło dźwięku (np. instrument muzyczny) znajduje się fizycznie w tej właśnie przestrzeni.Metoda druga to tzw. impulse response: nagrywa się krótki sygnał zbliżony do pojedynczego „impulsu“ (jak strzał pistoletu, balon przebity igłą itp.), po czym na jego bazie przeprowadza się w miarę wierną rekonstrukcję naturalnego pogłosu danej przestrzeni, który można następnie zastosować do dźwięków nagranych w studio.

Kluczowe znaczenie dla każdego z moich projektów miał wybór przestrzeni, w których nagrywałam materiał źródłowy. Najciekawsze z moich sesji odbyły się albo w przestrzeniach otwartych, takich jak pustynia czy góry oraz przestrzeniach charakteryzujących się długim i nietypowym pogłosem: St. James Cathedral w Seattle oraz wielka podziemna cysterna w byłej bazie wojskowej Fort Worden (Dan Harpole Cistern) w stanie Washington. Wspomniana cysterna to bez wątpienia jedno z najbardziej fascynujących środowisk akustyczych, z jakimi miałam do czynienia: długość pogłosu to 45 sekund, a ze względu na układ kolumn podtrzymujących betonową konstrukcję, dźwięk przemieszcza się po najbardziej nieoczekiwanych trajektoriach.

Z roku na rok coraz bardziej też moje sesje nagraniowe w ambisonics przypominają raczej produkcję filmową niz klasyczne nagranie. Gdy w 2005 roku pracowałam nad realizacją utworuMinotaur (na waltornię i surround), mój przenośny zestaw nagraniowy składał się z jednego mikrofonu ST250 i cyfrowego rejestratora dźwięku Deva 2. Kolejne projekty w latach 2007-2009 to już ciężarówka sprzętu i kilkuosobowa ekipa pomocnicza, nagrania realizowane były według „scenariusza“, a aranżacja obiektów akustycznych oraz kombinacji mikrofonów w przestrzeni upodabniała się coraz bardziej do aranżacji oświetlenia na planie filmowym.

Zarejestrowany w ambisonics źródłowy materiał często staje się podstawą późniejszej partii instrumentalnej. Efekt finalny – gotowy utwór – opiera się na wzajemnej relacji pomiędzy nieprzetworzonymi lub w niewielkim tylko stopniu modyfikowanymi dźwiękami instrumentalnymi na żywo, a labiryntem przestrzeni dźwiękowych, rekonstruowanym w czasie koncertu za pomocą wielowarstwowego systemu głośnikow.

W tym kontekście rolę elektroniki podczas koncertu rozumiem jako świadomą kontrolę projekcji przestrzennej dźwięku w zależności od warunków akustycznych sali. Osobiście wolę, aby dźwięk instrumentu na żywo dochodził bezpośrednio z jego źródła, a pogłos był jak najbardziej zbliżony do naturalnego pogłosu sali koncertowej (jeśli widzimy instrumentalistę – oczekujemy, że właśnie stamtąd będzie dochodzić jego dźwięk, a nie z głośników w innej części sali). Z kolei dźwięk reprodukowany (tradycyjnie nazywany taśmą), którego źródło pozostaje dla słuchacza niewidzialne, jest dekodowany i przystosowywany specjalnie do warunków, w jakich odbywa się wykonanie – z uwzględnieniem skali, architektury i akustyki tego miejsca – a w razie potrzeby jego przestrzenna dystrybucja jest kontrolowana na żywo. W rezultacie powstaje więc coś pomiędzy instalacją dźwiękową a kompozycją muzyczną, w ktorej przestrzeń akustyczna staje się głównym czynnikiem formotwórczym.

Równolegle z pracą nad dźwiękiem w technologii ambisonics, od roku 2006 moje zainteresowania przestrzenne obejmują również eksperymenty z obrazem stereoskopowym, a konkretnie animację komputerową i wideo 3D oraz klasyczną fotografię stereoskopową. Koncepcja stereoskopii – jako techniki symulacji przestrzeni wizualnej bazującej na różnicy pomiędzy dwoma obrazami, reprezentującymi prawe i lewe oko – jest znana co najmniej od XVII wieku. Wtedy to m.in.Giovanni Battista della Porta i Jacopo Chimenti da Empoli tworzyli pierwsze udokumentowane stereoskopowe rysunki, a w 1613 roku Fraincois d’Aguillion po raz pierwszy użył słowa“stéréoscopique”. Teoria wyprzedziła więc praktykę o ponad dwieście lat: w 1838 Sir CharlesWheatstone zaprezentował swój wynalazek: stereoskop, urządzenie pozwalające na symulowanie wrażenia przestrzeni po raz pierwszy w historii ludzkości. Pierwsze stereografy prezentowane szerszej publiczności powstały ok. 1850 roku i do ok. 1920 cieszyły się olbrzymią popularnością. Jednak wraz  z pojawieniem się filmu stereoskopia straciła na znaczeniu. Wczesne próby wprowadzenia stereoskopii do kina w latach 50. skończyły się porażką zarówno ze względów technicznych, jak i artystycznych. Dopiero dwie ostatnie dekady XX wieku przyniosły powrót zainteresowania tą techniką, a dzisiaj niemal każda wytwórnia filmowa stawia sobie za punkt honoru wyprodukowanie filmu 3D.

Pomimo prawdziwej eksplozji technologicznej, ciągle jeszcze znajdujemy się jednak na etapie przejściowym. Największym wyzwaniem nowego audiowizualnego medium wydaje się konieczność stworzenia unikalnego języka, wyrażającego jego wielowymiarową naturę. Problem ten dotyczy w równym stopniu przemysłu filmowo-rozrywkowego, jak i sztuki eksperymentalnej. Daleka jeszcze droga do pełnej imersji, a na razie pozostaje nam zmagać się z wieloma „niespodziankami“, wynikającymi z niezbyt dobrze jeszcze rozumianej istoty nowego medium.

W najnowszym z moich projektów Errai (2009), będącym próbą konstrukcji unikalnej przestrzeni audiowizualnej, niedoskonałość technologii i niedoskonałości ludzkiej percepcji potraktowałam jako inspirację, a obszary, w których iluzja ulega załamaniu posłużyły mi za punkt wyjścia do dalszej eksploracji artystycznej. Errai miało swoją premierę podczas festiwalu Warszawska Jesień 2009, w Hali Najwyższych Napięć Instytutu Energetyki w Warszawie.

Podobnie jak we wcześniejszych projektach, źródłowy materiał dźwiękowy pochodził z szeregu sesji nagrań w ambisonics, z udziałem waltornisty Josiaha Boothby‘ego i sopranistki Anny Niedźwiedź. Podczas wykonania koncertowego soliści umieszczeni zostali poza dwuwarstwowym systemem głośników (a dokładnie ponad głośnikami i ponad ekranem projekcyjnym), tworząc na żywo kolejną warstwę narracji. Całość przestrzeni audiowizualnej została potraktowana jako pudło rezonansowe wirtualnego instrumentu, przy czym publiczność zamknięta została w jego wnętrzu.

Na warstwę wizualną złożyła się projekcja stereoskopowa (animacja komputerowa 3D mojego autorstwa) oraz realizowane na żywo oświetlenie (projekt Roberta Sowy, Akademia Sztuk Pięknych w Krakowie), ingerujące bezpośrednio w projekcję wideo i stanowiące jej kontrapunkt. Warstwy projekcji wideo w Errai ewoluują niezależnie od siebie, uzyskując pełne kontinuum zmiany: od trójwymiarowego obrazu stereoskopowego poprzez „płaski“ obraz 2D do tzw. pseudo-stereo (trójwymiarowy obraz, w którym obiekty znajdujące się poprzednio na pierwszym planie zostały przeniesione do tła, i vice versa). Efekt ten osiągnięty został poprzez płynne zmiany dystansu pomiędzy dwoma wirtualnymi kamerami reprezentującymi lewe i prawe oko, a jego rezultatem jest wrażenie pulsowania przestrzeni: „głębokość“ obrazu staje się zmienną czasu. Przestrzeń wizualna na przemian rozszerza się i zapada w sobie, czego normalnie nie doświadczamy w świecie rzeczywistym (dystans pomiędzy naszymi oczami jest stały, a ewentualne zaburzenia percepcji przestrzennej mogą być powodowane wyłącznie problemami zdrowotnymi czy interwencją medyczną).

Oprócz różnic pomiędzy obrazem widzianym przez prawe i lewe oko, trójwymiarowość naszej percepcji wizualnej opiera się na równoczesnej kombinacji wielu innych czynników, które pozwalają nam odróżnić tło od pierwszego planu (takich jak subtelne zmiany natężenia koloru czy relatywna wielkość przedmiotów, i wiele wiele innych). Rozdzielenie tych elementów i świadoma manipulacja nimi w czasie, możliwa dzięki animacji komputerowej, pozwala na ich odczytanie w zupełnie odmiennych kontekstach i niejako testowanie granic własnej percepcji. Ostatecznym jej testem w Errai jest moment przerwania iluzji, poprzez skierowanie zewnętrznego źródła światła bezpośrednio na ekran projekcyjny i jego ingerencja w przestrzeń wirtualną.

Animacja światła odgrywa w tym projekcie zasadniczą rolę w zdefiniowaniu przestrzeni fizycznej: quasi-architektonicznej, jednak nie tożsamej z architekturą sali. Wchodząc w krótkie interakcje z projekcja 3D, falujący, żywy strumień światła zamyka publiczność w swoim kręgu, tworząc ciągłość pomiędzy przestrzenią fizyczną i wirtualną, i niejako dekonstruując tę drugą. To właśnie światło wprowadza widza-słuchacza w utwór, zanim jeszcze rozpocznie się projekcja 3D, i to samo światło uwalnia go z iluzji po jej zakończeniu.

Istotą Errai jest symultaniczność i dwubiegunowość. Poszczególne warstwy wizualne, pulsujące każda we własnym rytmie rywalizują ze sobą o uwagę odbiorcy. Trójwymiarowy dźwięk i obraz nie ilustrują sie wzajemnie, lecz narzucając własne odmienne rytmy żądają od widza-słuchacza maksymalnego skupienia, niemożliwego do utrzymania w każdym momencie, odbiorca stoi więc przed ciągłą koniecznością wyborów. Mimo że nie należało to do początkowych założeń, projekt ten stał się więc w pewnym sensie zindywidualizowanym testem na zdolność adaptacji, eksponującym zaskakujące nieraz różnice pomiędzy poszczególnymi odbiorcami.

Przyznam, że utwór ten zostawił mnie z ciągle rosnącą listą pytań o istotę nowego medium. Czy jesteśmy już gotowi na tego typu zmianę czy może potrzeba jednego czy dwóch pokoleń, aby wielowymiarowość i symultaniczność stała się drugą naturą? Albo raczej implantów w naszym systemie nerwowym, które – rozszerzając zdolności naszych zmysłów – rozszerzyłyby również obszary artystycznej eksploracji. Wydaje mi się jednak, że z perspektywy artysty istotna jest dzisiaj nie tyle jednoznaczna odpowiedź na którekolwiek z podobnych pytań, ile świadomość fundamentalnej zmiany: konieczność wnikliwej obserwacji zmieniającej się percepcji oraz aktywna rola w tworzeniu nowych środków, technologii i języka przyszłej sztuki, jakkolwiek nieoczekiwane formy ona przybierze.

Ewa Trębacz

Center for Digital Arts and Experimental Media (DXARTS), University of Washington

dxarts.washington.edu
ewatrebacz.com

Bibliografia na początek

Oliver Grau, Virtual Art from Illusion to Immersion, MIT Press, 2001.

Lenny Lipton, Foundations of The Stereoscopic Cinema. A Study in Depth, Van Nostrand Reinhold Company, 1982.

David G.Malham, Approaches to Spatialization, „Organized Sound“ no. 3 vol 2 (1998), ss. 167-177.

David G.Malham, Spatial Hearing Mechanisms and Sound Reproduction, 20 January 2010,
na: www.york.ac.uk/inst/mustech/3d_audio/ambis2.htm

Lev Manovich, The Language of New Media, MIT Press, 2001.

Kim Timby, Colour photography and stereoscopy: parallel histories, “History of Photography” no.29 (2005), ss. 183–196.