Czytaj książkę oznaczoną tagiem: sztuka

Pojęcie metamedium ma dodatkowo dla Manovicha także bardzo ważne odniesienie historyczne. Sens tej kategorii odwołuje do dokonań awangardy w sztuce w pierwszej połowie XX. wieku. W latach 1915–1928 artyści wizualni, architekci, designerzy stworzyli cały zbiór nowych technik i rozwiązań dotyczących rozumienia przestrzeni, czasu i sztuki, które wywarły zasadniczy wpływ na losy technologii cyfrowych w późniejszym okresie. Myślenie awangardy, metody i kody tej formacji, ucieleśnione zostały w pełni dopiero w formie cyfrowych mediacji. Chodzi tu np. o montaż filmowy, technikę kolażu fotograficznego i jej funkcje kopiuj/wklej czy eksperymenty Lissitzky’ego z ruchomą ramą obrazów. Nowe media, ich software to podjęcie spuścizny awangardy w obszarze kultury medialnej i komunikacyjnej.

Kategorię metamedium w jej cybernetycznym i medioznawczym sensie można uznać za wstępne rozpoznanie sytuacji postmedialnej. W innej wypowiedzi, zatytułowanej Post-media Aesthetics, Manovich idąc o krok dalej w stosunku do Języka nowych mediów stawia znak równości między kategorią postmedia a cyfrową estetyką informacji, dopowiadając w ten sposób wcześniej wykorzystane pojęcie metamedium przez wpasowanie w kontekst relacji sztuki mediów, technologii i teorii kultury [13]. Tradycyjnie silne więzy pomiędzy tożsamością dzieł sztuki a transportującymi je mediami zostały w cyfrowości zerwane – wyrokuje. Jednocześnie, przyznaje, historia sztuki to także (a dla przywołanych za chwilę takich teoretyków, jak Weibel – przede wszystkim) historia nowych interfejsów (technologii), które tworzą artyści w odpowiedzi na zmieniające się w czasie potrzeby i wyobraźnie jej odbiorców, reagując na towarzyszące im środowisko technologiczne – to także funkcja rozwoju technologicznego w ogóle, szczególnie zaś wewnątrz społeczeństw i kultur rozwiniętego Zachodu po rewolucji przemysłowej i oświeceniowej. Postmedialna estetyka jest w związku z tym przede wszystkim emanacją cybernetycznego software, bo to dzięki niemu stare gramatyki medialne znajdują odniesienie w nowo konstruowanych (cyfrowo) tekstach kultury. Software miksuje istniejącą gramatykę kultury (języki starych mediów) z możliwościami oferowanymi przez nowe narzędzia medialne, jest mostem, po którym w obu kierunkach poruszają się medialne hardware, odnajdując się nieustannie na nowo w różnych konfiguracjach. Estetykę tego typu definiują takie tagi, jak: kultura informacji, remiks, update, dane i bazy danych, interfejs, kompresja, algorytm.

W kontekście sztuki mediów technologiczny sens pojęcia postmedia podejmują i rozwijają także inni ważni dla medioznawczego dyskursu analitycy, jak Peter Weibel i Domenico Quaranta. Weibel, uznany teoretyk kultury medialnej i jeden z najważniejszych jej animatorów, do którego ustaleń będę w tej pracy wielokrotnie powracać, wywodzi stan postmedialny z generalnego kryzysu reprezentacji, który w sztuce współczesnej objawił się wraz z pojawieniem się mediów wizualnych – prasy, fotografii i później kina. Ich kulturowa i artystyczna ekspansja spowodowała, że sztuka mimowolnie, wbrew oporom artystów i mecenasów, przekształciła się w sztukę mediów. Nurt ten zapoczątkował Duchamp, który otworzył sztukę na obiekt rozumiany już nie jako metafora, ale przedmiot fizyczny, namacalny byt postrzegany realistycznie i w tym duchu używany semiotycznie. Technologie medialne stały się najpierw przedmiotami sztuki, by następnie stać się narzędziami sztuki, a wreszcie jej świadomie podejmowanymi tematami. Przedmioty medialne, dzieła sztuki mediów okazały się mieć niemieszczącą się w dotychczasowym kanonie form i materii artystycznego wyrazu niematerialną konsystencję, inny stan skupienia. W ten sposób sztuka czy szerzej: kultura znalazły się wewnątrz mediów – zostały zmediatyzowane, wchłonięte przez medialne gramatyki i reguły. Późniejsze mówienie o sztuce mediów, a zatem także o kulturze mediów, nie ma racji bytu. W związku z tą ekspansją Weibel ogłasza nadejście sytuacji postmedialnej, tj. takiej, w której nie ma już osobnej kategorii: sztuka mediów. Nic nie dzieje się w sztuce i kulturze poza granicami medialnej przestrzeni i regułami medialnych form. Kondycja postmedialna powstaje w dwóch fazach. Pierwsza polega na zrównaniu statusu i kulturowej siły istniejących mediów sztuki. W konkurencji między sobą doszły one do momentu równości jako narzędzia ekspresji artystycznej. Nie ma obecnie medialnych technologii, które dominują w praktyce sztuki albo które są z niej programowo wykluczone. Faza druga polega na zapadaniu się wszystkich tych medialnych form w siebie nawzajem. Stapiające się media tracą swoją unikalność i dalej: tożsamość w ogóle [14]. Weibel reasumuje:

Oddziaływanie mediów jest uniwersalne, więc wszelka sztuka jest obecnie sztuką postmedialną. Ponadto każda sztuka jest postmedialna nie tylko dlatego, że media są maszynami uniwersalnymi, lecz dlatego, że uniwersalna maszyna, jaką jest komputer, posiada zdolność symulowania wszystkich mediów.

W obszarze sztuki, jak można wywnioskować z prac Manovicha i Weibla, koncept medium został najpierw wystawiony na próbę przez nowe formy wypowiedzi artystycznej, takie jak asamblaż, happening, instalacja, performance, a równolegle za sprawą kulturowej obecności analogowych mediów mechanicznych: fotografii, filmu i wideo. Zdarzyło się to z tradycyjną koncepcją rozumienia medium przyjętą w sztuce, to jest jako tworzywa artystycznego, oraz z tradycyjną formą upowszechniania, dystrybucji sztuki: modelem, w którym na szczycie znajdują się artyści, opiniotwórcze elity i systemowe narzędzia upowszechniania sztuki, takie jak muzea czy galerie. W rezultacie sytuacja postmedialna to także przestrzeń konfliktu pomiędzy tradycyjnym systemem sztuki a sztuką mediów. Sztuka mediów ze względu na swoją „mediocentryczność” nie weszła w naturalny sposób w obieg sztuki współczesnej, okazała się raczej systemową, formalną i estetyczną alternatywą wobec niej. W ten sposób kondycję postmedialną definiuje kolejny medioznawca, a jednocześnie krytyk i kurator sztuki Domenico Quaranta [15].

Dziejowa logika technologii komunikacyjnych, która wytyczyła trajektorię media-nowe media-postmedia, obejmuje obszar kulturowych odczytań technologii komunikacyjnych. Definiowanie pola i treści sztuki współczesnej w odniesieniu do niej to tylko jedna z postmedialnych debat podjętych w różnych sferach, na które wpływ ma rzeczywistość cyfrowa. Dający się zaobserwować – widoczny w napięciu pomiędzy sztuką współczesną a sztuką nowych mediów – strach przed kondycją postmedialną ma znamiona uniwersalne, choć, jak na razie, jedynie dyskurs krytyki sztuki mediów i teorii kultury doprecyzował ten stan i zaproponował dla niego własny język i kategorie pojęciowe, które tu przywołałem. Można się spodziewać, że niebawem także i te inne, oporne lub cyniczne dyskursy, takie jak teoria nauki (częściowo objawia się to za sprawą takich „nowalijek”, jak digital humanities) czy nauki o życiu, dostrzegą medialną zmianę i poczują się przez nią sprowokowane do ponownej odpowiedzi na fundamentalne pytania.

Prowadzona przez Weibla i Quaranta krytyka systemu sztuki wskazuje na przywiązanie do tradycyjnej jedności treści i form, które jest także obecne w myśleniu o mediach i komunikacji. Teorie mediów i szerzej kulturoznawcza wiedza o mediach mają skłonność do postrzegania kulturowego dominium komunikacji przez pryzmat kategorii obiektu i stojącej za nim techniki. Interpretacje wywodzące się z tej perspektywy widzą ten obiekt na dwa sposoby. Po pierwsze, uznają za niego przedmioty, czyli medialne technologie oraz medialne wytwory/teksty. Po drugie, obiektem tym czynią komunikujący podmiot, uwikłanego w medialne sprzężenia człowieka, aktora działań komunikacyjnych. Ani przedmioty samodzielnie, ani podobnie rozumiane podmioty, ani synergiczne kombinacje tych kierunków składające się na tradycyjny model środowiska i procesów komunikacyjnych nie przystają jednak do natury i zasięgu ewolucji medialnego świata dokonującej się w cyfrowych okolicznościach. Tak zaprojektowany model, powtórzę, można było z powodzeniem wykorzystywać (w różnych wewnętrznych jego strukturalizacjach i ujęciach dyscyplinarnych – od analizy semiotyki medialnego przekazu po deterministyczne postrzegania technologii jako przekazu) jedynie wobec domeny mediów analogowych. Wobec natury cyfrowego i sieciowego świata, w którym hardware zyskał przeciwwagę w postaci software, ekosystem analogowych transmisji i reprezentacji został wystawiony na dziejową próbę, stając w obliczu sieciowości. W nowych okolicznościach, w których linearna percepcja mierzy się z interakcyjnością, materialne formy z wirtualnymi reprezentacjami, skończone kształty z nieustannym przetwarzaniem i remiksowaniem, istniejące schematy poznawcze przestają wystarczać do opisu komunikacyjnego świata.

Jeszcze jedną z prób pojęciowego wskazania na przenikanie i zależności, na rozciągniętą perspektywę rozumienia kodu, software i medialnej wyobraźni, kształty nowego alfabetyzmu można odnaleźć w polskiej literaturze poświęconej tematyce cyberkultury i społecznej obecności cyfrowych technologii komunikacyjnych. Mam na myśli neologizm mindware, który powołali do życia wspólnie artyści nowych mediów, krytycy i animatorzy społeczni wraz z teoretykami kultury w ramach festiwalu Mindware. Technologie dialogu. Był ono dla nich słowem-kluczem służącym do opisania i zrozumienia zmieniającej się rzeczywistości kulturowej, w której coraz większe znaczenia mają cyfrowe technologie. Przenikają one do życia społecznego, stają się ważnymi formami służącymi w pracy artystycznej, są także narzędziami społecznej inżynierii i zmiany. Mindware znaczy w tym kontekście tyle, co struktury myślenia, wyobraźni i wrażliwości kulturowej, w które wyposaża się przez kontakt i używanie nowych technologii każdy ich użytkownik. Mindware to „oprogramowanie” wyobraźni, system operacyjny kultury. Logika myślenia o kulturze cyfrowej i sobie samym w niej[60].

W podobnym duchu na historię mediów spogląda Bruce Sterling, twórca jednego z najbardziej ciekawych projektów sytuujących się na pograniczu archeologii mediów, ich teorii i sztuki, o nazwie Dead media project[66]. Sterling kolekcjonuje media upadłe/niezrealizowane, które z różnych przyczyn wyskoczyły z kulturowych torów, zostały porzucone przez swoich twórców/promotorów czy po prostu zastąpione nowszymi wersjami/interfejsami. Zbiorowym kustoszem tego projektu, obok samego Sterlinga, są wszyscy zainteresowani, dla których została przewidziana rola polegająca na opisywaniu (forma notek tekstowych) i wspólnym katalogowaniu wybranych mediów. Realizowany w ten sposób alternatywny i wyobrażony „skansen” technologii medialnych ma nie tylko znaczenie muzealne, polegające na utrwaleniu niemainstreamowej historii form i gatunków medialnych. To także archeologia, która odsłania niespełnione, wyciszone czy zbyt śmiałe pomysły i wyobraźnie komunikacyjne wraz z kryjącymi się za nimi „interfejsami”, „software” i „hardware” historycznych prawideł, wrażliwości, wiedzy i możliwości. To podróż pomiędzy medialnymi światami utraconymi, wymarzonymi i odzyskanymi; pomiędzy formami, językami i kształtami istniejącymi nieraz tylko w wyobraźni, a czasem przez tę wyobraźnie odrzucanymi, niemieszczącymi się w jej ówczesnych strukturach i kodach. To także doskonały trening uszczegóławiania, kompilowania, remiksowania i loopowania medialnych form, który służy jako poligon doświadczalny dla wszelkich prób myślenia mediami i odnajdywania się w warunkach kondycji postmedialnej. Tu wszystkie media są potencjalnie możliwe, a jednocześnie każde z nich próbuje ustawić się ponad innymi, zawłaszczyć istniejące. Umarłe media dzięki Sterlingowi stały się zapowiedzią i przedmiotem nieustannej de- i re-konstrukcji właściwej postmediacjom.

Wspomniane źródła tworzące zręby nowego alfabetyzmu można, naturalnie, zredukować do szeregu mniej ogólnych konsekwencji. Wiele z nich, często odseparowanych od holistycznego kontekstu, służy jako budulec różnego rodzaju mitologii i strategii politycznych, ekonomicznych i technokratycznych. Jedną z nich jest choćby omówiona już wcześniej narracja Web 2.0 czy mity związane z funkcjonowaniem collective intelligence. Cyfrowa alfabetyczność stała się także przedmiotem troski różnego rodzaju organizacji rządowych, ministerstw i podmiotów międzynarodowych, które – w imieniu dotychczas istniejącego systemu komunikacji społecznej – rozpoczęły szeroko zakrojone działania mające na celu wykorzystanie tej optymistycznej retoryki do realizacji strategii odgórnego dystrybuowania oficjalnie opracowanych i uznanych modeli postępowania z cyfrowymi mediami. Także i nauka na obecnym etapie rozpoznawania i teoretyzowania nowego medialnego świata jest w stanie absorbować jedynie niektóre wątki tej zmiany. Dotychczas wielu teoretyków zabierających głos w sprawie natury cyfrowego alfabetyzmu skupiało się głównie na podkreślaniu jego transmedialności i inspirowaniu kreatywności. Pojawiały się diagnozy mówiące o możliwości skupienia się na ideach przekazywanych przez media zamiast na ich technicznych formach, o wolnym dostępie do informacji, o komunikacji możliwej ponad tradycyjnymi ograniczeniami czasu i przestrzeni [72]. Krytyczną edukację medialną wziął na siebie natomiast dyskurs sztuki mediów wraz z alternatywnymi środowiskami kultury medialnej. Nie wchodząc w ten temat głębiej, stwierdzę tylko, że to instytucjom i organizmom cyberkulturowym nowego typu: medialabom, centrom sztuki nowych mediów, uczelnianym klasterom i hubom, organizacjom pozarządowym, współczesność zawdzięcza zręby krytycznej wiedzy i świadomości cyfrowych mediów i sieci oraz inspirowanie rozwoju zupełnie nowych dyskursów i platform debaty związanych z tymi zmianami [73]. Oficjalne podmioty polityczne, administracja państwowa, instytucje tradycyjnej sztuki i edukacji zdają się wciąż postrzegać zarówno zmianę w medialnym świecie, jak i rekonstrukcję medialnego języka jako przestrzeń, którą da się klasycznymi sposobami i według klasycznych metod okiełznać i wykorzystać – w oparciu o istniejące rozwiązania prawne, instytucjonalne i rynkowe odnoszące się do własności intelektualnej, kontroli nad ekosystemem informacyjnym, dystrybucji techniki, itd.

Jeszcze inaczej formować się będzie świadomość kondycji postmedialnej. W alfabetyzmie postmedialnym rozmyje się/zniknie powszechna świadomość mediacji – podobnie jak w czasach przedmedialnych nieobecna była świadomość języka, dystans wobec niego, który umożliwiają konkurencyjne formy komunikacyjne. Ostatecznym etapem tego recyklingu i stapiania się medialnych form oraz zanikania formuły i świadomości medium może okazać się, przypomnę, zrównanie ról języka i uniwersum technologii komunikacyjnych, zniesienie kulturowych i organicznych barier między naturalnym sensorium i jego technologicznymi alternatywami (mediami). Obawa o taki rozwój wydarzeń towarzyszy refleksji kulturowej od dawna (McLuhan, Postman), jednak kumuluje się ona głównie w nawiązaniach do twardych rozwiązań technologicznych, maszynowych i elektronicznych protez, które zastąpić mają ludzkie organy i inteligencję. Sądzę, że w obliczu zmiany postmedialnej poprzedzą je rekonstrukcje w zakresie kulturowego języka mediów, ich semiotyczna i techniczna antropomorfizacja. Jednocześnie, tak jak ma to miejsce w porządku ontycznym cyfrowego świata, problemy hardware przesłoni software. To ta sfera może spełnić funkcję społecznie dostępnego i dającego się kształtować (programować) języka nowych mediów i to ona, za sprawą swojej multi- i transmedialności, stać się może w pierwszej kolei alterjęzykiem kultury i najważniejszym uniwersalnym kodem żyjących w niej homo communicans.

W ten sposób po epoce oświeconych specjalizacji i obiektywnych, scjentystycznie wyprowadzanych praw przypisanych do różnych dyskursów, dziedzin życia i dyscyplin naukowych powraca holistyczna wizja działania kulturalnego, której historycznie zawdzięczamy np. wspaniały rozkwit kultury renesansowej. W pierwszych słowach Traktatu o malarstwie Leonardo da Vinci, dziś uznawany za najbardziej emblematyczną i modelową z osobowych ikon renesansu, zalecał młodym adeptom sztuki malarskiej, by rozpoczynali swoją karierę od porządnych i wszechstronnych studiów zasad geometrycznych i praw natury. Jedynie wyposażeni w taką wiedzę i wynikającą z niej wyobraźnię będą w stanie oddać idee i kształty w formie obrazów [76]. Florencki mistrz wyraził na kartach swojego podręcznika ówczesne przekonanie dotyczące charakteru pracy artystycznej i zakresu kompetencji i umiejętności, którymi artysta powinien się cechować. Artysta nie może sobie pozwolić na niestaranną i niepełną wiedzę z zakresu matematyki, fizyki, filozofii, chemii, astronomii – wszystkie te zasoby potrzebne mu są do tego, aby był w stanie wypowiedzieć się kompetentnie w obszarze sztuk wizualnych, ale także architektury, rzeźby, muzyki.

W ten sposób sztukę, kulturę i pracę pojmowali także inni renesansowi wielcy mistrzowie, którzy równie twórczo i kompetentnie realizowali się jako inżynierowie, artyści i naukowcy. Tak działali i żyli Filip Brunelleschi, Rafael Santi czy Michał Anioł Buonarotti. W renesansowej praktyce rozmyty został w ten sposób tradycyjny, antyczny podział na techné i episteme, czyli obszar umiejętności związanych z mechaniką, a zatem i materią, oraz wiedzą, którą dziś określamy najczęściej jako teoretyczną. Zarówno w greckiej, jak i rzymskiej hierarchii wiedza i umiejętności związane z materią i jej mechaniką, czyli rzemieślnicze, oceniane były najniżej. Postrzegano je jako najmniej godne człowieka wolnego. Artyści cinquecento byli jednak z wyboru zarówno filozofami, jak i rzemieślnikami, równie sprawnie pracowali w obszarze idei, jak z materią. Da Vinci i jemu współcześni postawili sprawę jednoznacznie: sztuka to nauka, dzieło artysty jest zarówno ideą do wiedzy dzięki nauce się odnoszącą, jak i jej materialnym przejawem. Sam Leonardo u schyłku życia jednoznacznie definiował siebie samego jako człowieka nauki, niechętnie posługując się w kontekście kategorią „artysta” [77].

Za sprawą sztuki mediów i jej twórców wiedza i nauka na nowo trafiają do świata sztuki. Trudno przecież w obliczu niezwykłego zaawansowania technologicznego mediów uprawiać ich sztukę, kiedy nie dysponuje się wiedzą z zakresu programowania, optyki, fizyki, inżynierii, typografii, itd. Artyści pracujący w tym obszarze są z tego powodu współczesną awangardą sztuki w ogóle. Model artystycznej pracy z mediami powiela się w pracy programistów i inżynierów medialnych, którzy nie posiadając wiedzy z zakresu projektowania graficznego, typografii, psychologii kolorów, antropologii interakcji, nie są w stanie ani przemyśleć, ani realizacyjnie doprowadzić swoich projektów samodzielnie do końca. Homo faber pracujący z nowymi mediami uwikłany/skazany jest na nieustanne odnoszenie się do różnych gałęzi rozproszonej po dyscyplinach wiedzy i jej integrowanie w ramach realizowanych z mediami działań. To rzemieślnik technologicznej, medialnej materii (hardware) i filozof, teolog medialnych idei (software) – artysta, który w swoich dziełach integruje te sfery i nadaje im kulturową, tj. estetyczną twarz. Peter Weibel, jeden z najważniejszych współcześnie artystów medialnych oraz kurator sztuki mediów i jej organizator, podsumowuje, wyrażając przekonanie wielu przedstawicieli tego środowiska, tę bliskość parafrazując znane słowa Erazma z Rotterdamu: artysta mediów nie może być głupi – musi być naukowcem! [78] W tym holistycznym i renesansowym duchu sens projektu cyfrowego postrzega także polski badacz nowych mediów i ich sztuki Piotr Zawojski, który definiując cyberkulturę podkreśla syntopijny związek sztuki, nauki i technologii na nią się składających [79].

Trudno ten paradygmatyczny zwrot postulowany przez Shneidermana rozumieć inaczej, jak tylko na zasadzie odwrócenia procesów zaobserwowanych przez Arendt. Tak jak niegdyś nowoczesny animal laborens zastąpił w medialnym świecie homo faber, tak dziś, w cyfrowych okolicznościach, dochodzi do emancypacji konsumenta/odbiorcy podejmującego na nowo rolę medialnego rzemieślnika: twórcy i wytwórcy. Laptop Leonarda – taki tytuł dał swojej książce Shneiderman – to komputeryzacja w rękach człowieka renesansu, będącego zarazem artystą i programistą, architektem i elektronikiem, znawcą anatomii i specjalistą od baz danych i wyszukiwarek. Medialny homo faber holistycznie obejmuje praktykowanie technologii cyfrowych i sieciowych jako zarazem artystyczną i techniczną, materialną i ideową, komunikacyjną i poznawczą aktywność. Na obecnym etapie rozwoju sztuki, technologii i kultury mediów cyfrowych najbliżej do tego modelu artystom mediów. Znacznie trudniej w takiej praktyce działania odnaleźć się technologom i technokratom przekonanym o wyższości oświeceniowej wizji techniki i wiedzy. To wyzwanie dla obu postaw, aby w cyberkulturowym pędzie współczesności uzgodnić wzajemne relacje i na nowo zdefiniować kompetencje kulturowe związane z tworzeniem wiedzy i jej relacjami z rozwojem technologicznym i jego cyfrowymi formami. Pozostaje pytaniem otwartym, o ile unikalne rozumienie i konstruowanie świata ludzi renesansu okaże się wartościowe i pożądane dla stymulowanych przez cyfrowe maszyny medialne współczesnych modeli i strategii życia [82].

Biomediacjom wiele uwagi poświęcają dzisiaj przede wszystkim artyści mediów. To im nowomedialny dyskurs zawdzięcza sformułowanie i stawianie najważniejszych pytań i krytyczną eksplorację obszaru. Tej problematyce swoją działalność artystyczną poświęcili tacy ważni artyści mediów, jak: Edouardo Kac [92], który eksperymentuje z manipulacjami kodem genetycznym, czy Paul Vanouse, który obnaża kulturową problematykę DNA. Innym tropem idą artyści pracujący z interfejsami i za ich pośrednictwem starający się dotrzeć do biologicznego rdzenia osobowości i organizmu. Chodzi im o omijanie ograniczeń naturalnego ludzkiego sensorium i komunikację za pomocą wyrafinowanych interfejsów bezpośrednio z mózgiem. Tak pracuje np. japoński artysta i teoretyk nowych mediów Kiyoshi Furukawa badający fale mózgowe [93].

Z powyższych odniesień wynika, iż cyfry i matematyka stały się uniwersalnym kodem (niezależnie od sposobów jego definiowania), w który wyposażona została cyfrowość – posługują się nim jej technologowie, którzy informują maszyny co do sposobów działania (np.: BIOS, protokoły internetowe); programiści, którzy w oparciu o te instrukcje wykonawcze tworzą mniej lub bardziej zaawansowane aplikacje, systemy operacyjne, języki kodowania; projektanci interfejsów, którzy czynią te ciągi cyfrowego kodu zrozumiałymi dla użytkowników cyfrowych maszyn. W roku 2003 najważniejszy na świecie festiwal mediów cyfrowych i ich sztuki ARS Electronica zatytułowany został CODE – The Language of our Time. Kurator festiwalu w jego tytule zawarł wtedy pytanie natury zasadniczej: o to, czy w okolicznościach cyfrowej rewolucji jej digitalny kod można uznać za współczesną postać lingua franca? W jego przekonaniu, które wyraził w postaci potrójnego równania: Code=Law, Code=Art, Code=Life, cyfrowy kod i zasady jego wykorzystania stały się czymś jeszcze bardziej doniosłym i powszechnym. Kod i kodowanie osiągnęły nie tylko status uniwersalnego języka komunikacji medialnej, który programuje medialne formy i wytycza zasady gramatyki komunikacji w cyfrowej współczesności. Także i współczesna sztuka staje się funkcją cyfrowego kodu, a myślenie w jego duchu i działanie zbliżone do kodowania cyfrowego obserwować możemy w biologii w zakresie kodu genetycznego [111]. Stocker pisze:

Sformułowana przez Stockera teza to jedna z wielu podobnych konstatacji i deklaracji, które w ostatnich kilkunastu latach podnoszone są w obszarze sztuki, inżynierii, edukacji – kultury w ogóle. Tymi tropami myślenia do obiegu kultury popularnej przeniknęły intuicje, które pojawiać się zaczęły wraz z niezwykłym impetem rozwoju projektu cyfrowego w owym czasie. Festiwal jako pierwszy spośród dyskursów w obrębie sztuki, teorii mediów i analiz socjologicznych wyniósł cyfrowy kod i software na szczyt medialnej piramidy form i postrzegł je jako najważniejsze historycznie medialne narzędzie. Diagnozę tę dobitnie potwierdził pięć lat później Lev Manovich, deklarując, iż software, który na tym etapie rozważań można uznać za interfejsy kodu, przejmuje kontrolę nad kulturą mediów (Software Takes Command). Amerykanin poszedł jeszcze dalej, wysnuwając z zaobserwowanego stanu rzeczy radykalne wnioski dla statusu wiedzy o mediach: zasugerował konieczność przejścia od tradycyjnych metod i paradygmatów stosowanych w ich badaniach do nowej formuły software studies. Software nie tylko rządzi światem mediów; świat mediów poza software odchodzi do analogowego lamusa. Hardware jako centrum wydarzeń w historii komunikacji musi podzielić się władzą z domeną kodu i jego wewnętrznej gramatyki: składni, semantyki, ontologii i aksjologii.

Przenikanie, obnażanie i hakowanie cyfrowego kodu mediów jest także jedną z najważniejszych strategii artystycznych podejmowanych w domenie sztuki mediów cyfrowych. Cyfrowy kod i software postrzegane są przez kulturę cyfrowości z jednej strony jako domena nieustannego konstruowania i projektowania designerskiego, interfejsów, języków komunikacji, a z drugiej – tu pojawiają się subwersywne wrażliwości pracujących z tymi mediami artystów – jako obszar nieustannej pracy krytycznej, dekonstruowania zaszytych w kodzie znaczeń, polityk, estetyk, mitologii.

Niezależnie od takiego odsłaniania tekstualności kodu i cyfrowości pisma oba porządki jedynie z pozoru są wymienne i kompatybilne. Cyfrową gramatyką, syntagmą, jej potencjalną/przygodną estetyką, czy estetyzacją, rządzą reguły wyznaczone przez zjawisko elektryczności i odczytujących jej zasady fizyków oraz inżynierów zajmujących się ich technologiczną translacją wobec wymogów materiałowych, systemowych i innych związanych z hardware. W obliczu kondycji postmedialnej można uznać, że najlepszym dostępnym dziś paratekstualnym interfejsem łączącym gramatyki technologii z gramatykami kultury lingwistycznej i tekstualnej pozostaje wciąż matematyka, a w szczególności logika, geometria i algebra.

Analogiczna wobec sytuacji językowych i piśmiennych intuicji w obszarze kodu cyfrowego jest sytuacja muzyki i jej nutowego zapisu. Muzykę jako taką znamy przecież prymarnie jako przestrzenną i czasową aranżację dźwięków. Odkąd istnieje muzyczny kod, język muzyki, czyli zapis nutowy, także i ta sfera kultury stała się przestrzenią manipulacji kodem. Nuty zdobyły w niej rolę instrukcji wykonawczych, które trudno porównać z pismem – ich układy wyznacza bowiem kulturowy duch piśmienności (wytyczający formę zapisu nutowego), ale i matematyczna gramatyka innego rodzaju, odwołująca się do zjawisk takich jak harmonia, skala, itd. Podobnie jak cyfrowe, tak i muzyczne kody nutowe można postrzegać jako teksty i tak je czytać/pisać, jednak to działania praktykowane głównie przez obnażających paradoksalność takich strategii artystów i intelektualistów, takich jak Takehisa Kosugi, Sylvano Bussotti, Iannis Xenakis, John Cage czy Randy Raine-Reusch.

Próby tradycyjnej implementacji zapisów kodu, które zostały zestetyzowane przez designerów czy artystów nieograniczających się do bieżących reguł spełniają przede wszystkim funkcję eksperymentu, poszukują nowych możliwości transgresji i kontekstów dla istniejących kodów, starają się przekraczać ich formalne ograniczenia i kulturowe naleciałości. Estetyzowane wizualnie partytury nie przekładają się na łatwostrawną, „przyjemną dla ucha” muzykę – są za to inspirujące na poziomie ideowego dyskursu muzyki współczesnej, otwierają przed nim nowe pola eksploracji, takie jak sonoryzm, czy sytuacjonizm.

Podobne do odbywających się w polu akustycznym eksperymenty z kodami prowadzone są w obszarach języka innych medialnych form i ich kodów. Takie działania podejmowane są zarówno w polu wizualności cyfrowej, jak i dotyczą kodu binarnego i różnych postaci wynikających zeń warstw i języków software. W przypadku eksperymentów i poszukiwań wizualnych za przykład wybrać można projekt fotografii cyfrowych Susan Collins, która manipulując softwarem i hardwarem aparatów cyfrowych, tworzy fotografie „rozciągnięte” w czasie. Powstają one stopniowo, co jakiś czas matryca światłoczuła reaguje na światło z otoczenia, ale aktywizując na tę okoliczność jedynie fragment swojej powierzchni. Dopiero suma fragmentów sfotografowanych w różnym czasie, choć przedstawiających tę samą scenę, tworzy pożądaną kompozycję. Na zdjęciach Collins, takich jak powstałe w ramach projektu Glenlandia, przenikają się dni i noce, różne warunki atmosferyczne, ruch światła i epizodyczne zmiany krajobrazu – czasoprzestrzeń ulega załamaniu w taki sposób, aby poddać się technologicznemu kodowi postrzegających ją medialnych maszyn. Widać na tych fotografiach upływający czas, choć ich percepcja wymaga stosownej wiedzy i dystansu wobec kodów medium fotografii [121].

Upiśmiennianie kodu czy jego wizualne porządkowanie to praktyki, które obejmują jedynie fragment rozległego terytorium cyfrowości. Wraz z upowszechnianiem się mediów cyfrowych i kolejnymi software’owymi nadbudowami na pierwotnej postaci kodu maleje technologiczna kultura, wiedza o „gramatyce” posługiwania się kodem. Software, szczególnie ten, który pisany jest amatorsko, jest często niepoprawny, zawiera podstawowe błędy składniowe, jest nieelegancki, wymaga daleko posuniętych korekt, by dało się go uruchomić na maszynie. Taki stan software’owego tekstu powoduje, że jego egzekwowanie przez komputer staje się sprawą zarówno obciążającą, jak i ryzykowną, zawierającą luki i mało wydajną. Software nie piszą już wyłącznie wirtuozi, którzy dbali o higienę kodu, ale także, a może przede wszystkim, najbardziej spektakularne dziś sekwencje kodu, które zdobywają popularność i publiczny poklask, stają się rozwiązaniami wyrażającymi ducha pokolenia, okazują się bloatware – oprogramowaniem niewydajnym, powolnym, zawierającym w sobie przestarzałe sekwencje. Upowszechnienie kodowania powoduje upadek etosu „sztuki kodowania”, która z kodeksu kodu uczyniła jedną z najbardziej abstrakcyjnych dyscyplin logicznych i matematycznych. Bardziej od radykalnej czystości i piękna prostoty kodu liczą się dzisiaj jego zdolności aplikacyjne w różnych środowiskach, pożądane reakcje na jego obecność wywoływane w różnych interfejsach, bazach danych i środowiskach. Ważniejsza niż matematyczna i logiczna perfekcja abstrakcyjnych rozwiązań okazuje się w praktyce software skuteczność danego rozwiązania, jego interfejsowa poetyka, a nie wewnętrzna składnia i syntagma. Najbardziej powszechnym kontekstem takiego myślenia o kodzie i jego wcieleniach są gry wojenne odbywające się w przestrzeni kodu, w których biorą udział wszelkiej maści złośliwe aplikacje – malware, wirusy czy różnego rodzaju antysystemowe algorytmy. Ich rola da się sprowadzić do doraźnego rozbiciu jednolitości kompilacji kodu i wykorzystania powstałych w ten sposób luk do przeprowadzenia ataku, wykradania danych czy blokowania zainfekowanych maszyn.

Najważniejszym z nich jest dziś domena biomediów i związany z nią dyskurs poszukujący w prawidłach ewolucji materii ożywionej, a także w kształtach i regułach dających się zaobserwować w naturalnym rytmie i formach życia, odpowiedzi na zasadnicze pytania związane z technologią, komunikacją i kulturą. Jednym z najbardziej fundamentalnych założeń tego nurtu, które jest jednocześnie jego najbardziej kontrowersyjną tezą, jest uznanie za kod sekwencji informacji genetycznych DNA i postrzeganie ich w duchu teorii cybernetycznych i praktyk inżynierskich. Uznanie DNA za kod w takim rozumieniu oznacza dopuszczenie wszelkich jego software’owych, protokołowych i algorytmicznych modyfikacji, których działanie wobec żywej materii trudno nawet wstępnie oszacować. Spotkanie digitalnej inżynierii i jej matematycznej poprawności już jest, a w przyszłości z pewnością będzie coraz bardziej kontrowersyjne, będzie domagać się renegocjacji podstawowych ustaleń aksjologicznych, ontologicznych, prawnych i politycznych. Rozdzielone za sprawą Kartezjusza i oświeceniowej logiki myślenia nowoczesnego ciało i duch, myśl i materia zyskują w postaci inżynierii kodu genetycznego swoją najbardziej wyrafinowaną formę. Nie będę jednak wchodził szczegółowo w tę tematykę, jest zbyt pojemna i wejście takie wymagałoby zupełnie innego rozłożenia akcentów. Skupię się natomiast na jednym z wątków, który sytuuje się nieco na uboczu cywilizacyjnych rozważań o biomediachbiomediacji, a dotyczy bezpośrednio biologicznych inspiracji kodowania cyfrowego i sztuki mediów cyfrowych.

Studia biologii życia, rezultaty analizy reguł i postępów ewolucji stają się – na skutek uznania tajemnicy rozwoju życia za kod – referencyjną matrycą dla cyfrowego świata. Problemy, które napotkało przez miliony lat życie, i sposoby radzenia sobie z nimi są dla podejmujących ten wątek myślenia o cyfrowym świecie otwartą księgą wypełnioną samoistnie zaszyfrowaną wiedzą, której charakter nie sposób przecenić. Odpowiednio przygotowane wejrzenie w genetykę i jej procesy przypominać może zastosowanie się do reguł podręczników stylu i gramatyki. Czytanie genetyki to sięganie po gotowe, sprawdzone już w najlepszych/najtrudniejszych warunkach testowych rozwiązania strategiczne i taktyczne. Tak jak kosmos/Bóg napisał kod genetyczny, tak i my, dzisiejsi koderzy cyfrowego świata, możemy pisać swoją cyfrową rzeczywistość. CTRL+C i CTRL+V z kodu absolutu – oto jest wyzwanie rzucone przez biomediabiomediacje w obszarze cyfrowego świata! Stan natury jest przecież czymś dalece bardziej złożonym i inspirującym niż poziom zaawansowania matematycznego, technicznego i kulturowego cywilizacji ludzi. Natura jest ponad zdefiniowane w tych dyskursach kategorie piękna, wyobraźni, racjonalności, logiki, kreatywności, adekwatności, itd.

Trzymając się tej biomedialnej metaforyki kodu pójdźmy jeszcze dalej w nasączaniu nią cyfrowego myślenia. Podejmując się takiego poetyckiego i jednocześnie racjonalnego zadania P. J. Bentley, artysta mediów cyfrowych i ich krytyk, tak te dwa światy zestawia:

Ewolucja to główny programista systemów naturalnych. Geny są kodem wykorzystywanym w tym programowaniu. Ewolucja samosteruje się przez dobór najlepszych wersji software, które na bazie tego kodu udaje jej się wygenerować. […] Te najlepsze wersje poddaje nieustannym adaptacjom i poprawkom […] To, co działa, zostaje na stałe zaszyfrowane w genetycznym kodzie życia, a co nie, zostaje odrzucone. […] W taki brutalny sposób kod pilnuje swojej życiodajnej wydolności i zabezpiecza przetrwanie wszystkiego, co żyje. […] Natura jest systemem autoprogramującym i samodesignującym się [122].

Dziś te i podobne pytania biomediacjom zadają przede wszystkim artyści mediów, tacy jak Edouardo Kac, Paul Vanouse. Ich kontrowersyjne i pionierskie zarazem prace wydają się wybiegać daleko w przyszłość kultury, natury i techniki – jeśli jednak zestawić je z dokonaniami przemysłu farmakologicznego, chemicznego, medycyny czy wojska, to widać, jak bardzo teraźniejsze problemy wchodzą tu w grę [123].

Wokół poetyki kontestacji i psucia kumuluje się kodowa opozycja szukająca swojej szansy na inną, alternatywną wobec zarządzanej przez polityczno-społeczno-kulturalny system cyfrowej i sieciowej rewolucji. Kodowanie sieci jest dla mediów taktycznych i ich twórców najważniejszym orężem w walce przeciwko centrom władzy; zarówno tym zaszyfrowanym w protokołach i software, jak i tym istniejącym w tradycyjnych formach instytucji, regulacji prawnych, technologii. Cyfrowa przestrzeń, która z jednej strony okazuje się podatna na systemowe przekształcenia w kierunku panoptycznego narzędzia nadzoru i kontroli społecznej, jest jednocześnie rozumiana przez siły społeczne i kulturowe jako przestrzeń konstruowania wielorakich taktyk alternatywnych i opozycyjnych. Wyrafinowanymi przykładami działania w duchu mediów taktycznych są akcje podejmowane przez amerykański kolektyw artystyczny The Yes Men. W roku 2003 podczas kampanii towarzyszącej wyborom prezydenckim w USA grupa sklonowała stronę internetową G. Busha i zamieściła na tej „pirackiej” wersji materiały krytyczne wobec tego kandydata, pozorując oficjalne doniesienia medialne. Innym razem we współpracy z organizacją Greenpeace za pomocą uruchomionej pod adresem ArcticReady.com parodystycznej strony grupa pokusiła się o prześmiewczą krytykę polityki korporacji Shell związanej z wydobyciem ropy na terenach arktycznych, pozorując oficjalny serwis internetowy naftowego giganta [149].

Zjawisko drugie można zaobserwować wśród artystów i teoretyków sztuki mediów, a także wśród badaczy obu tych sfer, dla których – pod naporem cyfrowości – prześwietlanie i odsłanianie cyfrowego kodu stało się zwieńczeniem tradycji krytycznej pracy z mediami w ogóle. Obecność cyfrowego kodu w domenie cyfrowej, w której spełnia funkcję kodeksu operacjonalizującego działanie medium, stała się powszechnie łatwo namacalnym dowodem na obecność unikalnych kodeksów i gramatyk wewnątrz technologii komunikacyjnych. Co prawda już od McLuhana mamy świadomość, że the medium is the message, ale dopiero strukturalne wyodrębnienie kodu binarnego i nakładanych na niego warstw wyższego rzędu, czyli software, obnaża taki układ mediacji. Cyfrowy kod stał się w oczach sztuki mediów i wiedzy o nich elementem, który domaga się krytycznej analizy oraz estetycznego obnażania. W związku z tą jego autonomią jednym z najbardziej frapujących kierunków rozwoju krytycznej wiedzy o mediach, jak i sztuki mediów cyfrowych stało się podglądanie i obnażanie kodu mediów tej sztuki. Chodzi tu o działanie podwójne, które, z jednej strony, ma na celu objaśnianie, odszyfrowanie unikalnej gramatyki kulturowej medium, jego specyficznego języka, który decyduje o tym, jak wygląda komunikacja za jego pośrednictwem, oraz, z drugiej strony, zestawienie tego „języka” zasadami kodu binarnego, który ten „język” wchłonął. Na skutek konwergencji technologicznej wszelkie wcześniejsze formy artystyczne, które zostały zdigitalizowane, dostały się we władanie software, stały się programowalnym kodem i weszły w reakcje z logiką hardware, interfejsów, baz danych, sieciowych przesyłów i interaktywnych wywołań. Ta samo prawidło cechuje perspektywę teorii mediów, które w cyfrowości odnajdują ślady dawnych mediów. Tym samym krytyka kodu to zarazem krytyka tożsamości medialnych „języków” i technik jak i ich matematyczno-elektrycznego alter-ego, ich binarnych szyfrów i kodyfikacji [160]. Zarówno sztuka, jak i nauka stają przed sytuacją, w której to kod i jego reguły (protokoły, systemy operacyjne, software) dyktują dalsze warunki ich uprawiania, stają się przestrzenią dla ich uprawiania i odniesienia [161]. Można powiedzieć, że cyfrowy kod stał się w ten sposób metakodem medialnego uniwersum, a jego zasady prawem medialnego świata w domenie cyfrowej.

W tej części książki zajmę się zmieniającym się w duchu opisanego przez Bachmana bazodanowego zwrotu ekosystemem cyfrowego świata i jego kulturowego otoczenia. Będę się wywołanym wraz z obecnością baz danych zmianom i zależnościom przyglądać szeroko, osadzając je w kontekście ogólnych zmian społeczno-kulturowych, diagnozujących je dyskursów i mitologii, jak i starać się zrozumieć kulturową energię, którą ta technologia emanuje zmieniając naszą codzienność i nasze o niej wyobrażenia. Sądzę, że opisany przez Bachmana zwrot wewnątrz cyfrowego uniwersum jest tożsamy z najważniejszymi kulturowymi przemianami dokonującymi się w kulturze współczesnej. Bazy danych wpisują się w klimat decentralizacji, stawania się kultury mniej opresyjną, homogeniczną, a za to oddaną we władanie przeciętnym użytkownikom/twórcom, otwartą formalnie i semiotycznie na ich potrzeby i zależną od podejmowanych przez nich działań. Bazodanowe środowisko sprzyja rozumieniu świata i kultury jako zbiorów elementów podatnych na przeróżne scenariusze zarządzania i porządkowania. Wchodzącemu weń/z nim w kontakt oferuje pozycję rzemieślnika i artysty, który projektuje układy architektoniczne, zarządza relacjami pomiędzy poszczególnymi elementami, reguluje przepływy znaczeń i ładunków elektrycznych pomiędzy nimi. To reguły bazy danych umożliwiły kulturę uczestnictwa, kulturę użytkownika czy Web 2.0.

Bazodanowa ekologia to w tym dualnym kontekście emblematyczna dla postmedialnej kondycji sytuacja: bazy danych heterogenizują medialne i technologiczne środowisko; oferują konsumentowi mediów nową poetykę, estetykę i władzę (wariacji i remiksu) przyćmiewając dotychczasowe uzurpacje autorów i tekstów (nadawców, kontrolerów, gatekeeperów i samych mediów w ich technologicznych gramatykach i instytucjonalnych i społecznych platformach). Victoria Vesna, znana nowomedialna artystka i teoretyczka, wstęp do redagowanej przez siebie antologii poświęconej sztuce danych i estetyce baz danych zatytułowała Zobaczyć świat w ziarenkach piasku. Bazodanowa estetyka wszystkiego (Seeing the world in the grain of sand: the database aesthetics of everything [175]) i myślę, że ten tytuł dobrze oddaje klimat towarzyszący kulturoznawczemu dyskursowi, który podejmuje temat wpływu elementów konstytuujących świat nowych mediów na przestrzeń kultury i życia społecznego. Rzeczywistość (kultura, natura, my sami) konstruowana w podobnych odczytaniach składa się z atomów (i odpowiadających im bitów), czyli metaforycznych ziarenek piasku. Na różne sposoby możemy nimi – zarówno w sensie fizycznym jak i przede wszystkim metaforycznym – zarządzać, tworząc mniej lub bardziej trwałe/unikalne/powtarzalne kompozycje, układy i kształty. Świat z ziarenek piasku jest elastycznym tworem gotowym przyjąć dowolny kształt, który mu nadaje ręka budowniczego.

Myśleć bazodanowo znaczy uznać atomistyczną konstrukcję wszechświata, życia i kultury jako stan naturalny, w którym dokonują się nieustanne rekonstrukcje, w którym atomy/bity są w nieustannym ruchu poddane coraz to nowym zarządzeniom, przybierają nieustannie nowy kształty, i nauczyć się w nim żyć. Myśleć bazodanowo o kulturze i komunikacji oznacza więc, że o ich składowych, czyli zasobach informacyjnych, myśleć należy w taki sam sposób, w jaki myślimy o cyfrowych bitach. Informacje, a na nie składają się przecież wszystkie kulturowe znaczenia, znaki, reguły komunikacyjne, podobnie jak atomy materii, ta wyobraźnia rozpoznaje w nieustannym ruchu – są jak ziarenka piasku w dalekowschodnich mandalach, częściami nigdy nieokrzepłej kompozycji, którą kultura ustanawia/odbudowuje/podtrzymuje wciąż na nowo.

Do mitycznej metafory kultury Arki Noego sięga Peter Weibel, medioznawca kierujący jednym z najważniejszych na świecie miejsc sztuki mediów – ZKM w Karlsruhe, pisząc o bazodanowych losach tradycyjnych instytucji imformacyjnych [195]. Mit arki przyłożony do rzeczywistości dzieł sztuki i ich kulturowej cyrkulacji wynika z zasady selekcji, oddzielania rzeczy wartościowych od zwykłych; tak jak Noe dbał o to, aby w ograniczonej kubaturze zbudowanej przez niego łodzi zmieściły się najbardziej wartościowe i reprezentatywne elementy świata przyrody, by ocalić je przed zagładą, tak i tradycyjny obieg kultury opiera się na zasadzie selekcji i koneserskiej pieczołowitości katalogowania. Trudno o miejsce w arce kultury – rozciągnę Wei­blowską metaforę na szerszy niż tylko współczesna sztuka obszar – bo ich ilość jest ograniczona, a podejmowane przez następców Noego decyzje pozostawiają poza jej pokładem wiele mniej lub bardziej wspaniałych gatunków i form, tekstów i obrazów. Arka jest synonimem kultury masowej, w której przez wąskie gardło elitarnych instancji znawców i specjalistów przedostają się jedynie te „dane”, które uznają oni za wartościowe i pożyteczne z określonego ideologicznie punktu widzenia. Te ich decyzje mają podłoże ekonomiczne, polityczne, światopoglądowe.

Przeciwieństwem kultury selekcji jest dla Weibla kultura Web 2.0. Pomijam w tym miejscu spory na temat zasadności i ograniczenia tego sformułowania, podzielam – podobnie jak sam Weibel – ponad nie jego olbrzymią siłę semantyczną, której sens wynika z prostej zakodowanej (zaprojektowanej designersko na poziomie samego znaku) w nim konstatacji o radykalnej zmianie w obszarze kultury medialnej. W logice 2.0 Weibel upatruje fundamentów nowego krajobrazu kultury. Rolę analogowej arki zajmują w nim dyskowe przestrzenie magazynowe, które oferują swoim użytkownikom nieograniczoną chłonność i dostępność. Pomieszczą każdą ilość cyfrowo zakodowanych opowieści o świecie, jego digitalnych reprezentacji i alterwersji (technologiczne marzenia o infinity storage). W obliczu gigantycznych baz danych otwierających swoje podwoje na wielu poziomach naszej immersji w cyberprzestrzeń, a w szczególności metabazy danych (jednocześnie bazy metadanych), jaką jest Internet (na ten temat więcej niebawem), metafora arki wyczerpuje swój dotychczasowy sens. Kultura nie jest już (wpływ tego mechanizmu jest radykalnie osłabiony i ograniczony do wybranych obszarów rynkowych, politycznych, gospodarczych, takich jak instytucje kultury, jej ministerstwa, fundacje organizujące prace artystów i wydarzenia kulturalne) zasobem poddawanym selekcji (cenzurze) elit koneserów i urzędników, limitowana przez znawców i systemy cyrkulacji. Wraz z pojawieniem się cyfrowej nakładki na rzeczywistość stała się miejscem schronienia dla wszystkich chętnych. Sceną, na której amatorzy pokazują mniej lub bardziej udane, unikalne i powielane po wielokroć dzieła (teksty). W tym nowym krajobrazie masy produkują na masową skalę sztukę (kulturę) dla samych siebie, nie dbając o jakiekolwiek uwierzytelnienia czy świadectwa jakości ze strony starego systemu elit i ich oragnzacji. Ekosystem baz danych oznacza kulturową platformę sztuki dla mas tworzonej i konsumowanej przez nie same.

Co jednak w takim razie z tradycyjnymi instytucjami, takimi jak muzeum, szkoła, uniwersytet, biblioteka, galeria, archiwum w obliczu tych przeciwieństw? Wszystkie one działają w duchu elitarnych selekcji informacji i masowej, bezzwrotnej ich transmisji. Weibel słusznie obawia się o ich motywacje i zdolność do adaptacji. Dla wielu instytucji zmiana 2.0 oznacza w perspektywie radykalny kryzys tożsamości. Wiele z nich z pewnością okaże się mało podatnych na zmiany, nie mając na nie, na dodatek, ani ochoty, ani niespecjalnie czując potrzebę adaptacji do nich. Jeśli taką zdystansowaną postawę uznamy za reprezentatywną dla oficjalnej polityki państw i poszczególnych sektorów działań kulturalnych i społecznych, to wokół sporu o oficjalną selekcję i dystrybucję informacji oraz nowe społeczne formy i cyrkulacje informacji może narastać nie tylko finansowy czy polityczny konflikt, ale także pokoleniowe, cywilizacyjne pole sporne i objawiać się mogą potencjalne przestrzenie nowego rodzaju wykluczenia kulturowego i społecznego. Do tego wątku powrócę jeszcze przy okazji rozważań na temat alternatywnych obiegów danych.

Przyjrzałem się w zarysie danym i ich bazom. Starałem się w tym wprowadzeniu naszkicować głównie ich hybrydyczną naturę: obiektowego hardware i procesualny wymiar na poziomie software. Teraz zajmę się ich kulturowym otoczeniem i społeczną absorpcją/emanacją – figurą bazy danych i wynikającymi z jej kształtu kulturami danych. Baza danych to w tym kontekście zestaw reguł, „filozofia” porządkująca informacyjny świat czy też będąc bardziej dosłownym: kulturowa logika organizująca rozproszony i sfragmentyzowany cyfrowy ekosystem informacyjny. Myślenie bazami danych, działanie bezpośrednio w bazach i za ich pośrednictwem, organizuje komunikacyjny i medialny świat, którym zarządzamy dziś tak, jak zarządzamy cyfrowymi danymi. Duch danych i zarządzania nimi na dobre zadomowił się już w takich współczesnych dyskursach cywilizacyjnych, jak genetyka, ekologia informacyjna i polityka zarządzania informacjami, literatura, muzyka i technologie jej rejestracji i reprodukcji, sztuki wizualne i wizualność w ogóle, architektura czy moda. Będę analizował przypisywaną do tej logiki semiotykę i konstruowaną nieustannie ich społeczną ekonomię. Prześwietlę wybrane elementy informacyjnego krajobrazu, zawarte w nim polityki, estetyki i mediacje, które mają związki z danymi. W ten sposób sprawdzę, jak powstaje i jak już teraz wygląda bazodanowa wyobraźnia kulturowa – do czego będzie nas skłaniać jej obecność i jakie reguły poznawcze i komunikacyjne wypracuje?

Czy istnieje i jaka jest ta mglista, bazodanowa „filozofia” świata? Wim Wenders, bodaj najważniejszy tworzący współcześnie reżyser europejski, który w swoich filmach podejmuje nieustannie pytania o kondycję kultury i sens obrazów, w jednym z wielu dawanych ostatnio wywiadów takimi słowami opisuje stan kultury:

Rzeczywistość została rozbita. Współcześni artyści zrobili z nią to samo, co dwudziestowieczni fizycy z materią. Podzielili ją na atomy. Nie tylko czas stał się w niej relatywny, również przestrzeń i dźwięk. Teraz wszystko można dowolnie skrzyżować, ustawić, zderzyć, ścieśnić ze sobą albo poddać eksperymentom, o jakich nikomu się nie śniło [196].

Te słowa, podobnie jak wiele innych formułowanych mniej lub bardziej bezpośrednio, w obszarze dyskursu sztuki, nauki i kultury ogólnie uznaję za diagnozę postmedialnej kondycji bazodanowej. Wendersowska konstatacja ma w związku z tym wielorakie odniesienia praktyczne i teoretyczne, odwołuje się do wielu różnych przemian i metafor współczesności. Te inspiracje wskazałem już na początku bieżącego rozdziału – dotyczą one przygodności doświadczenia świata, ryzyka bycia w nim, płynności jego form i rekonstrukcji kulturowych ról autora, odbiorcy, konsumenta, twórcy i właściciela. Idąc tym tropem pora odpowiedzieć na pytanie o to, jak, wychodząc poza technologiczny żargon, zrozumieć kulturowo figurę bazy danych? Do jakich znaczeń, wartości i tradycji w myśleniu i działaniu sięgać w tym celu? Odwołam się odpowiadając na te pytania zarówno do kulturowych mitów i ich symboli, jak i do teorii humanistycznych i z zakresu nauk społecznych.

Kulturowe rozpoznawanie i oswajanie logiki zakodowanej w bazie danych nie jest zjawiskiem jedynie współczesnym, odnoszącym się wyłącznie do krótkiej historii technologii cyfrowych. Bez odpowiedniego podłoża kulturowego, na które składa się zbiorowa wyobraźnia kulturowa, oddziaływanie systemów społecznych i politycznych, prawa, niemożliwe byłoby pomyślenie ani tworzenie baz danych w ich dzisiejszej, cyfrowej formie technologicznej. Wśród wielu tropów, które ku bazodanowej wyobraźni prowadzą, jeden ma znaczenie szczególne. Chodzi o mit/figurę/metaforę „drzewa życia”, który okazał się uniwersalną w historii różnych kultur, religii i systemów politycznych opowieścią o sensie życia i porządku świata. Mit ten odwołuje się do kształtu i organicznej struktury drzewa (liściastego): jego rozłożyste konary i gałęzie symbolizują wielość dróg, które schodzą się ostatecznie w jednym miejscu: hierarchiczny kształt to obraz sposobów poznania i generalny kształt wiedzy; podziemne ukorzenienie i nadziemne rozgałęzienie wskazują na przemijanie a także, w sensie szerszym, są modelami porządku komunikacyjnego, społecznego i kulturowego.

Po gałęziach tego drzewa wędruje w ciągu swojego życia człowiek-pielgrzym, starając się dotrzeć z zapisanego mu początku istnienia do miejsca pożądanego. Hierarchicznym drzewem są w konsekwencji tradycyjne systemy społeczne, religijne i polityczne z monarchą-pniem i ludem bożym-liśćmi, drzewiasta jest wiedza i edukacja w swoim rozkładzie na dyscypliny i sposobach ich transmisji do obywateli, wreszcie drzewiasty model komunikacji realizują także systemy technologiczne mediów masowych (analogowych), wypełniające wzorcowo bezzwrotny model transmisji jeden-do-wielu.

Dywersyfikująca się wokół figur drzewa i sieci wyobraźnia kulturowa różni społeczeństwa tradycyjne od nowoczesnych, hierarchiczne od liberalnych. Żyjące według nich i praktykujące je społeczeństwa, kraje i kultury nie rozumieją siebie nawzajem, a ludziom stającym wobec siły takich wyobraźni często trudno się ze sobą porozumieć, razem pracować. Sięgnijmy dla zilustrowania tej tezy po przykład. Kiedy współcześni muzycy wychowani i wyedukowani w tradycji zachodniej z jej abstrakcyjnymi regułami próbują muzycznie porozumieć się i współbrzmieć z innymi, bardziej pierwotnymi tradycjami muzycznymi, dochodzi do ciekawych zgrzytów. Bill Viola, uznawany za jednego z najważniejszych artystów pracujących z technologiami medialnymi, zastanawiając się nad antropologiczną i artystyczną logiką danych cyfrowych, opisuje przypadek swojego kolegi – muzyka, który badał tradycje muzyczną wysp Java. Wyobraźnia amerykańskiego muzyka była już sieciowa, gotowa do wielu abstrakcyjnych działań w ramach danego tematu muzycznego: skłonny był powtarzać poszczególne sekwencje, odgrywać je jako poszczególne fragmenty, reinterpretować i przetwarzać strukturę kompozycji, posługiwać się technikami wielościeżkowej rejestracji, itd. Wszystkie tego typu formalne zabiegi, tak charakterystyczne dla abstrakcyjnej nowoczesnej kultury zachodniej, okazywały się nie do pomyślenia dla muzykujących „klasycznie” autochtonów [197]. Można sięgnąć po wiele innych przykładów bazodanowych form zastępujących tradycyjnie linearne teksty kultury. Jednym z nich będzie choćby format składanki stosowanej w muzyce popularnej (miks tape, kompilacja), która jest bazą danych przygotowaną w oparciu o przeróżne nagrania selekcją/nawigacją, która ma stanowić jakąś estetyczną całość, wywoływać elementy z bazy danych kultury według określonych kryteriów. Inny przykład odnosi się do dyskursu naukowego i popularności w nim prac pod redakcją, tzw. zbiorówek. W obu przypadkach widać systematyczne odchodzenie od tradycyjnych linearnych form narracyjnych: wielkich form muzycznych znanych z historii muzyki (opery, symfonie, cykle) czy wielkich teorii humanistycznych zapisywanych w postaci nieraz wielotomowych rozpraw i traktatów.

Schyłek drzewa i narodziny sieci rozpalają także i popkulturowe wyobraźnie i stają się inspiracją dla tworzonych i rekonstruowanych w nich mitologicznych opowieści. Topos ten eksploatuje np. coraz częściej kino i pozostałe media masowe: weźmy choćby motyw drzewa życia obecny w mitologiach i tradycji wielu kultur, skomentowany ostatnio w głośnym Avatarze J. Camerona. W popularnych technokratycznych i popkulturowych narracjach zdehierarchizowaną antystrukturę sieci przeciwstawia się hierarchicznie uwikłanym drzewom. Powiązanych jest z nią zatem – nie wchodzę tu w źródła różnego typu ideologizacji, relacji władzy i estetyk wiążących w praktyce społecznej znaczenia z tym terminem – wiele społecznych nadziei związanych z równością, innowacyjnością, kreatywnością, sprawiedliwością, wyzwoleniem spod jarzma władzy i kontroli, nowymi możliwościami komunikacyjnymi społeczeństwa kapitalistycznego, które wybrało drogę liberalizmu, demokracji i poszanowania indywidualnych strategii życiowych. Sieć to metaforyczny lejtmotywów społeczeństwa demokratycznego, liberalnego, otwartego wobec upłynnionej nowoczesności, pogodzonego z ryzykownymi wyborami codzienności i strategiami życia, gotowego na nieustanną transformację i rekonstrukcję.

Poznaliśmy metaforyczne i ikoniczne zarazem figury, których zderzenia w kulturowej wyobraźni tworzą grunt pod bazodanową gramatykę komunikacyjną. Sfera zbiorowej wyobraźni, wyobraźni kulturowej jest przy tym efemeryczna, nie ma zgody co do jej rzeczywistego, a przynajmniej dającego się w prosty sposób zmierzyć wpływu na kulturowe status quo. Dlatego moje poszukiwania bazodanowych źródeł skieruję teraz na obszar bardziej konkretnych, namacalnych dzieł, wydarzeń i stanów medialnych kultur i sztuk. W zmieniających się językach medialnych wypowiedzi, w obszarze sztuki zanurzonej w elektrycznym, analogowym otoczeniu technologicznym, szukać będę zarówno sytuacji poprzedzających interesującą mnie nowomedialną formę, jak i skutków jej obecności. Patrząc z perspektywy cyfrowej archeologii wiele z mających miejsce w kulturze działań i powstających w ich wyniku tekstów można uznać za pionierskie rozpoznania kondycji bazodanowej. Zobaczmy, jak tekstualność i literatura, wizualność i jej sztuki, audialność i muzyka popularna, a także architektura odczytują zmieniającego się ducha czasów i w jaki sposób jego esencję współtworzą.

Przegląd artystycznych predefinicji dzisiejszych baz danych zacznę od pierwszego z mediów masowych, tj. literatury i towarzyszącego jej dyskursu literaturoznawczego. Piśmienność i jej media: tekstualność, literaturę, druk, prasę uznać trzeba za logikę medialną, której kultura zawdzięcza (wielu dopowie, że to raczej skaza i obciążenie) wynalezienie, uprawomocnienie i usytuowanie linearności, narracyjności, hierarchicznych relacji pomiędzy autorami i odbiorcami, a potem także dodatkowo wydawcami. Wszystkie te elementy złożyły się na tradycyjnie uznawaną za modelową i nieodwołalną komunikacyjną gramatykę kultury określanej od czasu jej mechanizacji w okresie renesansu epoką Gutenberga.

W historii dyskursu nowomedialnego wymienia się jednym ciągiem opowiadanie Borgesa o ogrodzie z tysiącami rozwidlających się ścieżek z początku lat 40. ubiegłego wieku, które odbiło się olbrzymim echem w obszarze teorii literatury, a także konceptualne prace pionierów kultury cyfrowej, takie jak koncepcja hipertekstowej maszyny przeszukującej dane i utrwalającej nielinearne skojarzenia użytkownika o nazwie MEMEX autorstwa V. Busha z połowy ubiegłego wieku jako zdarzenia fundujące kulturę i technologię danych w początkowej postaci konceptualnego hipertekstu. Hipertekst uznać można za historyczny prototyp technologii i kultury baz danych. To także pierwsze bezpośrednie rozwiązanie nowomedialne, które można uznać za fundament interfejsowy projektu komputeryzacji w ogóle. Jeszcze przed pojawieniem się baz danych w ich dzisiejszej formie hipertekst okazał się formą o wewnetrznej strukturze odpowiadającej myśleniu, które tu określam jako bazodanowe. Zdefiniowana na nowo w tej cyfrowej formie tekstualność stała się otwarta, wielowątkowa i multinarracyjna, są w niej nie tylko z góry wyznaczone ścieżki, ale i potencjał czytania na wiele nieokreślonych z góry sposobów. W cyfrowym środowisku zyskała nowe oblicze [203].

Kilkadziesiąt lat później, po kilku etapach ewolucji komputeryzacji, myślenie o alfabecie, tekście i jego literackich formach w kategoriach baz danych i zarządzania nimi nie jest niczym niezwykłym. Bazodanowa wyobraźnia poszerza i otwiera na nowe możliwości formalne całą tekstualność. Jako przykład komentujący i ilustrujący bazodanowego ducha, którego cień systematycznie kładzie się na tekstualności, wybieram jedną z prac niemieckiego designera, Borisa Müllera, zatytułowaną Fast Faust, z roku 2000. Wizualna postać tej pracy (plakat wydrukowany w formacie A1) powstała w wyniku algorytmicznych obliczeń częstotliwości występowania w oryginalnym tekście Fausta Goethego poszczególnych słów. Na plakacie występują wszystkie słowa, które znajdują się w tekście poematu. Zmienia się jednak ich kolejność i wygląd; te, które pojawiają się w tekście najczęściej, znajdują się na górze zestawienia i są wydrukowane większym i grubszym rozmiarem kroju czcionki. Im mniejsza ilość lokalizacji w tekście danego słowa, tym mniejsza jego wielkość i pozycja na wizualizacji. Powstała w ten sposób nie tylko alternatywna wizualizacja tekstowej bazy danych, za jaką może być uznane dzieło literackie w cyfrowych okolicznościach, ale także algorytmiczna analiza praktyki autorskiej, z której lektury uważny czytelnik z pewnością wyniesie wiele cennej, nieoczywistej i trudnej do pozyskania tradycyjnymi metodami wiedzy na temat kanonicznego dla światowej literatury utworu [204].

Medialne technologie wizualne wraz z rozwijającymi się w XIX i XX wieku, głównie w opozycji do nich i w reakcji na ich obecność, sztukami wizualnymi wygenerowały spory zasób form, tekstów i ikon, które można uznać za wprowadzające w bazodanową ekologię. Widać je, kiedy spojrzymy na reakcję sztuki postawionej w obliczu fotografii, a następnie fotografii, kina i sztuk malarskich w obliczu telewizji. Eksperymenty formalne kubistów, impresjonistów i, najogólniej rzecz biorąc, kierunek działań awangardy były poszukiwaniem prawdy w malarstwie, które zostało w swej klasycznej estetyce i gramatyce zagrożone przez niezwykle wierną rzeczywistości, prostą i przystępną w obsłudze fotografię. Prace takich artystów jak Pablo Picasso, Paul Klee, Piet Mondrian świadczą o potrzebie przewartościowania wiedzy o malarskich estetykach, zwracaniu się do punktów i ich zbiorów, wariacyjnych perspektyw i sposobów postrzegania oraz interpretowania rzeczywistości – konstruowania nowatorskich reprezentacji świata, który malarstwu wykradały mechaniczne technologie wizualne.

Konkurencja malarstwa z fotografią zogniskowała się także wokół techniki fotograficznej nazywanej kolaż czy asamblaż. Jej reguła – powstała na skutek wielu innych dokonujących się w dobie ówczesnego kryzysu przedstawienia poszukiwań artystycznych – polega na zestawianiu przeróżnych elementów, materiałów i znaków w ramach pojedynczej kompozycji – dzieła. W ten sposób malarz może do namalowanej przez siebie farbą części dzieła dołączyć pocięte szmaty, wycinki z gazet, elementy wystroju wnętrz, itd. Jak się z czasem okazało, ta technika i forma w sztukach malarskich zyskały sporą, choć niedorównującą ich karierze w gramatyce języka obrazów technicznych, popularność.

Rozpoczęte w obszarze malarstwa poszukiwania podejmują także fotografia i kino, dominujące w pierwszej połowie XX wieku media wizualne. Mają one po temu naturalne techniczne predyspozycje, bowiem ich medialne języki biorą się z faktu technicznej manipulacji preparowanym obrazem. Szczególnie kino, które technicznie rzecz ujmując jest zwielokrotnioną i przyspieszoną w czasie iluzją wizualną opartą na fotografii, złudzeniem optycznym zmieniających się w tempie niezauważalnym dla ludzkiego oka klatek-zdjęć. Jednym z naturalnych elementów gramatyki tego medium jest montaż, który polega na manipulowaniu utrwalonymi na celuloidowej taśmie sekwencjami zdjęć – cięciem i sklejaniem celuloidowej taśmy, nakładaniem na siebie poszczególnych klatek, wycinaniem z pojedynczych utrwalonych tam obiektów, itd.. Naturalne dla tego medium jest w związku z tym także sekwencyjne przedstawianie opowieści. To, co można zrobić z filmową taśmą w procesie jej obróbki i montażu, okazało się również treścią samego medium. Ze współczesnej, bazodanowej perspektywy kinowy styl i takie jego formalne elementy, jak ujęcia, sceny, montaż, można uznać za nowatorskie działanie na wizualnej bazie danych. W klasycznej, celuloidowej wersji do filmu zastosować można, co prawda, dosyć ograniczoną ilość „algorytmów”, ale i tak jego narracyjność jest dalece bardziej wariacyjna, niż to miało miejsce w przypadku zamkniętego medium książki czy też dzieł malarskich, a nawet fotograficznych kolaży. To dlatego, że technologia kinowa oferuje znacznie większą ilość możliwych ingerencji, poprawek, ulepszeń, wariacji wobec scenariuszowej narracji niż te wcześniejsze media. Są nimi odpowiadające zabiegom wobec taśmy przenikania w scenach (audio i wideo), „szycie” scen „na zakładkę”, osobne manipulowanie kanałem audio i wideo, np. ich desynchronizacja, itd.

W filmie Spotkanie w Palermo (oryg. Palermo Shooting), wyreżyserowanym i napisanym przez przywołanego już w tej części Wima Wendersa w roku 2008, główny bohater to poszukujący sensu życia i inspiracji dla tworzonych przez siebie obrazów wzięty europejski fotograf [206]. Na co dzień posługuje się technikami manipulacji komputerowej wobec swoich zdjęć, dbając o zagwarantowanie ich atrakcyjności. Podmienia w nich zbyt chłodne słońce zachodzące nad miastem na jego bardziej południową, „słoneczną” wersję; chmury do niepełnego miejskiego krajobrazu wycina i wkleja z fotografii naturalnego krajobrazu; komputerowo usuwa niepotrzebne odcienie i refleksy światła. Dodatkowo niezwykle inwazyjnie zachowuje się wobec komponowanych przez siebie scen aranżowanych na potrzeby fotografii komercyjnych. Ten artysta mierzy się w technokratyczny i właściwy imagologom wizualnej kultury Zachodu, wyposażonej w coraz doskonalsze techniki manipulacji, z wizualnością tak, jakby była ona rzeczywiście zbiorem atomów odbijających światło, domagającym się nieustannego zarządzania, selekcji danych, ich aranżowania i zapętlonego w czasie burzenia ich w poszukiwaniu kolejnych wersji uchwyconych na kolejnych klatkach. Wenders niewątpliwie niezwykle poetycko diagnozuje w swoim filmie stan współczesnej wizualności technologicznej dekonstruującej wizualność i rozkładającej obrazy na atomy/piksele podlegające nieustannemu przetwarzaniu.

Współczesne kino dzięki swoim cyfrowym mediom jest w gruncie rzeczy dalece bardziej otwarte i podatne na wariacyjność i algorytmiczne gry z formą, niżby to wynikało z wendersowskiej opowieści. Za pioniera takiej estetyki uznać można polskiego reżysera Zbigniewa Rybczyńskiego. Dokonania Rybczyńskiego w zakresie dekonstrukcji mediów filmowych, twórczego eksplorowania technicznych ograniczeń doprowadziły go do momentów, w których filmowe rzemiosło uczynił jeszcze w analogowych czasach tej technologii ideowo-cyfrowym, bazodanowym. Peter Weibel nazywa wręcz Zbigniewa Rybczyńskiego matematykiem obrazów [207]. Jakie jest to protobazodanowe kino Rybczyńskiego? Aby odpowiedzieć na to pytanie, sięgnę tu do okresu jego analogowej twórczości. Jego „bazodanowe” Tango zostało nagrodzone Oscarem w latach 80. ubiegłego stulecia. Dla polskiego twórcy, doskonale świadomego technologii wizualnych i potrafiącego z nich na wysokim poziomie warsztatowym kreatywnie i krytycznie zarazem korzystać, technologiczny obraz oferowany przez media jest zbiorem świecących punktów, które z natury rzeczy poddają się wszelkim możliwym procedurom matematycznym. Rybczyński dał się poznać jako mistrz w ich formułowaniu i implementowaniu, czyli mozolnym zmuszaniu niegotowych na takie rozwiązania analogowych maszyn za sprawą różnych, mniej lub bardziej wywrotowych i subwersywnych w stosunku do nich, działań. Jego twórczość to zarządzanie pikselami technologicznych obrazów i odpowiadająca im logika zarządzania czasem, przestrzenią i bohaterami na semantycznym poziomie tworzonych obrazów – cięcie kliszy na drobne elementy składowe kompozycji i ich kolaż, zapętlanie ujęć, ich rewersy, negatywy, przyspieszenia, zwolnienia, przenikania, itd. Weiblowskie określenie Rybczyńskiego można, w kontekście współczesnych form baz danych i możliwych wizualnych operacji na nich, uzupełnić. Filmy Rybczyńskiego to pionierskie potraktowanie medium (wszystkim jego ograniczeń i możliwości) w wyrafinowany technologicznie sposób, który poprzedza myślenie o nim w kategoriach stricte cyfrowych: obraz to pierwsza z baz danych, którą ono zarządza, a jego piksele (wiedza Rybczyńskiego o ekranach telewizyjnych, liniach pikseli w systemach PAL/NTSC, przeplocie) to baza wizualnych danych otwarta na zarządzanie. W Nowej książce z roku 1975 czy w zrealizowanym kilka lat później Tangu widzimy także bazodanowe myślenie o semantyce filmowego przekazu. W pierwszym z tych filmów w podzielonym na dziewięć identycznych mniejszych części ekranie obserwujemy dziewięć dziejących się symultanicznie scen, które jednak – jak się okazuje – zostały pierwotnie nakręcone jako klasyczna filmowa sekwencja. W Tangu mamy do czynienia z bazodanowym majstersztykiem. Mozolnie pocięte i ponakładane na siebie, w rewolucyjny jak na tamte lata sposób, ujęcia pokazane są jednocześnie jako filmowy kolaż doskonały. Reżyser dodatkowo zapętla pojedyncze z nich w taki sposób, że pojawiają się jako sekwencje trwające dłużej niż pojedynczy „take”, tworząc w ten sposób wizualny loop. Widać w tej pracy inspiracje technologiami wielośladowej reprodukcji dźwięku, myślenie w kategoriach wychodzenia poza linearną narracyjność kina. Rybczyński myślał o filmowych ujęciach, taśmach i maszynach edycyjnych jako o bazach danych i przykładanych do nich algorytmach, choć dopiero od niedawna jego analogowe prace można interpretować w cyfrowych kategoriach. Jego kino jest w gruncie rzeczy w duchu cyfrowe, wyprzedzające epokę i formy techniczne, które reżyser wykorzystał, nawet wtedy, kiedy jest technologicznie analogowe: obecne jest w nim nieustanne przeliczanie klatek, scen, kompozycji i samej technologii, tak jakby robiły to dzisiejsze algorytmy w odwołaniu do cyfrowych wizualnych baz danych.

Skoro już jesteśmy przy kinie, to nie sposób pominąć technologii rejestracji i dystrybucji tworzonych nagrań muzycznych, których znaczenie dla filmu – jak w przypadku Rybczyńskiego, ale i dla całej współczesnej kultury – jest równie fundamentalne. To w środowisku twórców muzyki, jej studyjnych inżynierów, producentów i realizatorów powstały chyba najbardziej bliskie bazodanowej ekologii i poetyce formy i teksty. Obecnie zaś wielu teoretyków kultury próbuje dowartościować jej audialne zaplecze na tle humanistycznych opowieści o dominacji kultury wizualnej [208].

W przypadku medium masowego, jakim jest muzyka popularna, mamy do czynienia z wieloma elementami, które można by uznać za protobazodanowe. Kluczowym z nich jest bez wątpienia rozwój technologii wielośladowej rejestracji i remiksu nagrań oraz zmiany w kulturze muzycznej, które wywołał. Jak wiadomo pierwsze nagrania muzyczne powstawały w oparciu o homogeniczny zestaw rejestrujący składający się ze „słyszącego” otoczenie interfejsu-mikrofonu oraz kompletu urządzeń przetwarzających i rejestrujących, którymi początkowo były walce powleczone tworzywem poddającym się rejestrującej igle, żłobiącej w nich porowatą ścieżkę, po której podróżowała następnie igła przekładająca powstałe w ten sposób rowki na drgania i dalej na modulowane elektrycznie sygnały, które, po odpowiedniej obróbce, np. wzmocnieniu, wprawiały w ruch membranę głośnika (interfejsu wyjścia). W zasadzie tej formule podporządkowane były zarówno płyty gramofonowe, jak i współczesne nośniki cyfrowe CD, DVD, BR, których ścieżki składają się z wypalonych/wytłoczonych dołków układających się w spiralną linię. Pojawienie się zapisu na taśmach magnetycznych przyczyniło się do powstania technologii wielośladowej, czyli takiej, w której można zarejestrować, a następnie poddać strukturalnej obróbce zapis z wielu źródeł: mikrofonów, instrumentów, efektów jednocześnie. Dostępne dzisiaj cyfrowe techniki nagraniowe oferują możliwość rejestracji i miksu w praktyce nieskończonej ilości ścieżek. Oferują także możliwość pracy z tymi ścieżkami w niemal nieograniczony sposób – każdą z nich można indywidualnie przetwarzać, a całą powstającą z ich wymieszania kompozycję można jeszcze, dodatkowo, poddawać bardziej całokształtnej obróbce.

Dzięki technologiom symultanicznego miksu wielu osobno rejestrowanych ścieżek nagrania muzyczne stały się czymś zgoła innym od granej „na żywo”, z konieczności homogenicznej formalnie muzyki. Nowa formuła oferuje możliwość niezależnego od siebie zarządzania wieloma danymi w ramach jednego utworu; w ten sposób powstają miksy i remiksy muzyczne, których logika polega na tym, aby zgodnie z wyobraźnią realizatorów i producentów (algorytmami) zaaranżować określony układ i zależności ścieżek przekładających się na brzmienie utworu. Korzystając z wielośladowych nagrań pojedynczy muzyk może, o ile potrafi, nagrać kilkadziesiąt kolejnych śladów-ścieżek pojedynczych instrumentów, wokaliz, efektów i skompilować na ich podstawie gotową aranżację akustyczną. Inni muzycy, realizatorzy, producenci, którzy do takich nagranych i trzymanych formalnie w separacji, choć w razie potrzeby współbrzmiących, ścieżek mają dostęp, mogą nimi po swojemu „zarządzać”. W ten sposób swoje płyty nagrywali tacy muzycy popularni, jak np.: Paul McCartney, Beck, Wojciech Waglewski czy Prince.

Rozwój technologii muzycznych danych poszedł jednak jeszcze dalej, kiedy okazało się, że z poszczególnych, sklejonych wcześniej, studiach utworów-aranżacji można „pozyskać” (działania te są kontrowersyjne z punktu widzenia tradycyjnych praw autorskich) najdrobniejsze elementy już istniejących dzieł, by wykorzystać je jako składniki w nowych utworach. Taki sposób „recyklingu” muzyki określono mianem samplowania. Ta technika wywodzi się także z alternatywnego wykorzystania innej technologii muzycznej: gramofonu i interfejsu winylowych płyt. Od studyjnej rejestracji i miksu pojedynczych śladów samplowanie z winylowych płyt różni subwersywy charakter takiego działania. Podejmowali je i stworzyli jego estetykę ludzie, który nie byli ani profesjonalnymi muzykami, ani inżynierami dźwięku – mowa o kulturze didżejskiej i czarnoskórych selekcjonerów puszczających muzykę z płyt na tanecznych soundsystemach w Afryce i Ameryce Północnej. Poszukując form sklejania różnych muzycznych „kawałków” w dansingowe sety, stworzyli własną estetykę, dla której kategoriami kluczowymi stały się takie hasła, jak sample (pojedyncze cząstki gotowych utworów wykorzystywane w oderwaniu od nich), scratch (ręczne poruszanie płytą gramofonową dające specyficzny efekt dźwiękowy), loop (rytmiczne zapętlanie sampli). Te trzy element okazały się później zrębem etosu i najważniejszą figurą estetyczną (obok rapu) muzyki hiphopowej. Jej klasyczne dokonania bazują na utworach powstających przez pożyczanie wyłuskanych z istniejących nagrań gitarowych riffów, akordów różnych instrumentów, elementów wokaliz, itd. Hiphopowy twórca z samych tylko sampli potrafi stworzyć linię melodyczną i rytmiczną swojej kompozycji. Radykalnym co do formy i wyrafinowanym estetycznie przykładem takiego działania niech będzie twórczość grupy Skalpel, której muzycy pieczołowicie wycinali sample brzmień jazzowych ze starych polskich produkcji i stworzyli z nich własne utwory.

Poetyka didżejska zrodziła z czasem zupełnie nowe „gatunki” i formaty muzyczne: powstała kategoria chill out music, czyli sety różnych utworów muzycznych dobieranych według różnych kryteriów w poprzek istniejących gatunków i estetyk, a także format muzycznej składanki, tj. kompilacji nagrać przygotowanych w określonym celu, według założonego kryterium semantycznego. Wszystkie te gry z technologiami rejestracji, remiksowania i odsłuchiwania nagrań to estetyka, którą można by zawrzeć w kategorii kultura remiksu [209]. To działanie i estetyka, które stały się zasadniczą regułą pracy z bazami danych. W tym kontekście można mieć uzasadnione – alarmujące głosy podnoszą w tym zakresie wydawcy muzyki – obawy o śmierć albumu jako formy dystrybucji muzyki, śmierć pojedynczego utworu jako zamkniętej formy technologicznej i estetycznej, czy dalszą karierę algorytmów w powszechnym odbiorze muzyki – pierwszym i najbardziej znanym z nich jest odtwarzania w przypadkowej kolejności utworów z płyty, inne dotyczą kompilowania play list według licznych kategorii i tagów (random play, shuffle) [210].

Jednak nie tylko w technologiach audialnych widać tropy wiodące do wyobraźni bazodanowej. Są one także obecne w przemianach, które dotyczyły muzyki w ogóle. Wytyczyły je takie postaci XX-wiecznej muzyki, jak Pierre Schaeffer (inżynier i teoretyk muzyki), John Cage (awangardowy kompozytor współczesny), Glen Gould (wybitny pianista) czy Brian Eno (twórca muzyki ambient). Ich artystyczne i teoretyczne poszukiwania polegały najpierw na poszerzaniu pola muzyki przez wciąganie do niego dźwięków naturalnych i cywilizacyjnych, takich jak odgłosy przyrody, dźwięki miasta i przemysłowe, anektowaniu ciszy, przekraczaniu ograniczeń instrumentów – np. uderzania w fortepian różnymi przedmiotami, modyfikowaniu ich kształtów i majsterkowaniu przy ich konstrukcji (Cage). Powstały w ten sposób koncepcje słuchania akuzmatycznegoobiektu dźwiękowego (Schaeffer), rozciągające formalne reguły rzemiosła muzycznego i estetyki akustycznej do rozmiarów olbrzymiej bazy danych, w której muzyk w tradycyjnym sensie stawał się postacią anachroniczną, nieodpowiadającą już wyzwaniom, które w jego imieniu mieli przejąć także architekci muzyczni (Cage) oraz towarzyszący im producenci, inżynierowie, a w późniejszym czasie także i didżeje.

Jednym z najbardziej znanych utworów Johna Cage’a jest Imaginary Landscape No. 4, w którym audialny efekt powstaje za sprawą regulacji długości fal oraz głośności dobiegających z 12 radioodbiorników obsługiwanych przez 24 osoby. W Imaginary Landscape No. 5 grają 42 wskazane przez artystę płyty gramofonowe. Cage wprowadza w ten sposób do muzyki przypadkowość, a jednocześnie do nieznanego wcześniej poziomu rozbija harmonię klasycznego instrumentarium, stawiając na wariacyjność i algorytmiczność – atrybuty późniejszych baz danych.

Pierre Schaeffer korzysta w tworzeniu swojej muzyki konkretnej ze wszelkich możliwych modulacji i wariacji, jakie da się osiągnąć manipulując maszynami do rejestracji, miksowania i odtwarzania dźwięków. Z jego doświadczeń narodziła się muzyka określana jako plądrofonia – czyli taka, która powstaje z już istniejących, przetworzonych technologicznie nagrań muzycznych. Jest ona mało znanym zalążkiem wszystkiego, co dziś znane jest w estetyce audialnej (i nie tylko) jako kultura remiksu.

Glen Gould będąc u szczytu sławy jako wybitny pianista klasyczny zrezygnował z występów koncertowych, poświęcając się pracy studyjnej. Nie wierząc w potencjał nagrań na żywo rozpoczął w studiu bazodanowe eksperymenty mieszając różne części nagrywanych przez siebie kolejnych wersji tych samych utworów i z każdej z nich wybierając najlepsze fragmenty. Powstawały w ten sposób miksowane nagrania, które brzmiały zdaniem artysty lepiej niż wierne zapisy pojedynczych take’ów.

Brian Eno poszukując nowych form muzycznych podążył w stronę muzyki samogeneratywnej, która powstawała – podobnie zresztą jak tworzone przez niego dzieła wizualne – na zasadzie wariacji algorytmicznych w obszarze skończonej liczby dostępnych sampli, taktów i brzmień. Ambientowe utwory powstające w ten sposób są nieustanną pracą algorytmu na bazie danych – potencjalnie nigdy się nie kończą, generując cały czas nowe wariacje.

W przestrzeni audialnej bazodanowe tropy obejmują dodatkowo nowego typu instrumentarium, takie jak samplery, sequencery, miksery, software służący do miksowania nagrań, sprzęt do odtwarzania nagrań (programowanie kolejności odtwarzania i brzmienia). Bazodanowa muzyka koncentruje się na wszystkim tym, co można z zarejestrowanym materiałem audio zrobić za pomocą przeróżnych technologicznych maszyn i wpuszczonych na ich terytorium algorytmów.

Od jakiegoś czasu także i w architekturze pojawiają się bardzo dosłowne nawiązania do baz danych. Przykładem takiej estetyki niech będzie tu projekt ekologicznej struktury modułowej o nazwie Eco-Pod zaprojektowanej przez jedno z amerykańskich biur architektonicznych, która ma być samoregulującym się – zarówno w sensie funkcjonalnym jak i architektonicznym – systemem hodującym wykorzystywane do wytwarzania czystej energii algi. Budynek zarządza sam sobą, przestawiając moduły w razie potrzeby – dopasowuje się do klimatu otoczenia, według określonych kryteriów wybrane moduły wynosi na górne piętra, inne przestawia na pozycje fasadowe z wnętrza konstrukcji. Być może takie będą budynki przyszłości – samoorganizujące się „organizmy” architektoniczne nieustannie zmieniające swój kształt i układ strukturalny [211]>.

W swoich analizach Manovich odnajduje połączenia pomiędzy wcześniejszymi formami medialnymi a technologiami cyfrowymi; jego teoria mediów szuka podobieństw i związków przyczynowo-skutkowych pomiędzy gramatyką istniejących mediów a regułami unikalnego języka mediów cyfrowych. Kiedy w tym duchu podejmuje temat baz danych, sięga, niemal automatycznie, do dziedzictwa kinematografii. To, według niego, medialna ontologia, której media cyfrowe zawdzięczają wiele technologicznych i semantycznych pretekstów i form. Można powiedzieć, że kino i film to dla Manovicha pre-bazodanowy język medialnej wypowiedzi. Elementy strukturalnej gry z konstrukcją kinowej narracji, język kamery i montażu filmowego, doświadczenie widza stworzyły zręby technologiczne dla formatów użytkowych maszyn cyfrowych. Kultura kina, jego estetyka i semantyka, stały się natomiast podwalinami kulturowego języka technologii cyfrowych. Zrozumienie specyfiki bazy danych (ta konstatacja odnosi się do nowych mediów w ogóle) wiązać się musi zatem z medialną archeologią, tj. odnajdywaniem i pokazywaniem znaczeń nieustannego remiksu/recyklingu medialnych form i niesionych przez nie semantyk [213].

Zwrot ku danym i sposobom ich przetwarzania, politykę dostępu do nich zauważa w sztuce mediów jej kuratorka, teoretyk i popularyzatorka Victoria Vesna. Sztuka współczesna wykorzystując coraz częściej cyfrowe media jako narzędzia i przestrzeń twórczą odwraca się od tradycyjnego pojmowania artefaktów, materiałów, narzędzi, dzieł i estetyk ku takim problemom, jak sposoby organizacji informacji, jej pozyskiwania i dystrybucji. Zwieńczeniem tej nowej logiki działań artystycznych jest wchodzenie sztuki w obszar cyberprzestrzeni. Według Vesny istnieje wiele dowodów, w które bogata jest historia sztuki, potwierdzających tezę o tym, że artyści zawsze żywo interesowali się komunikacją, cyrkulacją informacji, ich ekologią. Pod naporem danych sztuka współczesna podejmuje te problemy w całej ich okazałości, podając w wątpliwość dotychczasowy status artysty i odbiorcy, ich wzajemne oraz pomiędzy nimi a dziełem relacje. Nowym artystycznym wyzwaniem okazuje się wchodzenie w świat danych i takie poruszanie się w nim, które prowadzi do odkrywania starych prawd o świecie, kulturze i człowieku. Artysta staje tu na równi z programistą, inżynierem i technologiem, poszukując semantycznych ścieżek w elektronicznym środowisku [216].

Przegląd bazodanowych praktyk rozpocznijmy od ich afiliacji z kulturą wizualną, bo to na tym styku dochodzi do najbardziej dziś frapujących danowych wydarzeń. Zanim jednak zajmę się wizualnymi losami danych, krótko scharakteryzuję diagnozy kultury zdominowanej przez obrazy. Ten stan nauki humanistyczne i społeczne opisują dzisiaj najchętniej mianem kultury wizualnej. Jego źródeł teoretycy upatrują w przejęciu przez media wizualne i fabrykowane przez nie obrazy techniczne (technologiczna reprodukcja dzieła sztuki) dominującej roli w obszarze komunikacji kulturowej i społecznej. Zarówno zakres pojęcia kultury wizualnej, jak i akademickie umocowanie i sens studiów wizualności pozostają materią sporną. James Elkins, jeden z najpowszechniej czytanych propagatorów badań i studiów wizualnych tak te spory opisuje [218]:

Obrazy powstają i są przedmiotem wielu dyskursów, na uniwersytetach i poza światem humanistyki. Niektóre dyskursy, takie jak biochemia czy astronomia, traktują je obsesyjnie; inne tylko częściowo się nimi posługują. Jak na razie visual studies interesują się głównie obrazami funkcjonującymi w polu sztuki i mediów masowych pomijając w ten sposób pozostałe, które stanowią przeważająca większość powstających w praktykach naukowych. Poza uniwersytetami tego typu obrazy naukowe pojawiają się w kolorowych magazynach, Internecie czy książkach popularnonaukowych.

Na przeoranym siłami rozwoju technologicznego i ewolucji kultury medialnej polu także wizualność i jej techniczne obrazy muszą w związku z powyższym stać się podwójnie kompatybilne, wciąż wpisując się w istniejące kody kultury jednocześnie poddawać się nowym technokulturowym regulacjom. Dostrajanie się do siebie technologii, kultury i obrazów jest dzisiaj bezprecedensowe co do zakresu zmian, ich tempa i zasięgu. Zmieniają się dostępność do możliwości tworzenia i publikowania (a w zasadzie upubliczniania) obrazów, software i interfejsy ich tworzenia, przekształcania, magazynowania, analizowania i emisji [224]. W obszernej antologii zatytułowanej Imagery in the 21st Century, prezentującej zasięg i skalę najnowszych estetyk, interfejsów, software cyfrowej wizualności, Oliver Grau i Thomas Veigl tak te procesy opisują:

Nigdy wcześniej świat obrazów nie zmieniał się tak szybko; nigdy wcześniej nie byliśmy wystawieni na kontakt z tak wielką ich różnorodnością; nigdy wcześniej sposoby wytwarzania i dystrybuowania obrazów nie zmieniały się tak gwałtownie [225].

Jaki jest sens tak istotnych zmian? Dane, które zyskują wizualną postać (interfejs), stają się czytelne i zrozumiałe kulturowo, a w konsekwencji mają szansę wejść do powszechnego obiegu kultury codzienności. Anektują oswojoną przestrzeń wizualnej semantyki i estetyki; mówią dominującym w kulturze językiem i dzięki temu mają moc ustanawiania reguł gry dla innych kulturowych gramatyk (audialność, architektura, moda). Wizualne odczytania baz danych obejmują współcześnie w zasadzie każdy możliwy rodzaj danych, czyli dotyczą wszelkich systemów kulturowych i społecznych, dla których tworzenie/przetwarzanie informacji/danych to sprawa kluczowa. Wizualizowanie danych to także coraz bardziej popularna strategia estetyczna, do której dostęp mają obecnie nie tylko nieliczni specjaliści, ale dzięki rosnącemu dostępowi do samych danych jak i różnego rodzaju coraz bardziej prostym i dostępnym narzędziom wspomagającym ich przetwarzanie coraz większe ilości chętnych. Specjalistów inżynierów i programistów uzupełniają w tym zakresie projektanci i artyści, a także przeciętni użytkownicy cyfrowych technologii.

Praktyka wizualizacji danych doczekała się już swojej teorii i dedykowanych działań metodologicznych (software’owych). W swoim software studies lab na kalifornijskim UCSD pracuje nad nimi L. Manovich z grupą współpracowników. W wyniku swoich badań zaproponowali światu naukowemu, ale i biznesowi, administracji, nowatorską metodę i narzędzia badań nad mediami, które nazwali media visualisations. Amerykanie traktują zdigitalizowane wcześniej media (filmy, fotografie, książki, prasa, programy telewizyjne, klipy muzyczne) jako olbrzymią bazę danych i starają się zadawać jej pytania wizualne, których postawienie w tradycyjny sposób byłoby niezwykle trudne czy wręcz niemożliwe. Jednym ze zrealizowanych przez Lab projektów jest olbrzymia baza ujęć filmowych z różnych filmów, w której specjalna aplikacja poszukuje prawidłowości związanych z kompozycją kadru, kolorystyką, montażem, itd. W podobny sposób poddano analizie digitalne wersje obrazów van Gogha, japońskie mangi czy okładki Time z lat 1993–2000 [228]. Za sprawą wizualnych analiz danych rodzi się w ten sposób metamedioznawstwo, czyli postmedialna wiedza o ich kulturze.

Oprócz społecznego indeksowania danych wymieniłem także informowanie danych jako jedną z praktyk wchodzenia w świat danych i rozumienia go. Tę strategię poznawczą doskonale skomentowano w jednej z pierwszych prac sztuki nowych mediów refleksyjnie podchodzących do problematyki przeładowania danymi. Chodzi o Legible City autorstwa Jeffreya Shawa z przełomu lat 80. i 90. ubiegłego wieku [240]. Wewnątrz instalacji na dużym ekranie znajduje się wirtualna makieta przestrzeni, w której zamiast budynków znajdują się słowa. Wchodzący do pracy interaktor pedałuje na zsynchronizowanym z miastem-bazą danych rowerze przemieszczając się w danowej przestrzeni. Praca doskonale pokazuje bazodanowy ekosystem, który wydaje się nie mieć granic i w którym każdorazowe przyspieszenie, skręt czy zatrzymanie wprowadza jadącego w nowe obszary, ale jednocześnie oddala od innych. Tak wygląda wciąż jeszcze, mimo iż od publicznego debiutu pracy Shawa minęło już ponad 30 lat, sytuacja człowieka postawionego w obliczu danych. Istnieją jednak przesłanki, które świadczą o tym, że przygodną/chaotyczną podróż można wzbogacić o skuteczne narzędzia i strategie przeglądania danych, efektywnego pływania w bazodanowym oceanie.

Danowe wpływy nie pozostawiają wizualności w zastanej postaci. Sądzę, że uruchomione przez ekologię danych zmiany w kulturze wizualnej najtrafniej scharakteryzował Bernard Stiegler, francuski filozof technologii medialnych, mówiąc o gramatykalizacji widzialnego (grammaticalization of the visible) [244]. W stieglerowskim pojęciu mieszczą się zarówno matematyczne reguły przenikające bazy danych, jak i ich outputy semiotyczne, związane z kształtowaniem się płynnej, wariacyjnej i podatnej na remiks wyobraźni i wizualności bazodanowej. Bazodanowa gramatykalizacja wizualności wyglądałaby w następujący sposób: pod wpływem danych zmieniają się techniki tworzenia i postępowania z obrazami, powstają nowe formaty i języki wizualne data visualisation, information visualisation czy infoesthetics. Dotychczas, w duchu analogowego dziedzictwa, obrazy były przede wszystkim przekaźnikami oferującymi jednostronną transmisję: fotograf, malarz, reżyser, animator tworząc swoje wizualne teksty osadzał wewnątrz nich zamknięte formalnie komunikaty. Interfejsy graficzne, których charakter tworzą takie cechy, jak klikalność, interaktywność, nawigacja, personalizacja, itd., otwierają świat obrazów na potencjał interaktywności ze strony odbiorców. Można powiedzieć, że wraz z digitalizacją i cyfrową interaktywnością wizualność emancypuje się z gorsetu Galaktyki Gutenberga, przestaje być medium związanym zasadą pisma i na nowo staje się alternatywnym porządkiem kulturowym (to proces historyczny, którego początków szukać można już w sporze o naturę obrazów pomiędzy ikonoklastamiikonoklarami). Dla tego nowego porządku zasadą jest zupełna otwartość formalna i zdolność do przyjęcia różnych struktur i logik użytkowych. Różnicę między starą a nową wizualnością można zrozumieć patrząc na paralelny stan tekstualności, gdzie tekstualność linearna, gutenbergowska, ustępuje hipertekstualności i innym otwartym formom cybertekstualnym. Nowe obrazy jak nowe teksty są zbiorami ruchomych, niepowiązanych stałymi więzami elementów, łatwo poddają się rekonstrukcjom.

Inny porządek w ewolucji obrazów i wizualność dostrzega Oliver Grau [245]. Austriackiego teoretyka interesuje ich historyczna immersyjność, czyli pochłanianie przez język wizualności kolejnych idei, wyobraźni i stanów kulturowych. Chłonność obrazów wynika z potrzeby ich przyciągania: angażowania wzroku w sensie biologicznym, ale i możliwie pełnego angażowania estetycznego i politycznego spojrzenia. Technologiczne formy i kulturowe estetyki obrazów mają w rezultacie prowadzić do pierwiastka coraz głębszego, bardziej zaangażowanego, bliskiego naturalnym stanom wizualności, choć jednocześnie konkurującego z nimi o uwagę kultury. W ten sposób analogowe obrazy immersyjne przekształcają się w przestrzeni historii sztuki w obrazy immersyjne technologicznie, obrazy wirtualne. Szczególne znaczenie ma w tej historycznej prawidłowości współczesna faza obrazów cyfrowych, w której objawiły się takie stany, jak: teleobecność i telematyka, sztuczna inteligencja i obrazy samogenerujące się.

Przykładem sztuki wykorzystującej potencjał zarządzania skończoną ilością danych w celu osiągania różnych rezultatów jest ruchoma instalacja grupy ART+COM zrealizowana na zlecenie Muzeum BMW w Monachium. W jednej z sal wystawienniczych Muzeum na cienkich stalowych linkach zawieszonych zostało 714 identycznych metalowych kul-pikseli, których położenie regulują silniczki i sterowniki sprzężone z odpowiednim oprogramowanie. Wprawiane w ruch kulki układają się w układy i kompozycje, które naśladują zaprogramowane wcześniej kształty różnych modeli aut i elementów estetycznych, takich jak fale czy kształty geometryczne [248].

Inną artystyczną eksploracją baz danych jest praca Wandern im Wissen (wspinaczka wiedzy), która została zrealizowana w bibliotece uniwersyteckiej w Bremie z okazji 350-lecia jej istnienia. Artyści zaprojektowali 15-metrową rzeźbę interaktywną, w której skomponowana z papieru powierzchnia nośna (odniesienie do cywilizacji druku) jest ekranem dla nieustannie poruszających się pakietów i danych wyświetlanych przez cyfrowe projektory jako słowa, liczby, kształty i różnego typu animacje (kultura cyfrowa) [249].

Niemiecki artysta Julius Popp w swojej pracy zatytułowanej BIT.CODE przekonuje, że świat znaków i znaczeń to nieustanna gra, której scenariusze wynikają z nieskończonych możliwości segregowania skończonej ilości danych (w tym przypadku dane są jednocześnie pojedynczymi bitami/pikselami), którymi posłużył się artysta tworząc składający się z ruchomych modułów ekran zdolny do wyświetlenia dowolnych kombinacji danych, a zatem do projektowania nieskończonej ilości symboli, znaków i stanów pośrednich pre- i postznakowych). Informacje wyłaniają się tu na zasadzie chwilowego utrwalenia chaotycznego status quo oceanu danych [250].

Cykl pikselowych luster Daniela Rozina, który obejmuje takie instalacje, jak Weave Mirror, Rust Mirror, Mirrors Mirror, Wodden Mirror eksploruje nie tylko pikselową naturę obrazów, ale i szuka dla pikseli wychodzących poza reprezentację funkcji. Rozin wykonuje swoje lustra z licznych, drobnych elementów odbijających światło lub świecących samodzielnie. Za każdym razem wybiera dla swoich luster inny „algorytm”, tak jakby używał w stosunku do nich jednej z wielu wizualnych estetyk dostępnych w Photoshopie [251].

Natomiast Soxels – The auditive media facade to praca Simon Schiessla, Felixa Hardmooda BeckaAndrei Bassi poszerzająca wizualną jedynie naturę atomów-pikseli o wymiar audialny [252]. Punkty są w niej jednocześnie komunikatorami obrazów (małe, okrągłe wyświetlacze LCD) i dźwięków (głośniki umiejscowione pod wyświetlaczami). W ten sposób atomistyczne doznanie wizualne staje się także doznaniem audialnym – artyści projektują pikselową logikę na wszystkie wciągnięte na platformę cyfrową gramatyki i interfejsy medialne, dowodząc w ten sposób, że cyfrowa przestrzeń jest olbrzymim zasobem punktów (danych), które w różnych kombinacjach (kompozycjach) i na różne sposoby (algorytmy i interfejsy) można nawigować (zarządzać).

Weźmy pod uwagę jeszcze jeden z przykładów pikselowego , czyli bazodanowego myślenia o sztuce. Tureccy designerzy Mahir M. Yavuz i Ebru Kurbak osadzili bazodanową estetykę w pikselowej estetyce tureckiej (śródziemnomorskiej) tradycji tkackiej. Zaprojektowali interfejs, który można by nazwać drukarką ubrań. Litery i inne wizualne kształty zakodowane cyfrowo urządzenie rozumie jako instrukcję wykonawczą dla połączonego z nim zautomatyzowanego warsztatu tkackiego. Sprzężenie infosfery z tkaniną oferuje możliwość potraktowania jej jak jednorazowego ekranu, który może „wyświetlić” dowolny pikselowy obraz pod warunkiem zachowania monochromatyczności (najwyżej kilka kolorów przędzy do jednorazowego użycia) i określonej rozdzielczości (liczonej według wielkości pojedynczego splotu i wielkości powierzchni do „zadrukowania”) [253]. Wizualne translacje danych, jak widać, ale i dotykowo czuć, oferują doznania nie tylko wzrokowe. Pikselowym ubraniem możemy się okryć i ogrzać. Coraz częściej wizualizacje będą stanowić takie wirtualne i realne zarazem interfejsy kultury, będziemy za ich pomocą wizualnie, ale i dotykowo zarazem poruszać danymi, czyli symbolicznie i fizykalnie sterować kulturą. W cyfrowym świecie obrazy nie tylko ideowo – jak to miało miejsce za sprawą działań artystycznych w XX wieku – ale i technologicznie odwracają się od porządku reprezentacji i symulacji. Stają się za to interfejsami.

Co dla kulturowej przestrzeni komunikacji i mediów wynika z przedstawionej symbiozy obrazów i danych oraz postępującej cyfryzacji/gramatykalizacji wizualności? Na to pytanie chciałbym odpowiedzieć odnosząc się do dwóch przykładów, które w praktyce medialnej spotykają się ze sobą: przywołanego już społecznego indeksowania danych oraz wspomnianego przed chwilą przekształcania się obrazów w interfejsy. Pierwsze z nich, jak pamiętamy, związane jest przede wszystkim ze społeczną ekonomią informacji i jest etapem emancypacji użytkowników wobec danych i zarządzających nimi technologii medialnych. Drugie zjawisko ma charakter bardziej antropologiczny i wskazuje na zmieniające się reguły mediacji, w której obraz przechodzi z funkcji reprezentacji do bycia interfejsem i ku fazom kolejnym. Synergię obu chciałbym przedstawić za pomocą studium przypadku, którym będzie sytuacja mapy w domenie cyfrowej oraz szeregu praktyk kulturowych związanych z jej społeczną kartografią – indeksowaniem oraz atomistyczną, pikselową interfeizacją. W tym celu przyjrzę się najpierw medium mapy, a następnie jej cyfrowym losom pod wpływem baz danych.

Kartograficzny instynkt, praktyki mapowania i figura mapy wpisały się także na dobre w fundamenty cyfrowego świata. Za ich pośrednictwem cyfrowe mediacje odwołują się do dziedzictwa wykraczającego daleko poza ontyczne regulacje technologii mediów analogowych i sięgają do początków kultury w ogóle. Mapa ustanowiła figuratywne podwaliny dla wyobraźni interfejsowej i interfejsowych form użytkowych (takich jak pulpit, przeglądarki, hipertekst), a orientacja w przestrzeni to praktyka, która leży u podstaw nawigacji po oceanie danych. Cyfrowym echem kulturowych mitologii mapy i kartografii są również metafory cyberprzestrzeni, oceanu informacji i nawigacji po jego wodach. Posiłkując się nimi objaśniamy sobie samym strukturę cyfrowego świata i lokujemy/lokalizujemy się w nim, tak jak to instynktownie czynimy w realnym świecie wokół nas. Terytorium za sprawą mapy i kartografii, a przestrzeń dzięki euklidesowej geometrii zyskały kulturowy porządek i strukturę. Zasilana elektrycznie domena cyfrowa potrzebuje analogicznych (ale nie analogowych) działań. Dla mojej narracji najważniejszy jest w tym kontekście fakt, że mapę uznać można za pierwszą medialną bazę danych o świecie, jego pierwszą infoestetykę.

Cyfrowe zakodowanie formy i treści mapy otwiera ten kulturowy tekst/obraz na wszelkie możliwe bazodanowe praktyki, estetyki i polityki – czyni ją podatną na remiks, wariacje użytkowe i niezliczoną ilość nakładających się na siebie/przenikających się narracji semiotycznych i interfejsów. Przez to wprowadza ją na obszar po „śmierci autora”, choć powinienem napisać w tym przypadku o śmierci kartografa, w którym miejsce i rola dla wielkich wizjonerów i kartografów są ograniczone, poddane różnorodnej konkurencji i weryfikacji. Przywołajmy w tym miejscu średniowiecznego hiszpańskiego mnicha Beatusa z Lièbany, któremu zawdzięczamy wspaniale ilustrowaną Mappa Mundi uznawaną za jedną z najważniejszych, a przy okazji i najpiękniejszych, map świata. Ta mapa była nie tylko poruszającym estetycznie wizualnym modelem świata. Była jednocześnie wielką o nim opowieścią; kodem zawierającym w sobie teologiczną, polityczną, społeczną i artystyczną summę wiedzy, historii i kultury w ich ówczesnych autodefinicjach. W cyfrowych okolicznościach powinności i kompetencje niegdysiejszych zakonnych kartografów-narratorów przejmują w dużej mierze maszyny medialne. To wspomniane powyżej autoreferencyjne technologiczne systemy skanujące i modelujące (satelity, fotografie lotnicze, street wiev), które samoczynnie mapują powierzchnię globu i przetwarzają zebrane dane w gotowe modele soft­ware’owe (Google Earth) regulujące kształt olbrzymich zasobów pozyskanych tą drogą geodanych. Powstaje dzięki ich skanowaniu i przetwarzaniu mapa – baza danych, która jest dokonała kartograficznie i technologicznie. Brakuje jej jednak duszy kulturowej metafory, nie jest intrygująca estetycznie i nie opowiada świata, a jedynie go odtwarza.

Wraz tymi ideami i ich technologicznymi wcieleniami rozpoczęła się historia rzeczywistej taktylności mediów (to pojęciowe echa teorii McLuhana), których różne interfejsowe elementy stały się haptycznymi przewodnikami komunikującymi w obu kierunkach, pozostając jednocześnie znakami, nie tracąc w wyniku ich mechanicznego uruchamiania przypisanych znaczeń. Epoka medialnych studiów reprezentacji rzeczywistości zaczęła w ten sposób ewoluować ku ich rozpływaniu się w uniwersum interaktywności. Przy tym interaktywne jest tu pomostem pomiędzy tym, co wirtualne i realne, symboliczne i materialne, odbiorem i nadawaniem, postrzeganiem i tworzeniem. Po fazie kultury samorozumiejącej się jako tekst (okoliczności zwrotu lingwistycznego), przez fazę kultury symulującej (okoliczności zwrotu wizualnego) mamy do czynienia – wraz z narodzinami uniwersum cyfrowego – z fazą zwrotu ku realności i materialności. Kulturoznawca Hal Foster twierdzi, że dla współczesnej sztuki (kultury w ogóle) najważniejszym punktem odniesienia staje się to, co jeszcze nie zostało poddane erozji krążenia znaczeń i symulacji wizualnych, czyli nasza cielesność i nietknięte kulturą zjawiska społeczne, a może lepiej – społecznościowe, trybalne [263]. Gdyby chcieć te ogólne zmiany kulturowe ograniczyć do terytorium komunikacyjnego, to można by je opisać według przejścia, które Peter Weibel określa mianem przekształcania się imperium znaków (Barthes) w imperium interfejsów [264].

A Thousand Plateaus autorzy piszą o nieustającej konfrontacji obu typów pojmowania świata – kulturowych wyobraźni, a rozwój kultury widzą jako proces systematycznego umacniania się myślenia hierarchizującego, porządkującego. Morze poddane zostało kartografii i nawigacji, czas usystematyzowany został przez zegar. Skrzyżowanie tej teorii przestrzeni z bazodanowymi stanami mediów cyfrowych prowadzi do wniosku, iż tradycja mediacji analogowych (od Galaktyki Gutenberga przez kulturę masową aż po analogowe oblicze visual culture) odpowiada myśleniu w kategoriach przestrzeni pręgowanej. Porządek mediów analogowych jest próbą strukturyzowania świata symbolicznego i systemów komunikacji społecznej. Przeciwnie rzecz ma się w otoczeniu taktylnych ekranów i obrazów wczesnej epoki cyfrowej i sieciowej. Dzięki nim możliwe jest poszerzenie spektrum spojrzenia, wyjście poza krąg technologicznie pozbawionych „aury” wizualnej znaków pisma i rozszerzenie głębi patrzenia i widzenia na obrazy, które dynamicznie rozwijają się w cyfrowym środowisku technologicznym. Jednak dopiero cyfrowe obrazy wlane w ekrano-obrazo-interfejsy stają się już nie tylko po deleuziańsku i guatarriańsku haptyczne, ale realnie dotykalne, fizycznie taktylne. Znaczy to, że nie tylko postrzegamy ich jako pełnoprawnych znaków (w pełni naładowanych semiotycznie), ale dodatkowo, fizycznie ich dotykając, informujemy (konstruujemy) nimi, za sprawą semiotyki tego dotyku, świat, wizualnie zarządzamy rzeczywistymi, acz hybrydycznymi bazami danych-atomów. Żywe dane (piksele) reagujące na dotyk tapety, którymi uwidaczniamy pulpity cyfrowych maszyn, czy interaktywne i tworzone w wyniku społecznej kartografii mapy (oraz wszelkie inne interaktywne interfejsy wizualne) to asamblaże łączące wizualne z materialnym, analogowe z digitalnym, wirtualne z realnym, semiotyczne z biologicznym [266].

Poza kartografią i mapowaniem taktylność znaków i obrazów obecna jest także w takich praktykach kultury współczesnej, jak design. Nie wchodzę tu w spory dotyczące jego definiowania, pozostanę natomiast przy takim jego rozumieniu, które określiłbym jako wywodzącą się z typografii, wzornictwa przemysłowego, projektowania graficznego oraz kultury mediów audiowizualnych i sztuk plastycznych metodę konceptualizowania i estetyzowania przedmiotów codziennego użytku. Design ma swoje korzenie w typografii, kartografii, malarstwie i innych pokrewnych sztukach plastycznych. Z nich czerpie metody pracy i wyobraźnię wizualną wraz z jej historycznymi kodami artystycznymi i rzemieślniczymi. Estetyczną wrażliwość uzupełnia w nim wiedza projektantów z zakresu materiałoznawstwa, inżynierii, mechaniki, itd. Design to zatem praktyka, która polega na graficznym estetyzowaniu rzeczywistości technologicznej w celu wydobycia ich wspólnego znaczenia komunikacyjnego. W tym sensie jest to jedna z odnóg kultury wizualnej w ogóle. Jest jednak przedłużeniem krytycznym – zawsze subwersywnie patrzy na tradycyjne obrazy i media je transmitujące, poszukując krytycznych dla nich alternatyw [275].

Rozwijający się design dotarł już jakiś czas temu do granicy, do której za sprawą taktylnych obrazów dociera dziś kultura wizualna w ogóle. Granicą tą, jak pamiętamy, jest kryzys obrazów będących jedynie wizualnymi reprezentacjami. Designerzy idąc tropem zasugerowanym w sztuce przez Duchampa (ku materialności obiektów), a następnie przez emancypację znaków (kultura symulacji) uznali znaki za fizycznie istniejące obiekty, a fizycznie istniejące obiekty za znaki. Z tego przemieszania bierze się popularność designerskich rozwiązań architektonicznych i dekoracyjnych, które często nie spełniają żadnych funkcji poza estetyczną: znako-przedmiotów i przedmioto-znaków. Rozwój tej sfery, w dużej mierze niezależny od bieżącego rozwoju cyfrowej kultury komunikacyjnej, zmierza w kierunku obrazów urzeczywistnionych, oferujących całe spektrum fizycznych doznań, wśród których widzenie, obok dotyku, zapachu, aranżacji przestrzeni, jest tylko jednym z wielu wyzwalanych bodźców. W tym miejscu oba te nurty współczesnej kultury upodabniają się, podobnie jak to miało miejsce w relacjach mapy i terytorium, do siebie i splatają w praktyce codzienności: „designerskich” sprzętów codziennego użytku, „designerskiego” myślenia o modzie i architekturze [276].

Designerska taktylność znaków objawia się, na przykład, w ramach postmedialnych eksperymentów z typografią i znakami pisma, alfabetem. Popularne fonty stają się przedmiotami i przenikają ze stron książek i ekranów komputerów do przestrzeni publicznej, pełniąc wciąż jeszcze rolę tradycyjnych znaków, ale i nową rolę fizycznych obiektów artystycznych poddających się warunkom otoczenia, pogodzie i przechodniom. Matt Michaluk, angielski artysta i designer, z okazji 50 urodzin jednego z najbardziej popularnych krojów XX stulecia, Helvetica, przygotował typograficzny tort. Ciasto miało postać wyrazu Helvetica oczywiście zaprojektowanego fontem Helvetica. Następnie tort został pokrojony na kawałki i zjedzony [277]. Amerykański artysta, Thomas Allen, znany jest natomiast z realizacji projektów, w których wycinane z kolorowych czasopism figury konfrontuje z realnymi przedmiotami: gazetowa postać podtrzymuje rząd przechylających się książek [278]. Te współczesne gry ze znakami to echa idei i działań dla designu „klasycznych”, których pierwowzory odnaleźć można w pismach uznawanych za prekursorów tej dyscypliny autorów, takich jak choćby węgierski projektant, filmowiec, nauczyciel i teoretyk László Moholy-Nagy, który zauroczony fotografią marzył o jej połączeniu z typografią. Swoją wizję powstałego w ten sposób TYPOPHOTO tak sam opisywał:

Skupiłem się na analizie kondycji postmedialnej rozumianej jako nowa sytuacja technologii komunikacyjnych oraz sprzężonych z nimi dyskursów i teorii humanistycznych, które je objaśniają. W takim sprzężeniu upatruję nie tylko klasycznej relacji na linii rzeczywistość i jej teorie, ale przede wszystkim mechanizmu kulturowego sterującego rozwojem cyfrowych i sieciowych ewolucji. Nauka, sztuka i technika zapętliły się w trójstronne kontinuum, które można nazwać „silnikiem” napędzającym zmiany w komunikacyjnym ekosystemie. Jego energetyczna skuteczność zależna jest od ilości „paliwa” dostarczanego przez każdy z podpiętych tu układów. W książce najwięcej miejsca poświęciłem analizom przepływów i emanacji na linii technika-dyskursy-kultura, ale budując argumentację i starając się dla niej odnaleźć właściwe narzędzia pojęciowe wielokrotnie dochodziłem do wniosku, że bez dwóch pozostałych układów zasilających moje analizy pozostają niepełne. Stąd i najważniejsze wnioski, które wynikają z problematycznie sytuacji postmedialnej w przyjęty przeze mnie sposób. Są one następujące: