Czytaj książkę oznaczoną tagiem: interfejs

Kondycja postmedialna materializuje się na skutek synergii funkcjonujących i rozwijających się paralelnie obszarów kulturowej i komunikacyjnej sceny współczesności. Postmedialność narasta jednocześnie: w sferze techniki, gdzie wspiera się na takich procesach, jak konwergencja, wirtualizacja, obecność software, interfejsów i protokołów; w polu społecznym, gdzie ma miejsce socjalizowanie technologii medialnych wyrywanych systemowi kultury masowej i wynikające z tego procesu sieciowanie, emancypacja użytkowników oraz powstawanie społeczeństwa informacyjnego i sieciowego; oraz w polu antropologicznym, gdzie przekształceniom podlega zbiorowa wyobraźnia komunikacyjna wraz z zakorzenionymi w niej kompetencjami medialnymi i objawiają się nowe postawy i logiki komunikacyjne.

W sferze techniki kondycja postmedialna wyłania się z zaniku autonomicznych form i gramatyk medialnych. W domenie cyfrowej wymazane zostały różnice pomiędzy poszczególnymi mediami epoki analogowej. Wchodząc do cyfrowego świata zostały one pozbawione wielu swoich szczególnych, materialnych i gramatycznych cech, reguł i kształtów – fotografia zanurzona w cyfrowości traci światłoczułą kliszę i papier, dźwięk rozstaje się z taśmami i płytami: najpierw winylowymi, a dziś także i cd. Kino stapia się systematycznie z poetyką gier interaktywnych, prasa staje się hipertekstowa i multimedialna. Ta separacja to konsekwencja gwałtownego w cyfrowości przyspieszenia zjawiska konwergencji mediów. Choć jest ono na stałe wpisane w losy techniki, a kolejne z jej form wchłaniają/naśladują/przekształcają wcześniejsze, to jego cyfrowa postać i prędkość okazały się bezprecedensowo radykalne i definitywne w tym zakresie [6]. W dyskursie teorii nowych mediów i cyberkultury stan ten został rozpoznany jako przejście od fazy mediów do fazy interfejsów, które istniejące media zaadaptowały do cyfrowych i sieciowych okoliczności. W momencie, kiedy wszystkie dotychczasowe media zostały zdigitalizowane, czyli przetłumaczone do postaci ciągów alfabetu cyfrowego kodu, i sprowadzone do postaci baz danych, rozpoczął się ich kulturowy remiks na ogromną skalę.

W domenie cyfrowej historyczne gramatyki mediów obowiązują jednakowe zasady. Wszystkie cyfrowe dane obowiązuje tu równość wobec kodu, fizycznych zasad elektryczności i hardware oraz tłumaczących je kulturze interfejsów. Poddają się one programowaniu, adaptują swoje zasoby do wymogów strukturalnych baz danych i sieciowych protokołów komunikacyjnych, wzajemnej synchronizacji i wymieszania, itd. – stają się po prostu bazami danych, ciągami cyfrowego kodu zer i jedynek, którymi można za pomocą dowolnych algorytmów zarządzać zgodnie z regułami cybernetycznej wiedzy i możliwościami obowiązujących interfejsów użytkowych. W wersji cyfrowej można z mediami zrobić wszystko to, co możliwe jest do pomyślenia i kalkulacji według ogólnie obowiązującego w cyfrowym świecie modelu (sformułowanego przez tradycję matematyki oświeceniowej i wyrażonego dosłownie przez kreatora architektury obliczeniowej współczesnych maszyn cyfrowych cybernetyka (Johna von Neumanna): interfejs wejścia-cyfrowe kalkulacje-interfejs wyjścia. W ten sposób zarówno obraz, jak i utwór muzyczny, fragment tekstu powieści czy film stają się ciągiem zer i jedynek zapisanych w cyfrowych bazach danych, otwartych na różne software’owe i interfejsowe wywołania i działania różnych algorytmów.

Znaczenie radykalnej konwergencji medialnych form w cyfrowym świecie potęguje kulturowa reguła mediacji i medialnej komunikacji. W świecie przesyconym technologicznymi rozwiązaniami służącymi komunikacji medium nie istnieje w liczbie pojedynczej, jako autonomiczna kategoria poza systemowym kontekstem. Możliwe kulturowo, percypowalne i funkcjonalne jest tylko w systemie składającym się także z innych przekaźników, spełniających inaczej podobne zadania wewnątrz komunikacyjnego ekosystemu i występujących w określonych relacjach wobec siebie nawzajem. Jedynie z poziomu wejrzenia w wewnętrzny układ tego ekosystemu rozpoznać można pojedyncze, różne od siebie nawzajem, ale dopełniające się w kulturowej praktyce elementy – poszczególne medialne formy, języki, systemy znaczeń. Z tego powodu radykalna cyfrowa konwergencja okazuje się stanem, który przekracza i unieważnia granicę rozpoznawalności fenomenów medium i mediów jako takich. Poza tą, strzegącą zrębów tożsamości analogowego uniwersum komunikacyjnego, granicą istnieje analogowo rozumiany niebyt dotychczasowego układu sił i jego form czy też inaczej hybrydowa postmedialność na styku tego, co analogowe, i tego, co cyfrowe; sytuacja, która dotyczy nie tylko zaniku różnic między istniejącymi kulturami mediów i nimi samymi, ale i rozprasza świadomość i wyobraźnię medium jako takiego (faza postmedium). Totalna konektywność i wymienność form, którą wprowadza do kultury cyfrowość, skutecznie wymazuje kulturowy sens medium, techniczne kształty i dotychczas istniejącą strukturę komunikacyjnego ekosystemu kultury. Odrzucając dotychczasowe reguły przypisane w kulturze poszczególnym przekaźnikom i całemu systemowi zwrot postmedialny objawia się, przynajmniej w sensie technologicznym, jako przestrzeń nieustannego loopu transferowanych z olbrzymią prędkością danych, które, jak to już powiedziałem, przybierać mogą dowolne interfejsy, dowolne wywołania algorytmów [7].

Fakt ich rozpoznawalności i możliwości wykorzystywania w codziennym życiu bierze się już tylko z siły dotychczasowych przyzwyczajeń, z kompromisów zawieranych przez kreatywnych, rozumiejących sens zmiany cyfrowej i sieciowej, ludzi nowego medialnego porządku z wymogami dotąd istniejącej kultury masowej z jej analogowymi mediami, linearnymi przyzwyczajeniami i sposobami myślenia. Na obecnym etapie zanikania historycznych gramatyk mediów analogowych cyfrowe interfejsy użytkowe odwołują się do reprezentacji poprzednich gramatyk medialnych i poddają się systematycznemu remiksowi. W konsekwencji dystans pomiędzy kulturą, czyli przestrzenią koordynowaną symbolicznie (matematyka>programowanie>systemy operacyjne), a ujarzmionymi zjawiskami fizycznymi (elektryczność, właściwości materiałów modelowanych w celu uzyskania kontroli nad falami i innymi zjawiskami fizycznymi, takimi jak oporność) wciąż pozostaje na poziomie wystarczającym, aby można było dalej myśleć o medialnej przestrzeni w tradycyjnych, medialnych kategoriach. Stan ten nie zmieni się, dopóki cyfrowe rozwiązania technologiczne, takie jak strona internetowa czy film cyfrowy, nie zostaną zastąpione rozwiązaniami odpowiadającymi w większym stopniu wyzwaniom ducha cyfrowości i sieci niż starającymi się nawiązywać kompromisowy dialog z mediami przeszłości.

Jednocześnie coraz więcej medialnych tekstów i form powstaje w formule cyfrowe dane + interfejs, co oznacza, że już niebawem – zarówno technologicznie, jak i w obrębie wyobraźni kulturowej – możliwe będzie zrównanie atomów i bitów, wykluczenie analogowego pośrednictwa medialnego. Postmedialne okoliczności stworzą kulturowe podłoże dla bezpośredniej manipulacji światem atomów za pomocą bitów, wyemigrujemy z analogowego świata medialnych form i sensów ku pełni cyfrowego zakodowania rzeczywistości [8]. Ślady tego kierunku ewolucji technologii cyfrowych i kultury dostrzec można, na przykład, w rozwijaniu technologii pikselowej. Systematycznie postępuje w tym obszarze zbliżanie się wielkości hardware’owych pikseli do fizycznych wielkości atomu, a także nieustanne poszerzanie zdolności funkcjonalnych pikseli, tak by nie tylko wyświetlały obrazy, ale i umożliwiały nad nimi bezpośrednią, taktylną kontrolę. W rezultacie w przyszłości można spodziewać się cyfrowych zdjęć dających się „zoomować” niemal w nieskończoność w stosunku do poziomu startowego, który wyznacza pole widzenia człowieka i oparta o jego wytyczne kultura wizualna. Piksele z czasem spełnią poetycką obietnicę Google Earth sugerującą bazodanową reprezentację i nawigację po doskonałej mapie planety, by jednocześnie zaoferować algorytmiczne i mechaniczne możliwości manipulacji jej elementami zarówno na poziomie widzenia planety czy galaktyki, jak i w „zbliżeniu” do atomów, neutrin, bozonów i wszelkich ich niewidocznych struktur, jak DNA czy struktura fal – wątek ten rozwinę w ostatniej części książki, kiedy będę analizować cyfrowe losy mapy.

Software to także najbardziej hybrydowy i fantomowy ze współczesnych medialnych stanów i form. Jego praktyka zorientowana jest z założenia na procesualność – uruchomione oprogramowanie najczęściej pracuje w tle niezależnie od bieżących, cząstkowych działań użytkownika na poziomie jego interfejsu użytkowego. Jego status rozciąga się pomiędzy materialnością działań dokonywanych za sprawą kontrolowania elektryczności wewnątrz infrastruktury obliczeniowej maszyny cyfrowej a efemerycznością wirtualności, czyli abstrakcyjnych zapisów w różnych (równie abstrakcyjnych) formalnych, programistycznych językach i kodach. Software jest zatem jednocześnie matematyczną abstrakcją i elektryczną materialnością, wirtualnym procesem i materializującym się interfejsem. Sytuuje się pomiędzy indywidualnym doświadczeniem mediów a ich wymiarem społecznym w różnych przybieranych przez nie formach, takich jak systemy operacyjne i personalizowane aplikacje, aplikacje transmitujące i aplikacje interaktywne [36].

Jednocześnie widać w tym rozdarciu sieciowego świata dążenie do synergii rozciągających go energii i wektorów. Sprzeciw i niechęć wobec wszelkich reguł systemowych powoduje odrzucenie także i sprawdzonych, pragmatycznych mechanizmów działania, których obecność okazuje się elementem koniecznym. W tym samym czasie tradycyjne formy organizacji społecznych otwierają się na reguły sieciowe, usieciowiają się. W obliczu tych zmian pojawiają się także mechanizmy hybrydyczne, które łączą nie tylko sieciową chaotyczną i twórczą energię i żywotność z pragmatyką i strukturami form hierarchicznych. Dochodzi w nich do połączenia czynnika ludzkiego z logiką samych maszyn i sterującego nimi hardware. Twórcy przedsięwzięcia o nazwie MobileWorks stworzyli, to jeden z przykładów na ten temat, oprogramowanie, które samodzielnie zarządza pracą wielu gotowych wykonać pojedyncze drobne zlecenia. Logując się do bazy otrzymują z niej zadania do wykonania wybrane zgodnie z ich predyspozycjami, kwalifikacjami, zdolnościami i czasem, który gotowi są poświęcić na to działanie. Pojedynczy pracujący w takich wirtualnej chmurze/firmie nie musi znać ogólnego celu swojej pracy, nie posiada wglądu w pracę pozostałych, ale realizując zlecone w ten sposób zadanie jest stroną relacji pracodawca-pracownik [55].

Postmedia można w kontekście antropologicznym określić synonimicznie: media wyobrażone. Za sprawą interaktywnych software i interfejsów możliwe jest ich bezpośrednie i niemal nieograniczone formalnie (granicą są tu jedynie parametry hardware), dokonujące się w czasie rzeczywistym, sprzężenie z procesami myślowymi. Domena cyfrowa funkcjonuje na zasadzie nieustannie zapętlonego sprzężenia wyobraźni, języka i medialnej materii: interfejsów, kodu i baz danych. Wyimaginowane idee, fantazje, marzenia, utopie transformują się tu natychmiast w modele symboliczne, czyli wyrażenia językowe (kody kultury) i w dalszej kolejności interferują z materią cyfrowego systemu. Taka relacja pomiędzy wyobraźnią, językiem i materią dotyczy nie tylko programistów, projektantów czy inżynierów, którzy są w stanie dzięki swoim umiejętnościom rozmawiać z technologiami i formować je. Dotyczy także zwykłych jej użytkowników, którzy coraz sprawniej dysponują specjalistycznymi umiejętnościami i mają dostęp do coraz większej ilości zakodowanych w nich zasobów. Obowiązuje tu nieustanny loop transferów danych, obliczeń i sterujących nimi „zasobów” ludzkich. Miękka część cyfrowych mediów, czyli software i interfejsy, to ni mniej ni więcej jak tylko zakodowane i utrwalone cyfrowo wyobraźnia i wnikające/wynikające z niej, odbite i zamrożone w medialnych formach procesy myślowe.

Permanentne wpięcie w medialny ekosystem potencjału wyobraźni kulturowej i możliwość jednoczesnego czytania/pisania mediów/mediami to sytuacja, która z jednej strony powoduje nieustanne testowanie i weryfikowanie form mediów i ich bieżącą rekonstrukcję/programowanie prowadzące do ich remiksowania i zanikania. Z drugiej strony sprzyja zacieraniu się w kulturze konceptu mediów jako takich. W ten sposób niezależnie od kontekstu społecznego i technologicznych scenariuszy również w obszarze wyobraźni kulturowej media rozpływają się i znikają, wypełniając w ten sposób warunki kondycji postmedialnej. W miejscach wyraźnych materialnych medialnych kształtów i gramatyk ostają się tylko ich pojedyncze elementy składowe, które wchodzą w różne reakcje pomiędzy sobą.

W sytuacji postmedialnej, powtórzę, wszystkie potencjalne media są możliwe i dostępne za sprawą wywołania ich form w środowisku cyfrowym, tj. programistycznego odwzorowania czy zaprojektowania ich języka na bazie nieskończonych możliwości kombinatorycznych kodu zer i jedynek, oraz przypisania tak powstałym formom software’owym odpowiednich interfejsów wywoławczych, ubrania ich w zrozumiałe, swojskie szaty użytkowe. To kolejny element medialnego sprzężenia technologicznych form mediów z kulturową wyobraźnią. W ekosystemie cyfrowym wyobraźnia staje się jednym z niewielu metazasobów (zasobników) kulturowych gotowych do natychmiastowego wykorzystania i programowania zarówno w skali indywidualnej, jak i zbiorowej. To magazyn kulturowej pamięci. Kształt i szybkość/sens działania mediów cyfrowych pozostają w coraz większym stopniu funkcją sprzężenia z tą wyobraźnią.

Doświadczenie sytuacji postmedialnej wykracza poza granicę wytyczoną przez media w ogóle i, na powrót, okazuje się bardzo bliskie posługiwaniu się językiem. Polega na uznaniu pełni barw medialnego spektrum form i interfejsów i wymieszaniu ich technokulturowych cech. Tym samym, zataczając historyczną pętlę, sytuacja ta upodabnia się do kondycji premedialnej (przedtechnologicznej), za jaką uznajemy zjawisko mowy i regulujące je zasady języka. Samego języka nie sposób uznać za technologię medialną, choć taki status przypisany został w dyskursie medioznawczym piśmienności, alfabetowi i wszystkim kolejnym, wynikającym z nich, mowo- i pismopochodnym technologiom mediacji (radiu, telefonii). Język ma naturę poprzedzającą wszelkie technologie pośredniczące w komunikacji – jest najbardziej zinternalizowanym, intymnym i symbolicznie pierwszym, referencyjnym pomostem pomiędzy osobą a światem i innymi osobami, najważniejszym naturalnym „interfejsem” homo communicans. Nie da się go odseparować od mówiącego, jest przymiotem osoby, a nie (nie tylko) stworzoną przezeń formą/technologią, choć wpływom technologii, różnego rodzaju remediacjom poddaje się nieustannie. Różni się także od pozostałych naturalnych form postrzegania świata, w które człowiek został wyposażony. Pozwala nie tylko „widzieć”, ale i projektuje/kreśli „obrazy”, nie tylko „słyszy”, ale i wzbudza dźwięk. W tym sensie jest nie tylko pośrednikiem w postrzeganiu i rozumieniu rzeczywistości, ale i taktylnym narzędziem jej konstrukcji – wielkie religie pouczają, że świat zaczyna się od wypowiedzianych przez Boga słów, a powszechnie wierzymy, że niczym nie można dotknąć bardziej, do żywego, niż słowem.

Sięgnijmy teraz do propozycji teoretycznych tego dyskursu. Definicję podstaw posthumanizmu oferuje na przykład teoretyczka mediów Katherine Hayles w książce How We Became Posthuman z roku 1999. Autorka wskazuje na cztery założenia, na których wspiera się ten dyskurs. Po pierwsze, sygnały komunikacyjne postrzega on jako bardziej istotne od swoich materialnych nośników, w tym także ludzkiego ciała i jego sensorium. Pojedyncze ich uosobienia to tylko epizody w historycznej logice komunikacji kodu genetycznego. Po drugie, posthumanizm rozumie świadomość inaczej, niż to ma miejsce w tradycji kultury zachodniej, dla której jest ona początkiem i centrum życia ludzkiego. W dyskursie posthumanizmu jest ona raczej epifenomenem, jednym z wtórnych elementów, które składają się na całokształt podmiotu i jego kultury, natomiast niematerialny duch w niej nie istnieje. Po trzecie, posthumaniści postrzegają ciało jako pierwotną protezę, którą z biegiem ewolucji człowiek oswoił i nauczył się w ograniczonym stopniu wykorzystywać. Nic nie stoi na przeszkodzie, aby uzupełniać/poszerzać jej możliwości za pomocą innych stworzonych przez ludzki gatunek protez, głównie tych techologicznych. Czwarte założenie posthumanizmu to przekonanie, iż egzystencję da się osadzić wewnątrz maszyn cyfrowych. Dla ludzkiej rozumności i duchowości nie powinno stanowić problemu wyrażanie siebie za ich pośrednictwem. Nie ma w konsekwencji znaczących różnic pomiędzy egzystencją człowieka w biologicznym ciele oraz w domenie cyfrowej, jako projektu cyborgicznej inteligencji. Zamiast poszukiwać i analizować różnice pomiędzy człowiekiem a robotem, materią a kodem, cielesnością a symulacją komputerową, należy skupić się na odnajdywaniu podobieństw pomiędzy nimi – oto przewodnie hasło posthumanizmu [84].

W poprzednim rozdziale naszkicowałem ogólną topografię sytuacji postmedialnej. Rozciągnąłem w niej na obszar komunikacji medialnej diagnozy krytyków i teoretyków sztuki mediów, przekonanych co do faktu, iż w dobie powszechnej cyfryzacji technik medialnych dawne pojęcie medium i zespół desygnatów z nim związanych ulegają dekompozycji. Rzeczywistość zapełniona cyfrowymi mediami uznałem za przestrzeń, w której dotychczas znane kulturze idee, estetyki i gramatyki medialnych form stapiają się i stają się najpierw nierozróżnialne, a z czasem niewidzialne – wypierane są przez strukturę cyfrowego kodu, software i interfejsów.

Niezależnie od takiego odsłaniania tekstualności kodu i cyfrowości pisma oba porządki jedynie z pozoru są wymienne i kompatybilne. Cyfrową gramatyką, syntagmą, jej potencjalną/przygodną estetyką, czy estetyzacją, rządzą reguły wyznaczone przez zjawisko elektryczności i odczytujących jej zasady fizyków oraz inżynierów zajmujących się ich technologiczną translacją wobec wymogów materiałowych, systemowych i innych związanych z hardware. W obliczu kondycji postmedialnej można uznać, że najlepszym dostępnym dziś paratekstualnym interfejsem łączącym gramatyki technologii z gramatykami kultury lingwistycznej i tekstualnej pozostaje wciąż matematyka, a w szczególności logika, geometria i algebra.

Ponad tym bazowym poziomem spotkania matematyki i elektryczności (kultury i natury) nadbudowane są warstwy software, których zadaniem jest „ukulturalnianie” pierwotnego zapisu 1 i 0, nadawanie mu bardziej wyrafinowanych matematycznie, a więc także i kulturowo, form kodowania. Jedną z nich jest choćby ASCII (American Standard Code for Information Interchange) – 7-bitowy kod przyporządkowujący liczby z zakresu 0-127 literom alfabetu łacińskiego, cyfrom, znakom przestankowym i innym symbolom oraz poleceniom sterującym. Dla przykładu litera „a” jest w ASCII kodowana liczbą 97 (w zapisie binarnym będzie to: 0110 0001), a znak spacji jest kodowany liczbą 32 (w zapisie binarnym będzie to: 0010 0000). Wysiłek twórców obu splecionych warstw nowych mediów, software i hardware, polegający na przygotowaniu takich wersji cyfrowego projektu kulturowego, które będą najbardziej możliwie proste w obsłudze dla przeciętnego użytkownika, intuicyjne antropologicznie, zmierza ku całkowitemu odseparowaniu go od elektryczności, a jej samej uczynieniu niewidzialną, przezroczystą kulturowo, ukrytą wewnątrz struktury maszyny. Automatyczną, zakodowaną wcześniej kontrolę nad elektrycznością przejmują zaimplementowane w maszyny i systemy operacyjne protokoły i oprogramowanie niskiego rzędu (BIOS, instrukcje zapisane w czipach składających się na architekturę hardware), a użytkownik nie ma wielu użytkowych powodów, możliwości ani sposobów, aby ją dla siebie odzyskać. Najbardziej tajnym, skrywanym fizycznie i software’owo szyfrem projektu cyfrowego pozostaje zjawisko elektryczności w całej swej prostocie pojawiania się i znikania, otwierania i zamykania mikroobwodów [125].

Sądzę, że taka „wielka nieobecność” elektryczności w codziennej, bezpośredniej kontroli mediów cyfrowych jak i w ich medioznawczej, kulturowej teorii została nie tylko ustanowiona za sprawą wymogów miniaturyzacji hardware, bezpieczeństwa użytkowników, kwestii ekologicznych czy problemów funkcjonalnych. Elektryczność znajduje się po tej samej stronie kulturowo-naturalnych podziałów, po której znajduje się wnętrze ludzkiego ciała przesłonięte przed zmysłami szczelną granicą skóry poprzecinaną jedynie wyspami naturalnych „sensorów”. W siebie samych, w sensie fizycznym, nie mamy przecież wglądu. O tym, co się wewnątrz naszych organizmów dzieje, wiemy jedynie w przybliżeniu z podręczników anatomii i fizjologii oraz na skutek nieoczekiwanych wypadków, podczas których naruszona zostaje nasza fizyczna integralność. Osobną rolę odgrywają w poznawaniu naszego wnętrza maszyny medialne – RTG, USG, skanery na lotniskach, stetoskopy, itd. Na razie rolę anatomów i fizjologów elektryczności wewnątrz cyfrowych organizmów spełniają jedynie wybrane elity inżynierów. Można się jednak spodziewać, że podobnie jak wokół software i programowania, a zatem wokół matematyczności wcielonej w cyfrowe formy, narodziły się oddolne środowiska i ruchy obnażające, projektujące i wykorzystujące jej zasady dla własnych celów – takie jak ruchy Wolnego Oprogramowania, społeczności programistów i hakerów, tak i elektryczność hardware doczeka się z czasem podobnego w skali i zakresie zainteresowania i popularyzacji. Już dzisiaj z rosnącym wzięciem funkcjonują projekty społeczne i kulturowe, które eksperymentują z hardware i improwizują w oparciu o napędzającą go elektryczność. O tym jak bardzo potrzebne są w kulturze cyfrowej różne warianty jej wykorzystania i oswajania, różne towarzyszące jej dyskursy, niech świadczy wielka popularność ruchów DIY hardwaretweak hardware. Pośród nich najprężniej funkcjonują środowiska skupione wokół idei otwartego hardware i jego społecznościowych przekształceń dokonywanych na bazie mikrokomputerów Arduino, czy Raspberry Pi. Społeczności te wspólnie projektują, testują, przekształcają, popularyzują i wdrażają przeróżne cyfrowe systemy i instalacje w oparciu o te urządzenia; wynajdują dla komputeryzacji niezwykłe zastosowania, programują dedykowany im software, dobierają stosowny hardware i zajmują się upowszechnianiem budowanej w ten sposób bazy wiedzy o możliwościach alternatywnego wobec korporacji i systemów państwowych rozwoju projektu cyfrowego.

Poddanie cyfrowego świata elektryczności, translacja kultury do jej fizycznego „języka”, ma daleko posunięte konsekwencje. Cyfrowy świat odnajduje w elektryczności swój uniwersalny i totalny zarazem nośnik, dopasowuje do niej swój kod. Ma tu miejsce jednocześnie jeden z najważniejszych dla postmedialności procederów, który na poziomie materialnym inicjuje wymieszanie dotychczasowych mediów, ich języków i form. To zjawisko polega na elektrycznej dekonstrukcji informacji, która w formie digitalnej traci tradycyjną nierozerwalność z formą (to zasada medialności) i nomadycznie wędruje pomiędzy różnymi wywołaniami, interfejsami i remiksami oczekując na ponowną materializację. Zelektryfikowana informacja redukuje się do postaci danych. Uwolnione od tradycyjnej tożsamości z nośnikami dane cyrkulują pomiędzy już dostępnymi interfejsami, algorytmami i protokołami. Pozostają w stanie nieustannej gotowości do bycia na różne sposoby wywołanymi i zinterpretowanymi za pomocą wszystkich możliwych metod, przyjęcia dowolnej medialnej formy i dowolnego statusu. Napięcie elektryczne „ożywiające” martwe krzemowe i metalowe obwody i układy scalone cyfrowego świata nie zna tradycyjnych kulturowych kodów, które stanowiły o jakości informacji, o jej ciężarze gatunkowym, kontekście społecznym, itd. Gotowe jest równie dobrze odtworzyć w abstrakcyjny sposób wszelkie wcześniejsze języki, formy i media, jak i powoływać do istnienia wszelkie inne, będące częściowo remediacjami już istniejących, jak choćby interaktywna telewizja czy prasa, jak i zupełnie nowe, takie jak interaktywne wizualizacje baz danych. Różnicujące się formalnie z wyraźnym przyspieszeniem w okresie nasilenia się rewolucji przemysłowej środowisko technologiczne mediów wystawia na ciężką próbę dotychczasowy monopol mediacji gutenbergowskiej. Wraz z pojawieniem się radia, fotografii, potem filmu, telefonu, rodzi się nowa sytuacja ontologiczna, w której komunikat można odseparować od transmitującego go medium. Wtedy to właśnie pojawia się informacja jako taka. Jako tekst, który wymyka się literaturze; przekaz, który konkurencyjnie podejmują i próbują zawłaszczyć inne technologiczne formy nowoczesnych mediacji. W ten sposób informacja przestaje być materialna i powoli przekształca się w to, czym jest dzisiaj – potencją/energią komunikacyjną szukającą najlepszego wcielenia technologicznego (interfejsu). To technologiczne zróżnicowanie medialnych form dowodzi zasadniczej różnicy pomiędzy materią a informacją, pomiędzy rzeczywistym a symbolicznym w komunikacyjnym uniwersum [128].

Niezależnie od mniej lub bardziej prawdopodobnych scenariuszy zasiedlania i kolonizowania elektryczności przez projekt cyfrowy pozostaje ona niezmiennym warunkiem jego funkcjonowania w obecnej postaci. Pracę nad alternatywnymi modelami komputeryzacji, takimi jak biokomputery, dokonujące obliczeń w specjalnie do tego celu przystosowywanych organizmach żywych (roślinach, bakteriach), czy też koncepcje wykorzystania przewodzenia światła zamiast elektryczności w obwodach cyfrowych, są o tyleż obiecujące i intrygujące, co wtórne wobec myślenia o komputeryzacji elektrycznej, bowiem biologiczne maszyny musiałyby bazować na mikroelektrycznej wymianie napięć zachodzącej w każdym organizmie żywym, zaś maszyny wykorzystujące przewodzenie i manipulowanie światłem opierałyby się jedynie o inne spektrum fal tego samego zjawiska – światło i elektryczność mają jedną „genetykę”, czego dowodzi choćby piorun.

Im bliżej do użytkownika i jednocześnie im dalej od hardware, tym bardziej te warstwy odbiegają od prostoty binarnego kodu i tym bardziej stają się „kulturowe” – dostępne na wyższych poziomach języki przybierają postać kodów bliskich językowi mówionemu, posługują się jego słownikiem i gramatyką – są paratekstualneparawizualne, czyli zostały zakodowane semantycznie, a nie tylko technologicznie [139]. Są takie, bowiem muszą być bliskie kulturze, aby pracujący z nimi programiści mieli możliwość posługiwania się zrozumiałymi, osadzonymi w kontekście kulturowym systemami znaków budując wypowiedzi, które oni sami i finalni użytkownicy powstających w ten sposób tekstów będą potrafili zredagować i zrozumieć, i które będą jednocześnie czytelne dla maszyn [140]. Upowszechnianie cyfrowych technologii i ich otwarcie na możliwości programowania domagają się coraz bardziej podobnych do „naturalnych” kodów kultury ekwiwalentów cyfrowych. Współczesne programowanie w konsekwencji w coraz mniejszej skali składa się z operacji bezpośrednio projektowanych w kodzie binarnym, a coraz bliżej mu do takich nowoczesnych praktyk, jak design, typografia, projektowanie interakcji, negocjacje protokołów, interfejsy użytkowe. Im bliżej użytkowej powierzchni cyfrowej maszyny, tym bardziej software upodabnia ją do wizualnych, audialnych i mieszanych kodów kultury. Bez tej wielokrotnej translacji i uobecniania niemożliwy byłby bezpośredni, interaktywny kontakt z maszyną.

Stwierdziłem wcześniej, że kod cyfrowy to jednocześnie znaki, którymi w przypadku zapisu binarnego są cyfry 0 i 1, oraz łącząca je w różne formy gramatyka, w tym przypadku matematyka. Bez określonej metody operowania znakami niemożliwe byłoby budowanie na ich podstawie złożonych wypowiedzi, co w kontekście technologii cyfrowych oznacza, że bez logicznie poprawnych matematycznych formuł, algorytmów i protokołów nie można by zmusić maszyn kalkulujących do poprawnego działania. Ich funkcje odpowiadają podstawowym zasadom regulującym formy języka – konstrukcjom zdaniowym, leksykalnym, relacjom pomiędzy elementami słownika, bez których język przypominałby bezładne, sylabiczne guganie. W przestrzeni cyfrowej protokoły są regulatorami wszelkiej wymiany, transferów, łączenia się ze sobą urządzeń w sieciach. Działają jako organizatorzy i zarządcy cyfrowego świata. W mojej postmedialnej perspektywie ich działanie jest ważne o tyle, że powstały i funkcjonują nie tylko jako wyrażenia matematyczne i reguły elektryczne, są także instrukcjami (rozkazami), którym cyberprzestrzeń jest posłuszna na najgłębszym poziomie swojego istnienia. W takim sensie cyfrowy kod i elementy systemu hardware można postrzegać jako kodeks, zaś protokoły jako wcielone w technologiczne formy jego przepisy i paragrafy. Tym razem idzie tu jednak o społeczną funkcję kodyfikacji prawa, a nie o jej medialną formę, o której pisałem analizując językowe afiliacje kodu cyfrowego, o polityczną ekonomię kodu, a nie jego semantyczną naturę.

W powszechnym doświadczeniu protokoły pozostają niewidocznymi siłami, które implikują założone konsekwencje/limity regulujące kształt cybernetycznego świata hardware i software. Zamiast świadomości tego działania i wiedzy o jego skutkach mamy, jako użytkownicy cyfrowego świata, raczej intuicje i podejrzenia związane z takim stanem rzeczy. Zarówno jedne, jak i drugie wyraziła Ellen Ullman już ponad dekadę temu, pisząc:

Lubię myśleć o komputerach jako neutralnych narzędziach […] ale jest coś w systemach cyfrowych, w formalnej logice działania obliczeniowego i pracy baz danych, co nie pozwala nam na poczucie pełnej nad nimi kontroli, co tworzy ich własny, nieprzenikniony świat […] przychodzi taki moment w kontakcie z komputerem, kiedy jego wewnętrzna, tajemna logika przejmuje kontrolę nad spotkaniem człowieka z cyfrowym światem [144].

Sieci i przede wszystkim sieć sieci – Internet, właśnie przez pryzmat polityki i ideologii realizowanej za pomocą protokołów postrzegają w swojej teorii sieci amerykańscy teoretycy Galloway i Thacker [146]. Internet, szczególnie po wydarzeniach terrorystycznych z roku 2001, jest dla nich areną dynamicznego utrwalania relacji władzy i przestrzenią nasilającej się kontroli. Odwołując się do Foucaultowskiej, biopolitycznej koncepcji władzy i obserwacji Deleuze na temat społeczeństwa kontroli, definiują protokoły wychodząc daleko poza ich technologiczne desygnaty. Widzą w nich zarówno aparaturę, za pomocą której fizycznie spinana są węzły sieci, ale i polityczne narracje (programy, kody), które wpisane są w hardware’owe formy umożliwiające protokołom działanie [147].

Kulturowe rozpoznawanie i oswajanie logiki zakodowanej w bazie danych nie jest zjawiskiem jedynie współczesnym, odnoszącym się wyłącznie do krótkiej historii technologii cyfrowych. Bez odpowiedniego podłoża kulturowego, na które składa się zbiorowa wyobraźnia kulturowa, oddziaływanie systemów społecznych i politycznych, prawa, niemożliwe byłoby pomyślenie ani tworzenie baz danych w ich dzisiejszej, cyfrowej formie technologicznej. Wśród wielu tropów, które ku bazodanowej wyobraźni prowadzą, jeden ma znaczenie szczególne. Chodzi o mit/figurę/metaforę „drzewa życia”, który okazał się uniwersalną w historii różnych kultur, religii i systemów politycznych opowieścią o sensie życia i porządku świata. Mit ten odwołuje się do kształtu i organicznej struktury drzewa (liściastego): jego rozłożyste konary i gałęzie symbolizują wielość dróg, które schodzą się ostatecznie w jednym miejscu: hierarchiczny kształt to obraz sposobów poznania i generalny kształt wiedzy; podziemne ukorzenienie i nadziemne rozgałęzienie wskazują na przemijanie a także, w sensie szerszym, są modelami porządku komunikacyjnego, społecznego i kulturowego.

Szczególnie w XX stuleciu pojawiło się wewnątrz niej wiele prób przełamania tradycyjnych zasad, medialnych reguł i sposobów komunikacji – okazała się w dużej mierze autokrytyczna. Na formalny ferment w obszarze tekstualności, a w dalszej kolejności w teorii literatury, składają się dokonania i idee takich ikon współczesnej kultury, jak James Joyce, Jose Louis Borges, eksperymentatorzy z grupy Oulipo, semiotyk, filozof i teoretyk kultury Umberto Eco z jego wspomnianą już teorią dzieła otwartego, Roland Barthes wieszczący śmierć autora, czy Julio Cortazar. Ich dokonania w zakresie krytyki tekstualności i warsztatu literackiego dotyczą nie tylko wewnętrznych stanów w tej przestrzeni kultury. Okazały się także znamienną krytyką technologicznego wymiaru gutenbergowskiej kultury, dotyczyły ograniczeń zamkniętej formalnie i ograniczonej funkcjonalnie konstrukcji medium książki i jej wpływu na odbiór i kondycję tekstualności [199]. Chociaż jedynie w niewielkim stopniu można by je powiązać z rozwojem technologicznym maszyn kalkulujących, to miały one niepodważalny wpływ na ich kulturowe osadzenie na terytorium zdominowanym przez tekstualność. Doprowadziły bowiem do wykrystalizowania się idei cyber- i hipertekstu, a jednocześnie zainicjowały pozatechnologiczny (analogowy) nurt rozwoju tekstualności, który nazywany bywa liberaturą[200].

Nie będę wchodził głębiej w dokonania przywołanych twórców, bo są one powszechnie znane i dobrze już opisane także na polu medioznawczym – choćby w teorii hipertekstu. Odniosę się jedynie do konkluzji, jakie na temat zmian w tym obszarze zgłosili Eco i Barthes. W sformułowanej na początku lat 60. ubiegłego wieku koncepcji dzieła otwartego Umberto Eco zwracał uwagę na dokonującą się w kulturze zmianę ról. Relacja autor-dzieło traci na znaczeniu wobec relacji odbiorca-dzieło. Swoją władzą nad tekstami kultury ich autorzy muszą dzielić się z ich odbiorcami, którzy interpretują je, przekształcają i czytają wciąż na nowo [201]. Kilka lat później tę argumentację dobitnie wyraził Roland Barthes w słynnym eseju obwieszczającym śmierć autora jako jedynowładcy dzieła. Francuz potwierdzał w nim diagnozę Eco co do fundamentalnych zmian w obrębie literatury, rynku wydawniczego i czytelnictwa, jakie miały miejsce w XX wieku [202]. Dla obu wyśmienitych analityków obserwacje kulturowej tektoniki miały dużo większą siłę sejsmicznego rażenia niż tylko w obszarze literatury i tekstualności jako takich. W ich projekcjach stawały się one teoriami ogólnych zmian w kulturze współczesności, w której brak ciągłości, a przygodność, niejednoznaczność i nieokreśloność to stany naturalne. Otwartym dziełem nie włada już autorytarnie sam autor (ewentualnie także jego dysponent, wydawca) – staje się ono otwartym zasobem kultury, którego przeznaczeniem jest być wielokrotnie dekodowanym, dekonstruowanym. Konstatacje obu autorów mogłyby z powodzeniem znaleźć się w instrukcjach obsługi do technologicznych form baz danych. Wyrażają ich kulturowy potencjał i definiują nowy układ ról w kontakcie z uniwersum informacji, stając się w ten sposób klasycznymi tekstami cyfrowego dyskursu.

W historii dyskursu nowomedialnego wymienia się jednym ciągiem opowiadanie Borgesa o ogrodzie z tysiącami rozwidlających się ścieżek z początku lat 40. ubiegłego wieku, które odbiło się olbrzymim echem w obszarze teorii literatury, a także konceptualne prace pionierów kultury cyfrowej, takie jak koncepcja hipertekstowej maszyny przeszukującej dane i utrwalającej nielinearne skojarzenia użytkownika o nazwie MEMEX autorstwa V. Busha z połowy ubiegłego wieku jako zdarzenia fundujące kulturę i technologię danych w początkowej postaci konceptualnego hipertekstu. Hipertekst uznać można za historyczny prototyp technologii i kultury baz danych. To także pierwsze bezpośrednie rozwiązanie nowomedialne, które można uznać za fundament interfejsowy projektu komputeryzacji w ogóle. Jeszcze przed pojawieniem się baz danych w ich dzisiejszej formie hipertekst okazał się formą o wewnetrznej strukturze odpowiadającej myśleniu, które tu określam jako bazodanowe. Zdefiniowana na nowo w tej cyfrowej formie tekstualność stała się otwarta, wielowątkowa i multinarracyjna, są w niej nie tylko z góry wyznaczone ścieżki, ale i potencjał czytania na wiele nieokreślonych z góry sposobów. W cyfrowym środowisku zyskała nowe oblicze [203].

Kilkadziesiąt lat później, po kilku etapach ewolucji komputeryzacji, myślenie o alfabecie, tekście i jego literackich formach w kategoriach baz danych i zarządzania nimi nie jest niczym niezwykłym. Bazodanowa wyobraźnia poszerza i otwiera na nowe możliwości formalne całą tekstualność. Jako przykład komentujący i ilustrujący bazodanowego ducha, którego cień systematycznie kładzie się na tekstualności, wybieram jedną z prac niemieckiego designera, Borisa Müllera, zatytułowaną Fast Faust, z roku 2000. Wizualna postać tej pracy (plakat wydrukowany w formacie A1) powstała w wyniku algorytmicznych obliczeń częstotliwości występowania w oryginalnym tekście Fausta Goethego poszczególnych słów. Na plakacie występują wszystkie słowa, które znajdują się w tekście poematu. Zmienia się jednak ich kolejność i wygląd; te, które pojawiają się w tekście najczęściej, znajdują się na górze zestawienia i są wydrukowane większym i grubszym rozmiarem kroju czcionki. Im mniejsza ilość lokalizacji w tekście danego słowa, tym mniejsza jego wielkość i pozycja na wizualizacji. Powstała w ten sposób nie tylko alternatywna wizualizacja tekstowej bazy danych, za jaką może być uznane dzieło literackie w cyfrowych okolicznościach, ale także algorytmiczna analiza praktyki autorskiej, z której lektury uważny czytelnik z pewnością wyniesie wiele cennej, nieoczywistej i trudnej do pozyskania tradycyjnymi metodami wiedzy na temat kanonicznego dla światowej literatury utworu [204].

Współczesne kino dzięki swoim cyfrowym mediom jest w gruncie rzeczy dalece bardziej otwarte i podatne na wariacyjność i algorytmiczne gry z formą, niżby to wynikało z wendersowskiej opowieści. Za pioniera takiej estetyki uznać można polskiego reżysera Zbigniewa Rybczyńskiego. Dokonania Rybczyńskiego w zakresie dekonstrukcji mediów filmowych, twórczego eksplorowania technicznych ograniczeń doprowadziły go do momentów, w których filmowe rzemiosło uczynił jeszcze w analogowych czasach tej technologii ideowo-cyfrowym, bazodanowym. Peter Weibel nazywa wręcz Zbigniewa Rybczyńskiego matematykiem obrazów [207]. Jakie jest to protobazodanowe kino Rybczyńskiego? Aby odpowiedzieć na to pytanie, sięgnę tu do okresu jego analogowej twórczości. Jego „bazodanowe” Tango zostało nagrodzone Oscarem w latach 80. ubiegłego stulecia. Dla polskiego twórcy, doskonale świadomego technologii wizualnych i potrafiącego z nich na wysokim poziomie warsztatowym kreatywnie i krytycznie zarazem korzystać, technologiczny obraz oferowany przez media jest zbiorem świecących punktów, które z natury rzeczy poddają się wszelkim możliwym procedurom matematycznym. Rybczyński dał się poznać jako mistrz w ich formułowaniu i implementowaniu, czyli mozolnym zmuszaniu niegotowych na takie rozwiązania analogowych maszyn za sprawą różnych, mniej lub bardziej wywrotowych i subwersywnych w stosunku do nich, działań. Jego twórczość to zarządzanie pikselami technologicznych obrazów i odpowiadająca im logika zarządzania czasem, przestrzenią i bohaterami na semantycznym poziomie tworzonych obrazów – cięcie kliszy na drobne elementy składowe kompozycji i ich kolaż, zapętlanie ujęć, ich rewersy, negatywy, przyspieszenia, zwolnienia, przenikania, itd. Weiblowskie określenie Rybczyńskiego można, w kontekście współczesnych form baz danych i możliwych wizualnych operacji na nich, uzupełnić. Filmy Rybczyńskiego to pionierskie potraktowanie medium (wszystkim jego ograniczeń i możliwości) w wyrafinowany technologicznie sposób, który poprzedza myślenie o nim w kategoriach stricte cyfrowych: obraz to pierwsza z baz danych, którą ono zarządza, a jego piksele (wiedza Rybczyńskiego o ekranach telewizyjnych, liniach pikseli w systemach PAL/NTSC, przeplocie) to baza wizualnych danych otwarta na zarządzanie. W Nowej książce z roku 1975 czy w zrealizowanym kilka lat później Tangu widzimy także bazodanowe myślenie o semantyce filmowego przekazu. W pierwszym z tych filmów w podzielonym na dziewięć identycznych mniejszych części ekranie obserwujemy dziewięć dziejących się symultanicznie scen, które jednak – jak się okazuje – zostały pierwotnie nakręcone jako klasyczna filmowa sekwencja. W Tangu mamy do czynienia z bazodanowym majstersztykiem. Mozolnie pocięte i ponakładane na siebie, w rewolucyjny jak na tamte lata sposób, ujęcia pokazane są jednocześnie jako filmowy kolaż doskonały. Reżyser dodatkowo zapętla pojedyncze z nich w taki sposób, że pojawiają się jako sekwencje trwające dłużej niż pojedynczy „take”, tworząc w ten sposób wizualny loop. Widać w tej pracy inspiracje technologiami wielośladowej reprodukcji dźwięku, myślenie w kategoriach wychodzenia poza linearną narracyjność kina. Rybczyński myślał o filmowych ujęciach, taśmach i maszynach edycyjnych jako o bazach danych i przykładanych do nich algorytmach, choć dopiero od niedawna jego analogowe prace można interpretować w cyfrowych kategoriach. Jego kino jest w gruncie rzeczy w duchu cyfrowe, wyprzedzające epokę i formy techniczne, które reżyser wykorzystał, nawet wtedy, kiedy jest technologicznie analogowe: obecne jest w nim nieustanne przeliczanie klatek, scen, kompozycji i samej technologii, tak jakby robiły to dzisiejsze algorytmy w odwołaniu do cyfrowych wizualnych baz danych.

Dzięki technologiom symultanicznego miksu wielu osobno rejestrowanych ścieżek nagrania muzyczne stały się czymś zgoła innym od granej „na żywo”, z konieczności homogenicznej formalnie muzyki. Nowa formuła oferuje możliwość niezależnego od siebie zarządzania wieloma danymi w ramach jednego utworu; w ten sposób powstają miksy i remiksy muzyczne, których logika polega na tym, aby zgodnie z wyobraźnią realizatorów i producentów (algorytmami) zaaranżować określony układ i zależności ścieżek przekładających się na brzmienie utworu. Korzystając z wielośladowych nagrań pojedynczy muzyk może, o ile potrafi, nagrać kilkadziesiąt kolejnych śladów-ścieżek pojedynczych instrumentów, wokaliz, efektów i skompilować na ich podstawie gotową aranżację akustyczną. Inni muzycy, realizatorzy, producenci, którzy do takich nagranych i trzymanych formalnie w separacji, choć w razie potrzeby współbrzmiących, ścieżek mają dostęp, mogą nimi po swojemu „zarządzać”. W ten sposób swoje płyty nagrywali tacy muzycy popularni, jak np.: Paul McCartney, Beck, Wojciech Waglewski czy Prince.

Rozwój technologii muzycznych danych poszedł jednak jeszcze dalej, kiedy okazało się, że z poszczególnych, sklejonych wcześniej, studiach utworów-aranżacji można „pozyskać” (działania te są kontrowersyjne z punktu widzenia tradycyjnych praw autorskich) najdrobniejsze elementy już istniejących dzieł, by wykorzystać je jako składniki w nowych utworach. Taki sposób „recyklingu” muzyki określono mianem samplowania. Ta technika wywodzi się także z alternatywnego wykorzystania innej technologii muzycznej: gramofonu i interfejsu winylowych płyt. Od studyjnej rejestracji i miksu pojedynczych śladów samplowanie z winylowych płyt różni subwersywy charakter takiego działania. Podejmowali je i stworzyli jego estetykę ludzie, który nie byli ani profesjonalnymi muzykami, ani inżynierami dźwięku – mowa o kulturze didżejskiej i czarnoskórych selekcjonerów puszczających muzykę z płyt na tanecznych soundsystemach w Afryce i Ameryce Północnej. Poszukując form sklejania różnych muzycznych „kawałków” w dansingowe sety, stworzyli własną estetykę, dla której kategoriami kluczowymi stały się takie hasła, jak sample (pojedyncze cząstki gotowych utworów wykorzystywane w oderwaniu od nich), scratch (ręczne poruszanie płytą gramofonową dające specyficzny efekt dźwiękowy), loop (rytmiczne zapętlanie sampli). Te trzy element okazały się później zrębem etosu i najważniejszą figurą estetyczną (obok rapu) muzyki hiphopowej. Jej klasyczne dokonania bazują na utworach powstających przez pożyczanie wyłuskanych z istniejących nagrań gitarowych riffów, akordów różnych instrumentów, elementów wokaliz, itd. Hiphopowy twórca z samych tylko sampli potrafi stworzyć linię melodyczną i rytmiczną swojej kompozycji. Radykalnym co do formy i wyrafinowanym estetycznie przykładem takiego działania niech będzie twórczość grupy Skalpel, której muzycy pieczołowicie wycinali sample brzmień jazzowych ze starych polskich produkcji i stworzyli z nich własne utwory.

Poetyka didżejska zrodziła z czasem zupełnie nowe „gatunki” i formaty muzyczne: powstała kategoria chill out music, czyli sety różnych utworów muzycznych dobieranych według różnych kryteriów w poprzek istniejących gatunków i estetyk, a także format muzycznej składanki, tj. kompilacji nagrać przygotowanych w określonym celu, według założonego kryterium semantycznego. Wszystkie te gry z technologiami rejestracji, remiksowania i odsłuchiwania nagrań to estetyka, którą można by zawrzeć w kategorii kultura remiksu [209]. To działanie i estetyka, które stały się zasadniczą regułą pracy z bazami danych. W tym kontekście można mieć uzasadnione – alarmujące głosy podnoszą w tym zakresie wydawcy muzyki – obawy o śmierć albumu jako formy dystrybucji muzyki, śmierć pojedynczego utworu jako zamkniętej formy technologicznej i estetycznej, czy dalszą karierę algorytmów w powszechnym odbiorze muzyki – pierwszym i najbardziej znanym z nich jest odtwarzania w przypadkowej kolejności utworów z płyty, inne dotyczą kompilowania play list według licznych kategorii i tagów (random play, shuffle) [210].

Jednak nie tylko w technologiach audialnych widać tropy wiodące do wyobraźni bazodanowej. Są one także obecne w przemianach, które dotyczyły muzyki w ogóle. Wytyczyły je takie postaci XX-wiecznej muzyki, jak Pierre Schaeffer (inżynier i teoretyk muzyki), John Cage (awangardowy kompozytor współczesny), Glen Gould (wybitny pianista) czy Brian Eno (twórca muzyki ambient). Ich artystyczne i teoretyczne poszukiwania polegały najpierw na poszerzaniu pola muzyki przez wciąganie do niego dźwięków naturalnych i cywilizacyjnych, takich jak odgłosy przyrody, dźwięki miasta i przemysłowe, anektowaniu ciszy, przekraczaniu ograniczeń instrumentów – np. uderzania w fortepian różnymi przedmiotami, modyfikowaniu ich kształtów i majsterkowaniu przy ich konstrukcji (Cage). Powstały w ten sposób koncepcje słuchania akuzmatycznegoobiektu dźwiękowego (Schaeffer), rozciągające formalne reguły rzemiosła muzycznego i estetyki akustycznej do rozmiarów olbrzymiej bazy danych, w której muzyk w tradycyjnym sensie stawał się postacią anachroniczną, nieodpowiadającą już wyzwaniom, które w jego imieniu mieli przejąć także architekci muzyczni (Cage) oraz towarzyszący im producenci, inżynierowie, a w późniejszym czasie także i didżeje.

Jednym z najbardziej znanych utworów Johna Cage’a jest Imaginary Landscape No. 4, w którym audialny efekt powstaje za sprawą regulacji długości fal oraz głośności dobiegających z 12 radioodbiorników obsługiwanych przez 24 osoby. W Imaginary Landscape No. 5 grają 42 wskazane przez artystę płyty gramofonowe. Cage wprowadza w ten sposób do muzyki przypadkowość, a jednocześnie do nieznanego wcześniej poziomu rozbija harmonię klasycznego instrumentarium, stawiając na wariacyjność i algorytmiczność – atrybuty późniejszych baz danych.

Pierre Schaeffer korzysta w tworzeniu swojej muzyki konkretnej ze wszelkich możliwych modulacji i wariacji, jakie da się osiągnąć manipulując maszynami do rejestracji, miksowania i odtwarzania dźwięków. Z jego doświadczeń narodziła się muzyka określana jako plądrofonia – czyli taka, która powstaje z już istniejących, przetworzonych technologicznie nagrań muzycznych. Jest ona mało znanym zalążkiem wszystkiego, co dziś znane jest w estetyce audialnej (i nie tylko) jako kultura remiksu.

Glen Gould będąc u szczytu sławy jako wybitny pianista klasyczny zrezygnował z występów koncertowych, poświęcając się pracy studyjnej. Nie wierząc w potencjał nagrań na żywo rozpoczął w studiu bazodanowe eksperymenty mieszając różne części nagrywanych przez siebie kolejnych wersji tych samych utworów i z każdej z nich wybierając najlepsze fragmenty. Powstawały w ten sposób miksowane nagrania, które brzmiały zdaniem artysty lepiej niż wierne zapisy pojedynczych take’ów.

Brian Eno poszukując nowych form muzycznych podążył w stronę muzyki samogeneratywnej, która powstawała – podobnie zresztą jak tworzone przez niego dzieła wizualne – na zasadzie wariacji algorytmicznych w obszarze skończonej liczby dostępnych sampli, taktów i brzmień. Ambientowe utwory powstające w ten sposób są nieustanną pracą algorytmu na bazie danych – potencjalnie nigdy się nie kończą, generując cały czas nowe wariacje.

W przestrzeni audialnej bazodanowe tropy obejmują dodatkowo nowego typu instrumentarium, takie jak samplery, sequencery, miksery, software służący do miksowania nagrań, sprzęt do odtwarzania nagrań (programowanie kolejności odtwarzania i brzmienia). Bazodanowa muzyka koncentruje się na wszystkim tym, co można z zarejestrowanym materiałem audio zrobić za pomocą przeróżnych technologicznych maszyn i wpuszczonych na ich terytorium algorytmów.

Od jakiegoś czasu także i w architekturze pojawiają się bardzo dosłowne nawiązania do baz danych. Przykładem takiej estetyki niech będzie tu projekt ekologicznej struktury modułowej o nazwie Eco-Pod zaprojektowanej przez jedno z amerykańskich biur architektonicznych, która ma być samoregulującym się – zarówno w sensie funkcjonalnym jak i architektonicznym – systemem hodującym wykorzystywane do wytwarzania czystej energii algi. Budynek zarządza sam sobą, przestawiając moduły w razie potrzeby – dopasowuje się do klimatu otoczenia, według określonych kryteriów wybrane moduły wynosi na górne piętra, inne przestawia na pozycje fasadowe z wnętrza konstrukcji. Być może takie będą budynki przyszłości – samoorganizujące się „organizmy” architektoniczne nieustannie zmieniające swój kształt i układ strukturalny [211]>.

Figurę bazy danych i sam termin wprowadził do dyskursu medioznawczego Lev Manovich w wydanej przed dekadą, a dzisiaj już kanonicznej dla studiów nad cyberkulturą i nowymi mediami, pracy Język nowych mediów. Manovich wyznaczył w niej kanon definiowania i teoretycznego kontekstualizowania kultury komunikacyjnej technologii cyfrowych. Amerykański medioznawca wskazuje na bazę danych, którą w połączeniu w interfejsem umieszcza w funkcjonalnym (technologicznym) i kulturowym epicentrum mediów cyfrowych. Baza danych to według niego nowy sposób nadawania struktury naszemu doświadczeniu świata i siebie (s. 334–335), wokół którego epoka komputerów stworzyła nowy kulturowy algorytm: rzeczywistość → media → dane → baza danych (s. 341). W konsekwencji struktura niektórych obiektów medialnych stosuje się wprost do logiki bazy danych, natomiast struktura innych – nie, mimo to – w głębi – praktycznie wszystkie to bazy danych (s. 343) [212]. W odczytaniu Manovicha cyfrowy ekosystem informacyjny to środowisko bazodanowe, co znaczy, że struktura bazy danych powiela się we wszystkich jego obszarach, zaś same dane zawładnęły wszystkimi jego poziomami funkcjonalnymi. Bazy danych spełniają fundamentalną rolę: są technologicznym wcieleniem idei dotyczących struktury i organizacji wiedzy, ekologii i ekonomii jej zasobów towarzyszących dwudziestowiecznej kulturze.

W swoich analizach Manovich odnajduje połączenia pomiędzy wcześniejszymi formami medialnymi a technologiami cyfrowymi; jego teoria mediów szuka podobieństw i związków przyczynowo-skutkowych pomiędzy gramatyką istniejących mediów a regułami unikalnego języka mediów cyfrowych. Kiedy w tym duchu podejmuje temat baz danych, sięga, niemal automatycznie, do dziedzictwa kinematografii. To, według niego, medialna ontologia, której media cyfrowe zawdzięczają wiele technologicznych i semantycznych pretekstów i form. Można powiedzieć, że kino i film to dla Manovicha pre-bazodanowy język medialnej wypowiedzi. Elementy strukturalnej gry z konstrukcją kinowej narracji, język kamery i montażu filmowego, doświadczenie widza stworzyły zręby technologiczne dla formatów użytkowych maszyn cyfrowych. Kultura kina, jego estetyka i semantyka, stały się natomiast podwalinami kulturowego języka technologii cyfrowych. Zrozumienie specyfiki bazy danych (ta konstatacja odnosi się do nowych mediów w ogóle) wiązać się musi zatem z medialną archeologią, tj. odnajdywaniem i pokazywaniem znaczeń nieustannego remiksu/recyklingu medialnych form i niesionych przez nie semantyk [213].

Potwierdzenia manoviczowskiej diagnozy bazodanowego charakteru cyfrowego ekosystemu medialnego potwierdzają i uzupełniają diagnozy szczegółowe proponowane przez innych teoretyków mediów, kultury i komunikacji. Dla przykładu w zakresie cyberkulturowej teorii tekstualności takie potwierdzenie znajdziemy w pracach teoretyka literatury elektronicznej i cyfrowej tekstualności Espena Aarsetha, który cybertekstualność postrzega w oparciu o zanik linearności: w zakresie tworzenia tekstu, jak i jako szereg charakterystycznych dla zapośredniczenia cyfrowego strategii odbiorczych. Nielinearny tekst staje się tekstem bazodanowym, to jest takim, w którym obok autorskiej narracji możliwe są także inne układy i kompozycje jego części składowych (zarówno technicznych jak i semantycznych), staje się hipertekstualny, multimedialny i wariacyjny [215].

Na obecnym etapie rozwoju cyfrowych form technologicznych (hardware i software) wizualność jest przede wszystkim praktyką nadawania surowym, matematycznym ciągom kodu baz danych bezpiecznych antropologicznie (psychologia i antropologia postrzegania) i kulturowo (semiotyka wizualności) kształtów, tj. upodabnianie do oswojonych w ramach dziedzictwa visual culture form (np. ekran monitora jako nawiązanie do ekranu telewizora, strona www jako nawiązanie do drukowanej gazety). Inaczej mówiąc: obrazy wystawiamy jako najważniejszy kulturowy kapitał/system bezpieczeństwa w kontaktach z niewidzialnym, tj. trudnym do uchwycenia (za sprawą miniaturyzacji narzędzi i spektrum widzialności elektryczności) techné, a przez to niezrozumiałymi/groźnymi elektrycznością, kodem cyfrowym i oceanem digitalnych danych. W ten sposób wizualność pełni nie tylko rolę gwaranta kulturowego bezpieczeństwa i uniwersalnej powłoki (mapy) cyfrowych wód, siłą rzeczy przekształcona została także – dopełniając historię analogowej mediatyzacji wizualności – w najpowszechniejszą praktykę użytkową nowych technologii, stając się gruntem, na którym narodziły się ich interfejsy. Najogólniej rzecz ujmując przypomnę: obrazy stały się najważniejszym kulturowym interfejsem technologii rewolucji cyfrowej.

Na przeoranym siłami rozwoju technologicznego i ewolucji kultury medialnej polu także wizualność i jej techniczne obrazy muszą w związku z powyższym stać się podwójnie kompatybilne, wciąż wpisując się w istniejące kody kultury jednocześnie poddawać się nowym technokulturowym regulacjom. Dostrajanie się do siebie technologii, kultury i obrazów jest dzisiaj bezprecedensowe co do zakresu zmian, ich tempa i zasięgu. Zmieniają się dostępność do możliwości tworzenia i publikowania (a w zasadzie upubliczniania) obrazów, software i interfejsy ich tworzenia, przekształcania, magazynowania, analizowania i emisji [224]. W obszernej antologii zatytułowanej Imagery in the 21st Century, prezentującej zasięg i skalę najnowszych estetyk, interfejsów, software cyfrowej wizualności, Oliver Grau i Thomas Veigl tak te procesy opisują:

Nigdy wcześniej świat obrazów nie zmieniał się tak szybko; nigdy wcześniej nie byliśmy wystawieni na kontakt z tak wielką ich różnorodnością; nigdy wcześniej sposoby wytwarzania i dystrybuowania obrazów nie zmieniały się tak gwałtownie [225].

Jaki jest sens tak istotnych zmian? Dane, które zyskują wizualną postać (interfejs), stają się czytelne i zrozumiałe kulturowo, a w konsekwencji mają szansę wejść do powszechnego obiegu kultury codzienności. Anektują oswojoną przestrzeń wizualnej semantyki i estetyki; mówią dominującym w kulturze językiem i dzięki temu mają moc ustanawiania reguł gry dla innych kulturowych gramatyk (audialność, architektura, moda). Wizualne odczytania baz danych obejmują współcześnie w zasadzie każdy możliwy rodzaj danych, czyli dotyczą wszelkich systemów kulturowych i społecznych, dla których tworzenie/przetwarzanie informacji/danych to sprawa kluczowa. Wizualizowanie danych to także coraz bardziej popularna strategia estetyczna, do której dostęp mają obecnie nie tylko nieliczni specjaliści, ale dzięki rosnącemu dostępowi do samych danych jak i różnego rodzaju coraz bardziej prostym i dostępnym narzędziom wspomagającym ich przetwarzanie coraz większe ilości chętnych. Specjalistów inżynierów i programistów uzupełniają w tym zakresie projektanci i artyści, a także przeciętni użytkownicy cyfrowych technologii.

W ciągu ostatnich lat tego typu wizualizacje stały się autonomiczną i niezwykle popularną grupą tekstów kultury. Dla zainteresowanych tą designerską praktyką dostępne są darmowe aplikacje i języki programistyczne (Processing) a także zasoby przeróżnych baz gotowe do zwizualizowania. Wielkie media (New York Times, Guardian), instytucje (Library and Archives Canada, rząd Belgii), firmy (wyszukiwarka danych) i uczelnie (Princeton) udostępniają zasoby gromadzonych przez siebie przez lata danych, zapraszając chętnych do opowiadania na ich podstawie własnych historii – tworzenia własnych wizualizacji i narracji wewnątrz surowych, często nieinterpretowanych jeszcze zasobów. Amerykański IBM udostępnił darmowe narzędzie software służące do analizy i wizualizacji danych. Na specjalnej stronie każdy może skorzystać z przygotowanych wcześniej zasobów i/lub dodać do nich własne, skorzystać z już istniejących wizualizacji i/lub przygotować własne, opublikować i/lub rozmawiać o już istniejących [227].

Praktyka wizualizacji danych doczekała się już swojej teorii i dedykowanych działań metodologicznych (software’owych). W swoim software studies lab na kalifornijskim UCSD pracuje nad nimi L. Manovich z grupą współpracowników. W wyniku swoich badań zaproponowali światu naukowemu, ale i biznesowi, administracji, nowatorską metodę i narzędzia badań nad mediami, które nazwali media visualisations. Amerykanie traktują zdigitalizowane wcześniej media (filmy, fotografie, książki, prasa, programy telewizyjne, klipy muzyczne) jako olbrzymią bazę danych i starają się zadawać jej pytania wizualne, których postawienie w tradycyjny sposób byłoby niezwykle trudne czy wręcz niemożliwe. Jednym ze zrealizowanych przez Lab projektów jest olbrzymia baza ujęć filmowych z różnych filmów, w której specjalna aplikacja poszukuje prawidłowości związanych z kompozycją kadru, kolorystyką, montażem, itd. W podobny sposób poddano analizie digitalne wersje obrazów van Gogha, japońskie mangi czy okładki Time z lat 1993–2000 [228]. Za sprawą wizualnych analiz danych rodzi się w ten sposób metamedioznawstwo, czyli postmedialna wiedza o ich kulturze.

Informowanie danych to praktyka, którą na co dzień w mniejszym lub większym stopniu podejmuje każdy z użytkowników cyfrowego świata. Ogólnie można powiedzieć, że zamiana danych w informacje ma dwa oblicza. Pierwszym jest ich informowanie sensu stricte, czyli nadawanie im znaczenia od podstaw – przechodzenie od technologicznej surowości kodu do czytelnych kulturowo znaczeń. Drugim, węższym co do zakresu, jest ich indeksowanie, czyli oznaczanie już wstępnie poinformowanych danych znacznikami (tagami) według określonych kryteriów – to działanie prostsze, polegające na tworzeniu/wykorzystaniu semiotycznych „półproduktów”. Indeksowanie przejawia się najczęściej przez segregowanie plików pomiędzy folderami, tagowanie ich i ich fragmentów (czyli np. oznaczanie i komentowanie zdjęć w prywatnych zbiorach na komputerach oraz tych, które publikowane są w serwisach internetowych, nadawanie różnym artykułom w sieci statusów „lubię to”, „wykop”, itp.), tworzenie play list z wybranych empetrójek, określanie stylów akapitowych w edytorze tekstowym. Wystarczy polubić jakieś wydarzenie na Facebook.com, aby stać się częścią społecznej taksonomii danych, których znaczenia są w coraz większym stopniu generowane i zarządzane społecznie. Użytkownicy wielu sieciowych serwisów głosują na najbardziej lubiane przez siebie wiadomości, oceniają w ten sposób komentarze innych, opisują fotografie, tagują artykuły i różnego typu materiały publikowane w sieci. Powstaje w ten sposób zbiorowa semantyka cyberprzestrzeni danych, która jest niejednorodna, heterogeniczna i rizomatyczna. Nie obowiązują w niej nieodwołalnie tradycyjne reguły semantyczne ani polityki i ideologie sytemowego osadzania znaczeń. Inaczej mówiąc: zdolność do indeksowania danych, którą wypracowali użytkownicy danych, podkopała systemowe sposoby ich znakowania, katalogowania i strukturyzowania. Wszystkie tego typu działania semiotyczne polegają na przypisaniu danym, lub całym ich bazom, określonych znaczeń. Chodzi o to, by dane znaczyły tyle, ile chcemy, aby znaczyły i na warunkach, jakie w tym zakresie ustalimy.

Jednokierunkowe media analogowe (radio, telewizja) takich semiotwórczych możliwości nie udostępniały. Media cyfrowe wykonują cały cykl semiotyczny, czyli komunikują od znaku do odbiorcy i z powrotem ze wszystkimi tego procesu konsekwencjami i dla znaków, i dla odbiorców. Telewizja, to najważniejsze z mediów masowych współczesności, nie zdaje sobie sprawy z faktu, że jest oglądana na konkretnym odbiorniku telewizyjnym, a radio nie wiedziało i nie wie, kiedy kto i gdzie go słucha – w domenie cyfrowej takie sprzężenie jest regułą naturalną i zasadniczą dla charakteru tej mediacji. W tym sensie bazy danych można rozumieć jako poststrukturalną przestrzeń dyskursywną. Ich techniczna specyfika otwartości na zarządzanie i niekategoryzowanie jakości i parametrów tego zarządzania powołują do życia bazodanowych aktorów, którzy wirtualnie tworzą w nich realny kapitał symboliczny, konstruując w ten sposób cyfrową przestrzeń dyskursywną. Baza danych dodatkowo utrwala w czasie przebieg tego dyskursu, czyli oferuje nieustanne zapętlenie pomiędzy dokonującą się komunikacją a jej utrwaloną historią. W rezultacie w bazach danych ma miejsce nieustanna negocjacja relacji władzy, nadzoru i kontroli nieustanny dyskurs dotyczący kultury i życia społecznego w ogóle [238]. Ich indeksy są logicznie otwarte i podatne na strukturalne, a w konsekwencji na semiotyczne zmiany – bazy danych to format, który urzeczywistnia płynność znaczeń we współczesnej kulturze i inspiruje ich semantyczną ruchliwość. Można powiedzieć, że na skutek tak daleko posuniętej niestabilności i otwartości indeksów, które nadajemy danym, one same stają się elementem drugorzędnym. Chyba najbardziej dosadnym przykładem takiego społecznego indeksowania danych są krążące w cyberprzestrzeni memy obrazkowe, które stają się ikonami określonych, ale – co ciekawe – zmiennych w czasie, tekstów kultury. Takimi memem stało się zdjęcie sowy z szeroko otwartymi oczami, która symbolizuje zdziwienie i dystans poznawczy wyrażony za pomocą podpisu O’RLY (od ang. zwrotu: oh, really?, co na polski można przetłumaczyć jako: czyżby?). Stają się memami także wycięte z filmów pojedyncze sceny wypełnione charakterystyczną mimiką aktorów czy wypowiadanymi przez nich zdaniami [239].

Oprócz społecznego indeksowania danych wymieniłem także informowanie danych jako jedną z praktyk wchodzenia w świat danych i rozumienia go. Tę strategię poznawczą doskonale skomentowano w jednej z pierwszych prac sztuki nowych mediów refleksyjnie podchodzących do problematyki przeładowania danymi. Chodzi o Legible City autorstwa Jeffreya Shawa z przełomu lat 80. i 90. ubiegłego wieku [240]. Wewnątrz instalacji na dużym ekranie znajduje się wirtualna makieta przestrzeni, w której zamiast budynków znajdują się słowa. Wchodzący do pracy interaktor pedałuje na zsynchronizowanym z miastem-bazą danych rowerze przemieszczając się w danowej przestrzeni. Praca doskonale pokazuje bazodanowy ekosystem, który wydaje się nie mieć granic i w którym każdorazowe przyspieszenie, skręt czy zatrzymanie wprowadza jadącego w nowe obszary, ale jednocześnie oddala od innych. Tak wygląda wciąż jeszcze, mimo iż od publicznego debiutu pracy Shawa minęło już ponad 30 lat, sytuacja człowieka postawionego w obliczu danych. Istnieją jednak przesłanki, które świadczą o tym, że przygodną/chaotyczną podróż można wzbogacić o skuteczne narzędzia i strategie przeglądania danych, efektywnego pływania w bazodanowym oceanie.

Danowe wpływy nie pozostawiają wizualności w zastanej postaci. Sądzę, że uruchomione przez ekologię danych zmiany w kulturze wizualnej najtrafniej scharakteryzował Bernard Stiegler, francuski filozof technologii medialnych, mówiąc o gramatykalizacji widzialnego (grammaticalization of the visible) [244]. W stieglerowskim pojęciu mieszczą się zarówno matematyczne reguły przenikające bazy danych, jak i ich outputy semiotyczne, związane z kształtowaniem się płynnej, wariacyjnej i podatnej na remiks wyobraźni i wizualności bazodanowej. Bazodanowa gramatykalizacja wizualności wyglądałaby w następujący sposób: pod wpływem danych zmieniają się techniki tworzenia i postępowania z obrazami, powstają nowe formaty i języki wizualne data visualisation, information visualisation czy infoesthetics. Dotychczas, w duchu analogowego dziedzictwa, obrazy były przede wszystkim przekaźnikami oferującymi jednostronną transmisję: fotograf, malarz, reżyser, animator tworząc swoje wizualne teksty osadzał wewnątrz nich zamknięte formalnie komunikaty. Interfejsy graficzne, których charakter tworzą takie cechy, jak klikalność, interaktywność, nawigacja, personalizacja, itd., otwierają świat obrazów na potencjał interaktywności ze strony odbiorców. Można powiedzieć, że wraz z digitalizacją i cyfrową interaktywnością wizualność emancypuje się z gorsetu Galaktyki Gutenberga, przestaje być medium związanym zasadą pisma i na nowo staje się alternatywnym porządkiem kulturowym (to proces historyczny, którego początków szukać można już w sporze o naturę obrazów pomiędzy ikonoklastamiikonoklarami). Dla tego nowego porządku zasadą jest zupełna otwartość formalna i zdolność do przyjęcia różnych struktur i logik użytkowych. Różnicę między starą a nową wizualnością można zrozumieć patrząc na paralelny stan tekstualności, gdzie tekstualność linearna, gutenbergowska, ustępuje hipertekstualności i innym otwartym formom cybertekstualnym. Nowe obrazy jak nowe teksty są zbiorami ruchomych, niepowiązanych stałymi więzami elementów, łatwo poddają się rekonstrukcjom.

Sądzę, że gramatykalizacja jak i immersyjność wizualności spotykają się i doskonale uzupełniają w formacie jej cyfrowych form. Dzieje się tak na styku porządku wizualności i logiki baz danych, gdzie zasadniczym elementem spajającym zarówno kulturowe dogmaty wizualności, jak i jej technologiczne normy w cyfrowym otoczeniu wydaje się piksel. Jest to zarazem podstawowy element logiczny cyfrowych obrazów (software’owy, to podstawowy bit cyfrowej wizualności), jak i materiał, z którego „uszyta” jest elektroniczna powłoka wizualności, która te obrazy wyświetla (hardware, czyli matryce, wyświetlacze, monitory). W codziennym praktykowaniu wizualności i cyfrowości piksele uobecniają się głównie ze względu na swoją niedoskonałą formę technologiczną – na obecnym etapie rozwoju technologicznego są duże, mają wciąż jakości dalece odstające od naszych wzrokowych uwarunkowań percepcyjnych. Wystarczy zbliżyć oko na niewielką wobec monitora odegłość, aby je zobaczyć, lub powiększyć cyfrowe zdjęcie do rozmiaru, w którym zacznie się objawiać jego skład z pojedynczych kwadratów. W przyszłości, wraz z dynamicznym wzrostem tych jakości technologicznych – to jest nieustannym zmieszaniem wielkości pojedynczych software’owych i hardware’owych pikseli, równie szybkim wzrostem rozdzielczości cyfrowych obrazów, czyli liczbą pikseli składających się na poszczególne fragmenty digitalnych obrazów, oraz powiększaniem się liczby i wielkości ekranów – piksel jako taki pozostanie jedynie mało ważnym, bo już niedostrzegalnym bez specjalnego zapotrzebowania, fragmentem technologicznej gramatyki wizualności cyfrowej. Jednak na razie komputeryzacja zbliża się dopiero do momentów granicznych (jak wyświetlających w standardzie 300 pikseli na cal kwadratowy ekranów laptopów, komórek i tabletów), które oznaczają kulturowe znikanie pikseli. Ten etap przejściowy obfituje w artystyczne i popkulturowe praktyki, teksty i mitologie związane z pikselami – ich estetykę. Jednocześnie piksel w tej estetyce jest elementem szumu, jaki towarzyszy kodowi wizualnemu w cyfrowych okolicznościach.

Wizualna atomizacja jest także i dla współczesnych artystów tematem ważnym i otwartym na nowe interpretacje. W przestrzeni kultury popularnej piksele dorobiły się już swojej własnej estetyki, za którą odpowiedzialne są przede wszystkim dostępność i możliwości takich popularnych narzędzi software’owych do obróbki grafiki, jak Corel, Photoshop czy cały szereg pochodnych, mniej lub bardziej zaawansowanych aplikacji, dzięki którym każdy z nas może za sprawą zakodowanych w nich algorytmów przekształcać dowolne fragmenty pikselowej wizualności według uznania i możliwości algorytmów. Piksele są cyfrowym wcieleniem wizualnej gramatyki, której reguły sięgają początków kultury w ogóle. Wizualność jest od czasów antycznych językiem niewolnym od złudzeń optycznych. Nawet najbardziej mistyczne i metafizyczne obrazy kultury zostały stworzone według kanonów estetycznych i rzemieślniczych, u których podstaw leżą złudzenia nie dające się poprawnie zinterpretować/odkodować przez nasz wzrok. Jednym z takich wizualnych skrótów jest atomizacja obrazu, czyli tworzenie spójnej wizualnie faktury, która składa się ze zbioru pojedynczych punktów/atomów/węzłów/pikseli skomponowanych w ramach określonego układu funkcjonalnego (obrazu). Takim atomistycznym komunikatem wizualnym są choćby mozaiki czy tkaniny, z pewnego oddalenia wywołujące złudzenie płynnej wizualnie kompozycji. Zbliżając się do nich dostrzegamy coraz lepiej pojedyncze punkty tworzące fakturę wizualną. Z bardzo bliska nie widać już wynikającej z nich kompozycji, a jedynie pojedyncze punkty.

Obecność pikseli w cyfrowych obrazach to jednak nie tylko niedoskonałość technologii wizualnych na obecnym etapie ich rozwoju czy element składający się na estetykę cyfrowych obrazów. To także kolejne wcielenie starej, sięgającej początków kultury wyobraźni wizualnej, która obraz pojmuje jako zbiór punktów/atomów. Do tej atomistycznej wyobraźni nie brakuje odniesień w analogowych technologiach mediów. Dla przykładu: w druku spotykamy technologię reprodukcji kolorów i kształtów nazywaną rastrem. Polega ona na tworzeniu kompozycji wizualnej przy wykorzystaniu pojedynczych, drobnych plamek farby nanoszonych precyzyjnie na określone miejsce na zadrukowywanej stronie. Natryskując na siebie cztery podstawowe kolory jeden po drugim (CMYK) można uzyskać w ten sposób plamki o dowolnej kolorystyce i ułożyć z nich dowolny kolorowy układ wizualny. Taśma światłoczuła – podstawa analogowych technologii fotografii i kina – także działa w oparciu o punkty. Są nimi drobinki światłoczułych związków srebra nanoszonych na celuloidową taśmę perforowaną. Wpadające przez obiektyw światło rozkłada się na poszczególnych grudkach, wyzwalając w nich chemiczne reakcje o odpowiednim natężeniu. Podobnie pracuje ekran telewizora: on także składa się z rzędów drobnych, świecących punktów, które wyświetlają kompozycje świetlne i kolorystyczne [246].

Bazodanowe oblicza pikseli odnaleźć można w sztuce nowych mediów. Pikselowe bazy danych/bazodanowe kompozycje pikseli to estetyka, która łączy długą kulturową tradycję atomistycznego postrzegania i konstruowania świata w takich rzemiosłach jak tkactwo czy mozaiki. Tym samym jest ona w kontekście baz danych jednym z najbardziej oczywistych inspiracji nowych form wizualnych opartych na danych – przypomnę tu raz jeszcze atomistyczną metaforę ziarenek piasku użytą przez Victorię Vesnę.

Przykładem sztuki wykorzystującej potencjał zarządzania skończoną ilością danych w celu osiągania różnych rezultatów jest ruchoma instalacja grupy ART+COM zrealizowana na zlecenie Muzeum BMW w Monachium. W jednej z sal wystawienniczych Muzeum na cienkich stalowych linkach zawieszonych zostało 714 identycznych metalowych kul-pikseli, których położenie regulują silniczki i sterowniki sprzężone z odpowiednim oprogramowanie. Wprawiane w ruch kulki układają się w układy i kompozycje, które naśladują zaprogramowane wcześniej kształty różnych modeli aut i elementów estetycznych, takich jak fale czy kształty geometryczne [248].

Niemiecki artysta Julius Popp w swojej pracy zatytułowanej BIT.CODE przekonuje, że świat znaków i znaczeń to nieustanna gra, której scenariusze wynikają z nieskończonych możliwości segregowania skończonej ilości danych (w tym przypadku dane są jednocześnie pojedynczymi bitami/pikselami), którymi posłużył się artysta tworząc składający się z ruchomych modułów ekran zdolny do wyświetlenia dowolnych kombinacji danych, a zatem do projektowania nieskończonej ilości symboli, znaków i stanów pośrednich pre- i postznakowych). Informacje wyłaniają się tu na zasadzie chwilowego utrwalenia chaotycznego status quo oceanu danych [250].

Natomiast Soxels – The auditive media facade to praca Simon Schiessla, Felixa Hardmooda BeckaAndrei Bassi poszerzająca wizualną jedynie naturę atomów-pikseli o wymiar audialny [252]. Punkty są w niej jednocześnie komunikatorami obrazów (małe, okrągłe wyświetlacze LCD) i dźwięków (głośniki umiejscowione pod wyświetlaczami). W ten sposób atomistyczne doznanie wizualne staje się także doznaniem audialnym – artyści projektują pikselową logikę na wszystkie wciągnięte na platformę cyfrową gramatyki i interfejsy medialne, dowodząc w ten sposób, że cyfrowa przestrzeń jest olbrzymim zasobem punktów (danych), które w różnych kombinacjach (kompozycjach) i na różne sposoby (algorytmy i interfejsy) można nawigować (zarządzać).

Co dla kulturowej przestrzeni komunikacji i mediów wynika z przedstawionej symbiozy obrazów i danych oraz postępującej cyfryzacji/gramatykalizacji wizualności? Na to pytanie chciałbym odpowiedzieć odnosząc się do dwóch przykładów, które w praktyce medialnej spotykają się ze sobą: przywołanego już społecznego indeksowania danych oraz wspomnianego przed chwilą przekształcania się obrazów w interfejsy. Pierwsze z nich, jak pamiętamy, związane jest przede wszystkim ze społeczną ekonomią informacji i jest etapem emancypacji użytkowników wobec danych i zarządzających nimi technologii medialnych. Drugie zjawisko ma charakter bardziej antropologiczny i wskazuje na zmieniające się reguły mediacji, w której obraz przechodzi z funkcji reprezentacji do bycia interfejsem i ku fazom kolejnym. Synergię obu chciałbym przedstawić za pomocą studium przypadku, którym będzie sytuacja mapy w domenie cyfrowej oraz szeregu praktyk kulturowych związanych z jej społeczną kartografią – indeksowaniem oraz atomistyczną, pikselową interfeizacją. W tym celu przyjrzę się najpierw medium mapy, a następnie jej cyfrowym losom pod wpływem baz danych.

Figura i forma mapy ma dla kultury, nie tylko tej medialnej, znaczenie zasadnicze i referencyjne: uznać ją można za jedno z pierwszych mediów, pre-interfejs kulturowej wiedzy o świecie, pierwszą z wizualnych form matematyki i matematycznego pojmowania świata. W języku greckim geometria znaczy geo – ziemia, metria – mierzenie. Mapa jest w związku z tym pierwotną matrycą kultury medialnej, pierwszą reprezentacją i zarazem pierwszą symboliczną metaforą świata, będąc przy tym równolegle utrwaloną w postaci bardzo konkretnego medialnego interfejsu projekcją kultury: jej wartości, sposobów postrzegania świata i pojmowania go, odbiciem norm społecznych i skondensowaną wiedzą o sobie samych i rzeczywistości dookoła nas.

Kartograficzny instynkt, praktyki mapowania i figura mapy wpisały się także na dobre w fundamenty cyfrowego świata. Za ich pośrednictwem cyfrowe mediacje odwołują się do dziedzictwa wykraczającego daleko poza ontyczne regulacje technologii mediów analogowych i sięgają do początków kultury w ogóle. Mapa ustanowiła figuratywne podwaliny dla wyobraźni interfejsowej i interfejsowych form użytkowych (takich jak pulpit, przeglądarki, hipertekst), a orientacja w przestrzeni to praktyka, która leży u podstaw nawigacji po oceanie danych. Cyfrowym echem kulturowych mitologii mapy i kartografii są również metafory cyberprzestrzeni, oceanu informacji i nawigacji po jego wodach. Posiłkując się nimi objaśniamy sobie samym strukturę cyfrowego świata i lokujemy/lokalizujemy się w nim, tak jak to instynktownie czynimy w realnym świecie wokół nas. Terytorium za sprawą mapy i kartografii, a przestrzeń dzięki euklidesowej geometrii zyskały kulturowy porządek i strukturę. Zasilana elektrycznie domena cyfrowa potrzebuje analogicznych (ale nie analogowych) działań. Dla mojej narracji najważniejszy jest w tym kontekście fakt, że mapę uznać można za pierwszą medialną bazę danych o świecie, jego pierwszą infoestetykę.

Bodaj najbardziej powszechną z palety cyberkartograficznych figur jest cyfrowe oblicze (według języka cyberkulturowego: warstwa) Mappa Mundi. Tkają ją na zlecenie Google Earth i innych, podobnych do tego lidera instytucji, firm i społeczności umieszczone w satelitach, samochodach i komputerach światłoczułe matryce nieustannie skanujące swoimi pikselami (jak wspomniałem, to elementarne „komórki” cyfrowych „oczu”, technologiczne odpowiedniki biologicznych widzących światło i kształty pręcików i czopków) to, co widzialne, oraz nieustannie kodujące algorytmy, które zgodnie z potrzebami współczesnych cyber-kartografów pozyskane w ten sposób dane przetwarzają i zamieniają w wizualny interfejs. Powstają w ten sposób doskonale odwzorowujące terytorium cyfrowe skany w skali niemal 1:1 (streetwiev), dosłownie odpowiadające fanaberiom borgesowskiego cesarza i baudrillardowskim obawom o agonii rzeczywistego wobec doskonałej mapy. W digitalnej mapie świata nakładają się na siebie matematyczne (abstrakcyjne) modele/wyobrażenia rzeczywistości (cyfrowość) z telematyczną doskonałością cyfrowego „spojrzenia” high-definition w nieustannie, wraz z technologicznym rozwojem matryc, rosnącej gęstości informacyjnej (rozdzielczości obrazu i stopnia kompresji składających się na niego danych). Tak odtworzona Mappa Mundi, tj. olbrzymia baza danych o charakterze matematycznym i wizualnym, choć w high definition, to wciąż jedynie udoskonalona pod względem jakości odwzorowania terytorium wersja już znanej kulturze formy; cyfrowy, medialny update mapy.

Cyfrowe zakodowanie formy i treści mapy otwiera ten kulturowy tekst/obraz na wszelkie możliwe bazodanowe praktyki, estetyki i polityki – czyni ją podatną na remiks, wariacje użytkowe i niezliczoną ilość nakładających się na siebie/przenikających się narracji semiotycznych i interfejsów. Przez to wprowadza ją na obszar po „śmierci autora”, choć powinienem napisać w tym przypadku o śmierci kartografa, w którym miejsce i rola dla wielkich wizjonerów i kartografów są ograniczone, poddane różnorodnej konkurencji i weryfikacji. Przywołajmy w tym miejscu średniowiecznego hiszpańskiego mnicha Beatusa z Lièbany, któremu zawdzięczamy wspaniale ilustrowaną Mappa Mundi uznawaną za jedną z najważniejszych, a przy okazji i najpiękniejszych, map świata. Ta mapa była nie tylko poruszającym estetycznie wizualnym modelem świata. Była jednocześnie wielką o nim opowieścią; kodem zawierającym w sobie teologiczną, polityczną, społeczną i artystyczną summę wiedzy, historii i kultury w ich ówczesnych autodefinicjach. W cyfrowych okolicznościach powinności i kompetencje niegdysiejszych zakonnych kartografów-narratorów przejmują w dużej mierze maszyny medialne. To wspomniane powyżej autoreferencyjne technologiczne systemy skanujące i modelujące (satelity, fotografie lotnicze, street wiev), które samoczynnie mapują powierzchnię globu i przetwarzają zebrane dane w gotowe modele soft­ware’owe (Google Earth) regulujące kształt olbrzymich zasobów pozyskanych tą drogą geodanych. Powstaje dzięki ich skanowaniu i przetwarzaniu mapa – baza danych, która jest dokonała kartograficznie i technologicznie. Brakuje jej jednak duszy kulturowej metafory, nie jest intrygująca estetycznie i nie opowiada świata, a jedynie go odtwarza.

Dla kulturowej równowagi technologicznemu skanowaniu i mapowaniu towarzyszą – to druga z sił napędzających cyberkartografię i jej hybrydowe mapy – przeróżne praktyki użytkowe, które z zasobów cyberprzestrzeni uczyniły tekst/obraz otwarty na dyskursy polityczne (obostrzenia związane z dokładnością map satelitarnych, kwestie zamazywania danych prywatnych na publicznie dostępnych mapach), artystyczne (sztuka geomediów i GPS [255]), komunikacyjne (media lokacyjne), projekty rynkowe i gospodarcze, a ostatnio także rizomatyczny i interaktywny, zarządzany społecznościowo. Uczyniły one z map żywą, płynną „przestrzeń” publiczną. Cyfrowe zasoby map, ich interfejsy (smartfony, laptopy, nawigacje) i software (Google Earth, Foursquare, Layar, Facebook), są w ten sposób projektem otwartym i wielowariantowym, wymykającym się pojedynczym narracjom i estetykom/topografiom. Taki charakter ma na przykład projekt tworzony na zasadzie wiki – www.openstreetmap.org, którego twórcy przekonują, że jest on:

mapą całego świata, która może być użytkowana i poprawiana/uzupełniana przez każdego. Dzięki wykorzystaniu zjawiska otwartej społeczności tysiące ludzi z całego świata zbierają i katalogują geodane w centralnej bazie danych [256]

Właśnie takie społeczne konstruowanie poszerzonej mapy (augmented map), składającej się z wielu nakładających się na siebie topografii, modeli i estetyk kartograficznych warstw, dowodzi kulturowej ewolucji figury mapy rozumianej tradycyjnie jako skończona opowieść w byt, który za sprawą digitalizacji i usieciowienia staje się płynną i przybierającą niezliczoną ilość potencjalnych kształtów/wizualizacji/interfejsów bazą danych [258]. Na współczesne pisanie/komponowanie jej jako tekstu/obrazu kultury składa się geo-tagowanie, czyli nadawanie nietopograficznych znaczeń geograficznym i kartograficznym lokalizacjom (danym), i nakładane na nie (warstwa na warstwę) rozproszone tagowanie społecznościowe, czyli zbiorowe współtworzenie znaczeń przypisywanych geo-tagom i takie nimi zarządzanie. W obu działaniach biorą udział nieprzebrane zastępy modelarzy i narratorów przestrzeni za pomocą niezliczonej ilości medialnych maszyn wyposażonych w stosowne interfejsy i obsługujące je oprogramowanie. Powstaje z tego wymieszania hybryda, w której społeczna i kulturowa semiotyka przenika się z istniejącymi siatkami i skalami topograficznymi, strukturami nawigacyjnymi i programistycznymi. Na określone fragmenty mapy osadzać można wykonane przez siebie w odpowiadających im rzeczywistych miejscach zdjęcia, utrwaliać związane z tymi miejscami wspomnienia, rady dla innych i emocje. Posługując się ogólnodostępnymi narzędziami społeczności tworzą swoje własne warstwy globalnej i lokalnej jednocześnie (efekt skalowania) interpretacji tego, co przestrzenne i widzialne jednocześnie. W rezultacie powstają alternatywne plany miast, na których można zobaczyć np. najbardziej lubiane przez Internautów miejsca, te z dobrym jedzeniem czy frapującym układem urbanistycznym/architektonicznym; punkty, w których nie ma zainstalowanych kamer monitorujących czy szlaki wycieczek polecane przez turystów, którzy już wybrane miejsca odwiedzili tym, którzy dopiero takie odwiedziny planują.

W medialnej tradycji mapa i kartografia stanowiły pierwotny polityczny i hierarchiczny kod (kultura) związany z terytorium (natura). W dobie bazodanowych ewolucji stają się sferą dekonstrukcji systemu władzy, przemysłu kulturowego i przechodzą w stan postmedialny: stają się praktyką zbiorową, pospolicie zarządzaną bazą danych, które jej cyfrowi użytkownicy generują, tagują, waloryzują, wizualizują i wreszcie także hybrydycznie przenoszą pomiędzy światami offline i online.

Tagowanie i współtworzone w ramach zbiorowej interakcji cyfrowe mapy stają się w ten sposób obrazami indeksowalnymi semiotycznie i technologicznie. Trudno w takich wizualno-danowych formach odseparować od siebie obrazy i surowe dane, które je poprzedzają. To medialne hybrydy, które dowodzą siły przenikania logiki i estetyki danych do już istniejących porządków i form medialnych. To także format, w którym widać hybrydyczną, uwarunkowaną kulturowo klasę działań technologicznych (matematycznych), czyli wizualne zarządzanie danymi. W takich wizualnie komponowanych bazach danych przenikają się ze sobą również narracyjne abstrakcje (to fenomen historyczny związany z generalną historią komunikacji podporządkowanej regułom pisma) z orientacją dyskursywną, charakterystyczną dla nowomedialnego, cyfrowo-sieciowego środowiska i komunikacji współczesnej w ogóle [260].

W rozwoju technologii wizualnych, który przebiegał od statycznej reprezentacji ku symulacji, a następnie do obrazów ruchomych (fotografia – kino), kolejnym etapem jest ich wirtualizacja, czyli rzeczone wcześniej stopienie się wizualności z regułą baz danych. Obrazy stają się w ten sposób tekstem kulturowym, który będąc zasobem w kulturze uczestnictwa pozostaje otwarty i może być nieustannie pisany na nowo. Zamienia się w wizualne pole, na którym możliwe są i dokonują się przeróżne operacje na wizualnych danych – pikselach, podobne do pola obrazu cyfrowego, który zostaje złapany do interfejsu Photoshopa i wychodzi zeń zre/dekonstruowany i przeregadowany.

Faza obrazów otwartych na indeksowanie to nie koniec ich bazodanowych rekonstrukcji. W praktyce wizualnego zarządzania pikselami można zauważyć jeszcze jedną tendencję. Dane te stają się funkcjonalnymi elementami technologii obrazów – piksele najpierw komunikują w obie strony, a następnie zamieniają się w przyciski interfejsów. Nurt ten zapoczątkowały indywidualne interfejsy mediów mobilnych (komórki, smartfony, tablet), których ekrany dawały się dotykać i stały się w ten sposób zastępcami wcześniejszych interfejsów, takich jak mysz, klawiatura, a z czasem i kamera.

Zanim jednak przejdziemy do analizy wizualnych danych jako interfejsów, odwołam się do historycznej debaty nad kierunkiem rozwoju technologii cyfrowych. We wczesnych latach osiemdziesiątych ubiegłego wieku, a więc w okresie kiedy technologie cyfrowe wychodziły z etapu interfejsów tekstowych i przekształcały się w maszyny wytwarzające własną wizualność i dzięki wizualnym manipulacjom sterowane, jedną z najgłośniej komentowanych koncepcji rozwoju cybertechnologii była wizja bezpośredniej kontroli danych sformułowana przez Bena Shneidermana [261]. Bezpośrednia manipulacja miała być odpowiedzią na dwa nurtujące wówczas przemysł komputerowy najważniejsze problemy: narastającą ilość danych wymagających magazynowania i skomplikowanych sposobów przetwarzania oraz poszukiwania sposobu na wygodę pracy z cyfrowymi maszynami. Rozwiązaniem obu problemów miały być tak zaprojektowane systemy informatyczne (interfejsy, software, hardware), które uczyniłyby dane bezpośrednio percypowalnymi na poziomie, na którym możliwa byłaby ich niemal dotykalna kontrola [262].

Na przestrzeni ostatnich 30 lat widać, że ten kierunek rozwoju okazał się dominujący w komputerowym świecie. Systematyczne zmniejszanie dystansu pomiędzy danymi a ich użytkownikami stało się drogowskazem dla zaangażowanych w jego rozwój projektantów i użytkowników. Swój udział w tym procesie miały zarówno popularne w latach 80. i 90. gry wideo, które wyposażone były w szereg kontrolerów, takich jak elektroniczne pistolety, kierownice, pedały, drążki, jak i rozwiązania programistów pracujących przy obróbce danych, którzy nie byli w stanie efektywnie pracować na olbrzymich ilościach zakodowanych cyfrowo i dostępnych jednocześnie informacji. Jednymi z takich oryginalnych narzędzi/interfejsów bezpośredniej manipulacji okazały się np. pierwowzór współczesnych arkuszy kalkulacyjnych VisioCalc z końca lat 70. czy wizualny menedżer plików Norton Commander z połowy lat. 80.

Wraz tymi ideami i ich technologicznymi wcieleniami rozpoczęła się historia rzeczywistej taktylności mediów (to pojęciowe echa teorii McLuhana), których różne interfejsowe elementy stały się haptycznymi przewodnikami komunikującymi w obu kierunkach, pozostając jednocześnie znakami, nie tracąc w wyniku ich mechanicznego uruchamiania przypisanych znaczeń. Epoka medialnych studiów reprezentacji rzeczywistości zaczęła w ten sposób ewoluować ku ich rozpływaniu się w uniwersum interaktywności. Przy tym interaktywne jest tu pomostem pomiędzy tym, co wirtualne i realne, symboliczne i materialne, odbiorem i nadawaniem, postrzeganiem i tworzeniem. Po fazie kultury samorozumiejącej się jako tekst (okoliczności zwrotu lingwistycznego), przez fazę kultury symulującej (okoliczności zwrotu wizualnego) mamy do czynienia – wraz z narodzinami uniwersum cyfrowego – z fazą zwrotu ku realności i materialności. Kulturoznawca Hal Foster twierdzi, że dla współczesnej sztuki (kultury w ogóle) najważniejszym punktem odniesienia staje się to, co jeszcze nie zostało poddane erozji krążenia znaczeń i symulacji wizualnych, czyli nasza cielesność i nietknięte kulturą zjawiska społeczne, a może lepiej – społecznościowe, trybalne [263]. Gdyby chcieć te ogólne zmiany kulturowe ograniczyć do terytorium komunikacyjnego, to można by je opisać według przejścia, które Peter Weibel określa mianem przekształcania się imperium znaków (Barthes) w imperium interfejsów [264].

Pozostając w obszarze map uzupełnijmy tę ogólną diagnozę interfejsowego zwrotu o teorie i metafory Deleuze’a i Guattari’ego związane z przestrzenią oraz jej postrzeganiem i rozumieniem. Teoretyczne intuicje filozofów, wynikające z badań nad organicznymi i kulturowymi uwarunkowaniami percepcji i jej naturalnego sensorium, tworzą imaginacyjny grunt, w którym sytuuje się haptyczny potencjał cyfrowej wizualności i taktylna logika medialnych gestów użytkowników cyfrowych technologii. Efemeryczne propozycje językowe i pojęciowe francuskich filozofów w tym zakresie rysują generalny podział pomiędzy widzeniem hierarchicznym a widzeniem rizomatycznym. Francuzi odróżnili także pojęcia przestrzeni gładkiej (smooth space) i przestrzeni pręgowanej (striated space). Ta pierwsza kategoria odnosi się do środowiska naturalnego i krajobrazu, w którym operuje podmiot. Nie ma ona granic ani centrów. Jej percepcja implikuje płynne doznania i wyobrażenia wynikające z doświadczenia takich niestałych, amorficznych elementów, jak morze, wiatr, piach, czas, dystans. Jest ona bardziej haptyczna niż optyczna, tj. ma namacalną, dającą się sensorycznie odczuć fakturę. Można ją skojarzyć ze sferą nieświadomości. Wymaga nieustannego przystosowywania się, cechują ją krótkie stany, zbliżenia, wariacje, przeżycia, odczucia. U siebie są tu nomadowie, a źle czują się bez wytyczonych ścieżek pielgrzymi. Przestrzeń pręgowana jest natomiast homogeniczną w strukturze siatką powiązań, zależności i hierarchii, które wytyczają na niej kulturowo, przez działania polityczne, ekonomiczne, historyczne w ogóle, ustanowione linie demarkacyjne (blizny). Wpisane są w nią znaczenia i hierarchie, zależności i perspektywy [265].

A Thousand Plateaus autorzy piszą o nieustającej konfrontacji obu typów pojmowania świata – kulturowych wyobraźni, a rozwój kultury widzą jako proces systematycznego umacniania się myślenia hierarchizującego, porządkującego. Morze poddane zostało kartografii i nawigacji, czas usystematyzowany został przez zegar. Skrzyżowanie tej teorii przestrzeni z bazodanowymi stanami mediów cyfrowych prowadzi do wniosku, iż tradycja mediacji analogowych (od Galaktyki Gutenberga przez kulturę masową aż po analogowe oblicze visual culture) odpowiada myśleniu w kategoriach przestrzeni pręgowanej. Porządek mediów analogowych jest próbą strukturyzowania świata symbolicznego i systemów komunikacji społecznej. Przeciwnie rzecz ma się w otoczeniu taktylnych ekranów i obrazów wczesnej epoki cyfrowej i sieciowej. Dzięki nim możliwe jest poszerzenie spektrum spojrzenia, wyjście poza krąg technologicznie pozbawionych „aury” wizualnej znaków pisma i rozszerzenie głębi patrzenia i widzenia na obrazy, które dynamicznie rozwijają się w cyfrowym środowisku technologicznym. Jednak dopiero cyfrowe obrazy wlane w ekrano-obrazo-interfejsy stają się już nie tylko po deleuziańsku i guatarriańsku haptyczne, ale realnie dotykalne, fizycznie taktylne. Znaczy to, że nie tylko postrzegamy ich jako pełnoprawnych znaków (w pełni naładowanych semiotycznie), ale dodatkowo, fizycznie ich dotykając, informujemy (konstruujemy) nimi, za sprawą semiotyki tego dotyku, świat, wizualnie zarządzamy rzeczywistymi, acz hybrydycznymi bazami danych-atomów. Żywe dane (piksele) reagujące na dotyk tapety, którymi uwidaczniamy pulpity cyfrowych maszyn, czy interaktywne i tworzone w wyniku społecznej kartografii mapy (oraz wszelkie inne interaktywne interfejsy wizualne) to asamblaże łączące wizualne z materialnym, analogowe z digitalnym, wirtualne z realnym, semiotyczne z biologicznym [266].

Wizualne bazy danych, które zrastają się ze swoimi dotychczasowymi interfejsami mieszczą się w centrum krajobrazu postmedialnego. Unieważniają zarówno dotychczasową funkcję i język mediów, jak i regułę terytorium, osłabiają kulturowy dystans między nimi do niemal niepercypowanej, znajdującej się na granicy kultury percepcji różni. Za sprawą taktylnych map-interfejsów terytorium zrasta się ze swoją reprezentacją, przekraczając nawet borgesowsko-baudrillardowskie wyobrażenia o skutkach takiego stanu – terytorium staje się bowiem, śladem mapy, kartograficzną bazą danych, którą daje się prostymi, wizualnymi interfejsami manipulować. Bazodanowa mapa konstruuje terytorium i zarządza nim, a nie tylko je poprzedza [267]. Bruno Latour powiada, że terytorium staje się w ten sposób jedną z przestrzeni ryzyka, raczej mimetyczną a już nie tradycyjnie abstrakcyjną, nawigacyjną {[268]. Kartografia zaś w obliczu tych zmian zmienia się nie tylko na drodze od hierarchicznych narracji do społecznościowych praktyk, ale zbliża się także ku kartografii semantycznej, w której nie chodzi już o obrazowanie i reprezentowanie terytorium naturalnego i cywilizacyjnego, ale jego kulturowe modelowanie, opowiadające/konstruujące świat przez pryzmat różnych, dobieranych w tym celu, kryteriów symbolicznych. To dlatego najbardziej dziś intrygujące nie są już obrazy/mapy odbijające wiedzę o materialnym świecie, nawet te najbardziej doskonałe, ale mapy, które pokazują świat społeczny, kulturowy, symboliczny. Takimi są mapy społecznościowe, w których na topografię miasta nałożona jest wizualizacja najchętniej odwiedzanych w nim miejsc, najciekawszych tras spacerowych czy obszarów, gdzie spotkać można określone grupy ludzi [269].

Bliskość wobec mapy i jej postrzeganie jako żywego organizmu/terytorium powiązane są nie tylko ze społecznym i indywidualnym zaangażowaniem w jej indeksowanie, ale także ze zmieniającym się na skutek takich medialnych bytów kulturowym postrzeganiem przestrzeni, jej wyobraźnią. Rozumieć przestrzeń, podobnie jak i zmieniającą się czasie filozofię kartografii i formę mapy, to uznać ją za zmienny w czasie kod, jedne z wielu kulturowo-społecznych okularów, przez które przyglądamy się światu. Kod ten zmienia się historycznie i geograficznie w ramach takich faktorów, jak spojrzenie lokalne i globalne, zdystansowane i immersyjne, rytualne i strukturalne [270]. Tę kulturową dynamikę patrzenia potwierdza bliskość wobec współczesnych map, immersja w nie i splatanie się kartograficznych wytworów z terytorium. W ten sposób objawia się moc sprawcza sytuacji postmedialnej – jest ona w stanie podkopać fundamenty nawet takich kulturowych dogmatów, jak materialne, naturalne terytorium.

Pozostając wciąż przy interfejsach taktylnych i ich związkach z wizualnością, a wychodząc poza bezpośrednie skojarzenia z kartografią i mapami, przyjrzyjmy się teraz jednemu z najbardziej oczywistych w swej taktylno-wizualnej formie projektów, który ma szansę stać się jednym z drogowskazów w rozwoju cyfrowości w ogóle, wytyczając kierunek od rzeczywistości wirtualnej ku rzeczywistej wirtualności. Chodzi o projekt interfejsu Sixth Sense autorstwa amerykańskiego inżyniera i projektanta hinduskiego pochodzenia Pranava Mistry. To osobisty interfejs służący w zamyśle codziennej obsłudze popularnych czynności związanych z używaniem cybertechnologii. W prosty sposób sprawdzimy dzięki niemu pocztę, zrobimy zdjęcie, przeczytamy gazetę czy napiszemy fragment tekstu. Wszystkie te działania możliwe są tu jednak nie dzięki domyślnym ich interfejsom – klawiaturze, ekranowi, łączom internetowym – ale za sprawą obrazów wyświetlanych na dowolnej materii, na której możliwa jest projekcja światła. Monitorem a zarazem panelem dotykowym staje się dla tego interfejsu dowolna ściana, ręka, odzież. Z pomocą obrazu rzutowanego przez komputer połączony z niewielkim projektorem światła całą otaczającą rzeczywistość można potraktować jako element interfejsu. Świat staje się w tym projekcie jednym wielkim zbiorem przycisków, klawiaturą i myszą, którymi go obsługujemy [271].

Tak oto zarządzanie bazą danych, czy też bardziej ogólnie – obcowanie ze światem cyfrowym skonstruowanym w oparciu o jej gramatykę, stało się działaniem sprzężonym z naszą motoryką, przeniknęło do fizycznego świata przekraczając wszelkie granice dotąd te dwa „programy” rzeczywistości separujące. Taktylność/haptyczność obrazo-ekranów i zatomizowanych interfejsów to sytuacja, która różnie jest interpretowana na gruncie teorii interakcji i teorii interfejsów. Na początku pierwszej dekady XXI wieku kanadyjscy krytycy technokultury, A. Kroker i M. A. Weinsten, tak ostrzegali przed nadmiernym zbliżaniem się do siebie ciał i maszyn cyfrowych, które miałoby skończyć się symbolicznym wchłonięciem cielesności przez wirtualność [272]:

Technotopia to znikanie: ciała w relacyjnych bazach danych, systemu nerwowego zanużonego w logarytmach i skóry ewoluującej w kierunku wetware. Kiedy technologie ożywają i przybierają formę unikalnych gatunków, wchodzimy w okres końca (ludzkiej) historii i początek historii wirtualnej. To czas nieustannej cielesnej cyrkulacji pomiędzy synapsami a technologicznymi magazynami danych: sieciami.

Jak się okazało, tego typu kulturoznawcze obawy pozostały w cieniu cyberoptymistycznego dyskursu emancypacji cielesności w cyberświecie, głoszonej przez takie postaci, jak Donna Haraway z jej cyberfemistycznym Manifestem Cyborga [273], czy dyskursu nowej dyscypliny zajmującej się relacjami ciała i techniki, kogniwistyki. Jej przedstawicielom, wywodzącym się z dotychczasowej psychologii, neurobiologii, psychiatrii i studiów kulturowych, można jednak zarzucić zbytni uniwersalizm, uproszczenia i redukcjonizm: według ich krytyków ze szkoły teorii aktywności (Leontiev, Vygotsky) stworzyli oni jedynie mechanizm rozumienia interakcji człowiek-komputer jako sfery budowania takich rozwiązań interakcyjnych, które generowałyby mentalne odpowiedniki matematycznego software. Myślenie (a zatem percepcję, myślenie abstrakcyjne i działanie według niego) kognitywiści ci rozumieli jako uniwersalną strukturę, którą można odczytywać komputerowo, w taki sposób ją analizować i poddawać programowaniu – stworzone komputerowo matematyczne modele percepcji i myślenia następnie kodować według wszelkich znanych zasad matematycznych, stosując sprzężenie zwrotne pomiędzy człowiekiem i maszyną. W tym podejściu popularność zyskały takie hipotezy, jak ta o strukturalnym podobieństwie mózgu do komputera, o możliwości budowy w oparciu o rozpoznania w tym polu sztucznej, matematycznej inteligencji, itd. Myślenie tego typu dominowało wśród technokratycznych zwolenników rozwoju cybertechnologii.

Innym, skrajnie różniącym się od kognitywistyki, tropem metodologicznym, który warto przyłożyć do obszaru interakcji pomiędzy cyfrowymi maszynami i ich użytkownikami, jest etnometodologia. Doszukuje się ona sensów w ludzkich działaniach bez odwołań uniwersalnych, ani tych biologicznych, ani technologicznych. Na pierwszym miejscu stawia natomiast konkretny kontekst sytuacyjny i kulturowy, w którym wypadł działać człowiekowi i zbiorowościom. Etnometodologia rozumie działania jako kulturowo i środowiskowo uwarunkowaną improwizację wobec zmieniających się okoliczności. Nie ma zatem mowy o uniwersalnych prawdach dotyczących percepcji, myślenia, zachowania – są za to mikrodziałania i kulturowo-środowiskowe ich uwarunkowania, do których zaliczyć należy także technologie, a w szczególności technologie komunikacyjne. Takie unikające generalizacji rozumienie i dyskurs naukowy można w zasadzie określić mianem antyteorii. Oba skrajne stanowiska zdaje się godzić wielowątkowa teoria aktywności, która stara się przyglądać aktywnościom rozumianym jako holistyczne działania podmiotu angażującego w nie psychomotorykę i sferę emocjonalno-racjonalną, osadzonego w konkretnym kontekście kulturowym, technologicznym i społecznym [274].

Różnice w teoretycznych ujęciach dynamicznego rozwoju wizualności w kontakcie z bazami danych i interfejsami taktylnymi przywołałem tu po to, aby wskazać na nierówne prędkości, z jakimi rozwijają się technologie medialne i nasza wiedza nie tylko o nich, ale i o nas samych postawionych wobec cyfrowego świata. Jako cywilizacja nauczyliśmy się tworzyć maszyny sprawniejsze, ciekawsze i mądrzejsze od nas samych.

– miejsce centralnej dla tradycyjnego dyskursu kategorii medium i mediacji zajmie płynny układ sił pomiędzy kodem (software), bazą danych i interfejsem (hardware). Analizy zdarzeń i form komunikacyjnych w cyfrowym świecie domagają się bowiem nowego modelu analizy i zrekonstruowanego słownika ten model opisującego.