Czytaj książkę z rozdziału: Ku kulturowej teorii elektryczności

Poddanie cyfrowego świata elektryczności, translacja kultury do jej fizycznego „języka”, ma daleko posunięte konsekwencje. Cyfrowy świat odnajduje w elektryczności swój uniwersalny i totalny zarazem nośnik, dopasowuje do niej swój kod. Ma tu miejsce jednocześnie jeden z najważniejszych dla postmedialności procederów, który na poziomie materialnym inicjuje wymieszanie dotychczasowych mediów, ich języków i form. To zjawisko polega na elektrycznej dekonstrukcji informacji, która w formie digitalnej traci tradycyjną nierozerwalność z formą (to zasada medialności) i nomadycznie wędruje pomiędzy różnymi wywołaniami, interfejsami i remiksami oczekując na ponowną materializację. Zelektryfikowana informacja redukuje się do postaci danych. Uwolnione od tradycyjnej tożsamości z nośnikami dane cyrkulują pomiędzy już dostępnymi interfejsami, algorytmami i protokołami. Pozostają w stanie nieustannej gotowości do bycia na różne sposoby wywołanymi i zinterpretowanymi za pomocą wszystkich możliwych metod, przyjęcia dowolnej medialnej formy i dowolnego statusu. Napięcie elektryczne „ożywiające” martwe krzemowe i metalowe obwody i układy scalone cyfrowego świata nie zna tradycyjnych kulturowych kodów, które stanowiły o jakości informacji, o jej ciężarze gatunkowym, kontekście społecznym, itd. Gotowe jest równie dobrze odtworzyć w abstrakcyjny sposób wszelkie wcześniejsze języki, formy i media, jak i powoływać do istnienia wszelkie inne, będące częściowo remediacjami już istniejących, jak choćby interaktywna telewizja czy prasa, jak i zupełnie nowe, takie jak interaktywne wizualizacje baz danych. Różnicujące się formalnie z wyraźnym przyspieszeniem w okresie nasilenia się rewolucji przemysłowej środowisko technologiczne mediów wystawia na ciężką próbę dotychczasowy monopol mediacji gutenbergowskiej. Wraz z pojawieniem się radia, fotografii, potem filmu, telefonu, rodzi się nowa sytuacja ontologiczna, w której komunikat można odseparować od transmitującego go medium. Wtedy to właśnie pojawia się informacja jako taka. Jako tekst, który wymyka się literaturze; przekaz, który konkurencyjnie podejmują i próbują zawłaszczyć inne technologiczne formy nowoczesnych mediacji. W ten sposób informacja przestaje być materialna i powoli przekształca się w to, czym jest dzisiaj – potencją/energią komunikacyjną szukającą najlepszego wcielenia technologicznego (interfejsu). To technologiczne zróżnicowanie medialnych form dowodzi zasadniczej różnicy pomiędzy materią a informacją, pomiędzy rzeczywistym a symbolicznym w komunikacyjnym uniwersum [128].

Zmianę statusu informacji, którą wywołuje elektryczność operująca w obszarze cyfrowego kodu, amerykańska badaczka nowych mediów, Katherine Hayles, nazywa odcieleśnieniem informacji. Według Hayles zanurzeni coraz głębiej w świat kodu i danych, którymi elektrycznie manipulujemy, na nowo konstruujemy naszą tożsamość i wyobraźnię, rozpoczynamy kondycję postludzką[129]. Dla tej kondycji najważniejsze są procesy, które od czasów kartezjańskich kultura Zachodu postrzega jako właściwości rozumu i rozumności zachodzące w coraz większym dystansie od ciała [130]. Hayles nie stara się, oczywiście, wspierać i uzasadniać teorii dotyczących fizycznego znikania cielesności. Autorce chodzi tu o malejące jej znaczenie w obliczu cyfrowych przemian, o narodziny nowych wyobraźni i scen działania, które do cielesności odwołują się w coraz bardziej ograniczonym stopniu z pominięciem tradycyjnych dyskursów i etosów. Obu sfer, cielesności i informacji, dotyczy podobnie rekonstrukcja: kiedy przyznajemy informacji niezależność od jej materialnych nośników – mediów, to jest kiedy transformujemy/redukujemy ją do postaci cyfrowych danych, wówczas opuszczamy galaktykę, którą definiują obecność i jej brak. Wchodzimy za to w porządek, w którym panują jedynie binarne przeciwieństwa sygnału i jego braku, matrycy i przygodności oraz rezonujące na kulturę dystanse pomiędzy nimi, dla których naturalnym krajobrazem stają się pikselowe ekrany i matryce zastępujące euklidesową czasoprzestrzeń. Odpowiadają im coraz częściej binarne opozycje cielesność/tożsamość, działanie/myślenie, które realizują się przez bliskość z cyfrowymi technologiami. To, że informacja straciła cielesność, nie oznacza, że ludzie i świat stracili swoje – konkluduje ostatecznie Hayles[131]. Powstaną natomiast różne nowe typy świadomości, które z dotychczasowymi, analogowymi i materialnymi zarazem, będą miały coraz mniej wspólnego. Naturalnym dla nich matecznikiem będzie elektryczność i napędzany przez nią hardware oraz sieci danych.

Zachowawcza optyka Hayles trafia na bardziej radykalne myślenie wielu teoretyków cyberkultury i nowych mediów. Elektryczne losy informacji i cielesności okazują się jednym z lejtmotywów dyskursu trans- i posthumanistycznego (stosowane są tu obie formy zamiennie)[132]. Dla takich jego moderatorów, jak Hans Moravec czy Ray Kurzweil, najbardziej interesujący w obszarze oddziaływania cyfrowych technologii i elektryczności okazuje się kontekst technologicznej transgresji i biopolityczności cielesności i podmiotowości. Wspomniany Hans Moravec już pod koniec lat 80. ubiegłego wieku propagował pogląd, w myśl którego na zasadzie podobieństw pomiędzy neuronalnymi wzorcami myślenia i konstrukcji mózgu oraz zaawansowanymi sieciami komputerowymi możliwy będzie z czasem „upload” intelektu/ducha w bardziej trwałe, lepiej pracujące i zapewniające większe możliwości – w gruncie rzeczy nieśmiertelne, środowisko hardware[133]. Dekadę później Kurzweil posunął projekt przeniesienia ludzkiej podmiotowości do wewnątrz krzemowo-elektrycznego „organizmu”, przepowiadając, że przejście to dokona się raczej do wewnątrz software niż hardware. Staniemy się software, a nie hardware. Esencją naszej tożsamości stanie się permanentne trwanie i autoewolucja (w) software[134].

Niezależnie od mniej lub bardziej prawdopodobnych scenariuszy zasiedlania i kolonizowania elektryczności przez projekt cyfrowy pozostaje ona niezmiennym warunkiem jego funkcjonowania w obecnej postaci. Pracę nad alternatywnymi modelami komputeryzacji, takimi jak biokomputery, dokonujące obliczeń w specjalnie do tego celu przystosowywanych organizmach żywych (roślinach, bakteriach), czy też koncepcje wykorzystania przewodzenia światła zamiast elektryczności w obwodach cyfrowych, są o tyleż obiecujące i intrygujące, co wtórne wobec myślenia o komputeryzacji elektrycznej, bowiem biologiczne maszyny musiałyby bazować na mikroelektrycznej wymianie napięć zachodzącej w każdym organizmie żywym, zaś maszyny wykorzystujące przewodzenie i manipulowanie światłem opierałyby się jedynie o inne spektrum fal tego samego zjawiska – światło i elektryczność mają jedną „genetykę”, czego dowodzi choćby piorun.

Pomimo centralnej lokacji wewnątrz projektu cyfrowego elektryczność nie stała się dotąd przedmiotem pogłębionych studiów kulturowych, dyskurs jej poświęcony skonstruowały i podtrzymują nauki ścisłe i coraz częściej społeczności domorosłych i profesjonalnych inżynierów pracujących z maszynami cyfrowymi i elektroniką [135]. Pora najwyższa, aby elektryczności i energii w ogóle dedykować szeroko zakrojone studia humanistyczne i kulturowospołeczne. W połowie XIX wieku, a więc w okresie, kiedy dopiero odkrywano użytkowy potencjał elektryczności, Michael Angelo Garvey w futurystycznej książce zatytułowanej The Silent Revolution. Or, the Future Effects of Steam and Electricity upon the Condition of Mankind wyrokował: elektryczność stanie się najważniejszym kanałem, po którym będziemy transmitować i komunikować naszą inteligencję. Elektryczny telegraf dysponuje w tym zakresie wspaniałymi właściwościami: pomija czas i miejsce[136]. I choć tę intuicję potwierdziła współczesna kultura, to krytyczna wiedza o elektryczności wciąż sięga niewiele głębiej niż do wyobraźni Garveya czy Morse’a. Chyba tylko McLuhan pisząc o globalnej wiosce, w której elektroniczne media zastępują kulturę wizualną i gutenbergowską kulturą wtórnej oralności tworząc kolektywną inteligencję, docenił wagę elektryczności w medialnym pejzażu współczesnego świata. Po nim elektryczność zamknięta w szczelnych obiegach krzemowych płytek i tranzystorów stała się tak naturalna, że nazbyt oczywista. McLuhan pisał:

Człowiek elektroniczny, podobnie jak człowiek sprzed epoki alfabetu, postrzega i ujmuje świat w całości. Jego informacyjne środowisko to w gruncie rzeczy jego własny centralny system nerwowy [137].

Celem nauki, sztuki i edukacji w ciągu najbliższych lat powinno być nie tylko odszyfrowanie kodu genetycznego, ale przede wszystkim kodów ludzkiej percepcji. W globalnym środowisku informacyjnym stary model edukacji oparty na poszukiwaniu odpowiedzi jest nieadekwatny: jesteśmy otoczeni przez miliony odpowiedzi poruszających się i zmieniających z prędkością elektryczności. Przetrwanie i kontrola nad światem będą zależeć od zdolności zadawania właściwych pytań we właściwym czasie i miejscu. W sytuacji, gdy środowisko informacyjne znajduje się w nieustannym ruchu, potrzeba nie tyle gotowych scenariuszy i rozwiązań,ile raczej starych umiejętności odczytywania wielkiej księgi świata, nawigowania w mało przyjaznej i nierozpoznanej we właściwym stopniu przestrzeni informacyjnej. W innym wypadku będziemy mieli nad tym środowiskiem technologicznym mniej kontroli niż mamy nad wiatrem i ruchami wody [138].

Mimowolne rozpoznawanie kontroli nad zjawiskami naturalnymi jako kodów kultury stawia przed analitykami cyfrowej komunikacji i pośredniczących w niej maszyn problem, który określiłbym mianem potrzeby „humanistycznej teorii elektryczności”. Poddanie tego zjawiska kulturowej analizie, konstruowanie jego teorii, jawi się jako jedno z najważniejszych – obok teorii hardware, kulturowej teorii matematyki, badań nad HCI (Human-Computer Interfaces) czy software studies – zadań badawczych dla współczesnej komunikologii i medioznawstwa. Potrzebę taką umacnia dodatkowo istnienie rozbudowanej teoriopoznawczej tradycji cybernetycznej, która rości sobie prawa do wchłonięcia/zastąpienia teorii kulturoznawczych.

Wspomniałem już o dystansie i różnicy pomiędzy zapisami kodu binarnego w ciągach wartości 0 i 1, które mają bezpośredni wpływ na strukturę pracy elektryczności wewnątrz cyfrowego hardware, a kolejnymi poziomami użytkowymi kodu, na które składają się protokoły, asemblery, systemu operacyjne, języki i środowiska programistyczne oraz oprogramowanie użytkowe, z którym przeciętny użytkownik cyfrowych mediów ma kontakt na co dzień, czyli domeną software. Układ tych zapisów jest warstwowy, co oznacza, że kolejne warstwy kodu pokrywają/przesłaniają wcześniejsze. Pośród nich istnieją różne reguły programowania i różne dla niego zastosowania. Najbliżej użytkownika, a w zasadzie najbliżej interfejsowej, użytkowej powierzchni cyfrowych maszyn znajduje się warstwa aplikacji użytkowych, które stanowią funkcjonalną i personalną bramę dla najbardziej popularnych zastosowań maszyn. Pod tą widoczną w pierwszym kontakcie są także warstwy umożliwiające przepływ danych w systemach i pomiędzy nimi, takie jak np. protokoły TCP; warstwa sieciowa, którą reguluje np. protokół IP, czy warstwa regulująca fizyczną wymianę impulsów elektrycznych, jaką jest np. popularny Ethernet. Każda warstwa jest środowiskiem dla kolejnej, która się nad nią pojawia – staje się dla niej matecznikiem, kodeksem i regulatorem. W ten sposób budowane są kolejne piętra cyfrowej kodyfikacji, kolejne poziomy cyfrowego świata. Typowym przykładem warstwowego współdziałania kodu jest, dla przykładu, sytuacja komunikacji internetowych. Większość z nich regulowana jest za sprawą protokołów TCP i IP, następnie kontrolowana jest za sprawą protokołu HTTP i wtedy dopiero pojawiają się języki kodowania internetowych stron i aplikacji, takie jak HTML, JAVA, czy CSS.

Im bliżej do użytkownika i jednocześnie im dalej od hardware, tym bardziej te warstwy odbiegają od prostoty binarnego kodu i tym bardziej stają się „kulturowe” – dostępne na wyższych poziomach języki przybierają postać kodów bliskich językowi mówionemu, posługują się jego słownikiem i gramatyką – są paratekstualneparawizualne, czyli zostały zakodowane semantycznie, a nie tylko technologicznie [139]. Są takie, bowiem muszą być bliskie kulturze, aby pracujący z nimi programiści mieli możliwość posługiwania się zrozumiałymi, osadzonymi w kontekście kulturowym systemami znaków budując wypowiedzi, które oni sami i finalni użytkownicy powstających w ten sposób tekstów będą potrafili zredagować i zrozumieć, i które będą jednocześnie czytelne dla maszyn [140]. Upowszechnianie cyfrowych technologii i ich otwarcie na możliwości programowania domagają się coraz bardziej podobnych do „naturalnych” kodów kultury ekwiwalentów cyfrowych. Współczesne programowanie w konsekwencji w coraz mniejszej skali składa się z operacji bezpośrednio projektowanych w kodzie binarnym, a coraz bliżej mu do takich nowoczesnych praktyk, jak design, typografia, projektowanie interakcji, negocjacje protokołów, interfejsy użytkowe. Im bliżej użytkowej powierzchni cyfrowej maszyny, tym bardziej software upodabnia ją do wizualnych, audialnych i mieszanych kodów kultury. Bez tej wielokrotnej translacji i uobecniania niemożliwy byłby bezpośredni, interaktywny kontakt z maszyną.

Nawarstwianie kodowych dialektów i struktur ustawia świat cyfrowy w zakresie zjawiska, które w swojej teorii komunikacji Vilém Flusser określa mianem transkodowania (transcodify). Stan ten oznacza skomplikowane i niejednolite relacje pomiędzy nakładającymi się na siebie kodami. Bywają one od siebie zupełnie niezależne, ale i pokrywają się w zakresie szyfrowania rzeczywistości. Niektóre z łatwością komunikują inne, pozostałe są tak od nich różne, że przekładanie jednego na drugi prowadzi do całkowitej utraty przekazywanej w ten sposób wiadomości, która rozpływa się w procesie trudnej translacji. Flusser podejrzewa wyłanianie się wraz z rosnącą ilością różnych kodów (a dodajmy, że w cyfrowym świecie ich liczba przyrasta niezwykle szybko), rodzin kodów i różnych gałęzi ich rozwoju[141]. Takie namnożenie kodów wydaje się szczególnie istotne, kiedy rosnące zbiory „analogowych” i „cyfrowych” w większości dublują się i w codzienności doświadczeń kultury komunikacyjnej nakładają się na siebie i konkurują ze sobą. Według Flussera istnieją trzy podstawowe typy kodów kultury, których różnice wynikają z właściwości naturalnego sensorium człowieka: to kody wizualne (alfabet), audialne (język mówiony, muzyka) i mieszane (teatr, media elektroniczne)[142]. Cyfrowy świat doskonale wszystkie te typy imituje według własnej, wewnętrznej gramatyki kodu binarnego oraz towarzyszącego mu hardware i emituje w otwartej konkurencji wobec istniejących w przestrzeni pozamedialnej i analogowej pierwowzorów.

Wielość kodów i ich zapadanie się w siebie nawzajem, ich niejasność i odległość od pierwotnych, długo im towarzyszących kontekstów kulturowych – tak jak to ma miejsce w przypadku pisma, które cyfrowość sprowadza do roli kodeksu regulującego działania maszyn medialnych – to przejaw sytuacji postmedialnej lub, jak można by ją określić w kontekście rozważań nad kodem cyfrowym, postkodowej. Istniejące kody odchodzą do historii komunikacji, tak jak niegdyś istniejące egipskie hieroglify, węzły na indiańskich rzemykach czy inne zapomniane już systemy znaków. Friedrich Kittler ocenia te historyczne następstwa jednoznacznie. Jest przekonany, że wraz z nadejściem cyfrowego wymieszania w obliczu procesorów, języków programistycznych przestajemy być piśmienni. Cyfrowy kod, a precyzyjnie mówiąc narosłe na nim współczesne języki programowania, które posługują się już nie tylko fizycznym językiem włącz/wyłącz, matematycznymi wartościami 0 i 1, ale także syntagmą i semantyką alfabetu i języka mówionego, unieważniają naturalny kontekst ich występowania i podważają ich tradycyjna semiotykę. W postmedialnych okolicznościach cyfrowy kod wchłania istniejące kody i skutecznie pasożytuje na ich kulturowej energii, wszystkie przed nim istniejące kody czyniąc już tylko atrakcyjnym przedmiotem badań dla historii i geologii mediów [143].