Czytaj książkę z rozdziału: Elektryczność i informacje

Mobilność technologii medialnych, o której pisałem wcześniej, oznacza nie tylko decentralizację hierarchicznego systemu komunikacji masowej. Umożliwia także decentralizację i rozproszenie systemu przesyłania i magazynowania energii elektrycznej, a to oznacza dalece większe konsekwencje dla współczesności również poza obszarem komunikacji. Bez stałego dostępu do źródła zasilania w energię elektryczną żadna cyfrowa technologia medialna nie funkcjonuje – staje się martwym hardware. Podobnie z maszynami i systemami cywilizacyjnymi w ogóle. Bez elektryczności cywilizacja zachodnia nie istnieje.

Nasz zachodni sąsiad, Niemcy, już od jakiegoś czasu przygotowuje się na Energiewende (an energy turn, czyli zwrot energetyczny), który ma polegać na poszukiwaniu i eksploatacji niekonwencjonalnych, odnawialnych i ekologicznych źródeł energii, oraz na gruntownej zmianie sposobu pracy infrastruktury energetycznej, tj. na decentralizacji całego systemu jej przesyłu, wykorzystania i magazynowania. Zwrot energetyczny miałby w konsekwencji charakter zbliżony do zwrotu społecznościowego (liberalnego) dokonującego się w medialnym świecie. Zmiana ta miałaby spełniać rolę przejścia od hierarchii nadawczej systemu mediów masowych do ekosystemu mediów społecznościowych. Czyż elektrowni nie odpowiada elita produkująca treść kultury, czy nadajniki to nie to samo, co słupy i sieci przesyłowe? I czy sieci społecznościowe, aktywizm społeczny i kulturowy dokonujący się za pośrednictwem technologii sieciowych i cyfrowych to niewcielone w życie założenia przyświecające twórcom Energiewende? W rezultacie Energiewende to społeczności użytkowników-producentów energii miałyby decydować o wykorzystaniu jej źródeł, zaś same źródła zmieniłyby swoją formę z pojedynczych dostawców-gigantów (tradycyjne elektrownie) w rozproszoną sieć mniejszych, uruchamianych w zależności od potrzeb i konfiguracji, generatorów [124]. Energiewende to nie tylko przestawienie gospodarki i systemu politycznego na energię ze źródeł odnawialnych, to przede wszystkim decentralizacja wytwarzania energii, społeczne zarządzanie jej zużyciem, dystrybucją i powstawaniem. To wywłaszczenie energii z rąk państwa, systemu ekonomicznego, itd., i społeczne uwłaszczenie się w tym zakresie, które doprowadzi do dekonstrukcji polityki energetycznej i jej rozbrojenia–dekonstrukcji do formy sieciowej, społecznościowej alternatywy.

Elektryczność (energia) ma dla projektu cyfrowego, jak to już wielokrotnie podkreślałem, zasadnicze znaczenie. Bez Energiewende niemożliwa jest dalsza emancypacja medialnych konsumentów i ich przeistaczanie się w medialnych wytwórców, remikserów i hakerów. Projekt technologicznego rozproszenia i uspołecznienia mediów, czyli wyjścia poza hierarchiczny i polityczny system kultury masowej, możliwy jest jedynie w ograniczonym zakresie bez analogicznych zmian w systemie energetycznym oraz, w konsekwencji, w innych podobnych systemach politycznych, ekonomicznych i technologicznych. Tam również oznaczać będzie radykalne przesunięcia i demontaż istniejącego układu sił i struktur. Tak jak uderzające jest podobieństwo technologicznej i kulturowej infrastruktury mediów masowych i infrastruktury energetycznej, tak równie zbliżone są do nich kształty systemów edukacji publicznej, pomimo wielu daleko idących zmian (system organizacji produkcji i dystrybucji on-demand Toyoty) organizacji produkcji i dystrybucji dóbr, władzy i administracji, religii. W tym duchu niezależność energetyczna związana z medialną mobilnością i statusem uzależnionych od tradycyjnych systemów energetycznych sieci wydaje się tematem zasadniczej wagi dla współczesnej, kultury poddanej mediatyzacji i digitalizacji. Kształt medialnej mobilności/mobilnej medialności zależny jest tym samym od sposobów pozyskiwania, zużycia, magazynowania energii potrzebnej do zasilania maszyn medialnych. Elektryczność i jej kulturowe usytuowanie to obszar, który w medialnym krajobrazie wyłania się dzisiaj na pierwszy plan – jednocześnie winien zyskać sobie właściwe miejsce, historycznie praktycznie nieobecny w studiach kulturowych oraz poświęconych mediom i komunikacji.

Cyfry i matematyczność to kulturowa część natury mediów cyfrowych. Dla perspektywy studiów kulturowych, które zdefiniowały tożsamość teorii mediów i w dużej mierze generalne oblicze humanistyki w kilku ostatnich dziesięcioleciach, stanowią one zakodowany szyfr będący jednym z wielu obecnych w kulturze kodów komunikacyjnych. Matematyka – przypomnę – jest gramatyką tego kodu, na który składa się zespół symboli-znaków o składni poddającej się kulturowym (logicznym) konstrukcjom i negocjacjom. Cyfry podlegają działaniu czynników etnicznych, społecznych, antropologicznych, politycznych, komunikacyjnych, tak jak litery i tworzone z nich słowa w kodzie językowym. Kod cyfrowy ma jednak szczególne, nadrzędne znaczenie dla kultury współczesnej. Pełni funkcję kodu kodów kultury, metakodu wiedzy oraz jej najważniejszego narzędzia: nauki – wspomniałem o tym przedstawiając usytuowanie matematyczności w historii nowoczesnych idei.

W takiej pozycji dodatkowo utwierdza matematyczność jej związek ze zjawiskiem elektryczności. To za sprawą matematycznego zakodowania elektryczności, czyli cyfrowego regulowania jej stanów: 1 = prąd, 0 = brak prądu, udało się tę naturalną właściwość świata w wyrafinowany sposób podporządkować potrzebom rozwijającej się technicznie cywilizacji w postaci projektu digitalnego i sieciowego. Matematyczność dzięki elektryczności rozpoznajemy współcześnie, w związku z tym jako cechę świata (w tym sensie podobna jest elektryczności a w zakresie maszyn cyfrowych niemal z nią tożsama), a nie jego kulturową interpretację (Heller). Elektryczności zaś przypisujemy właściwości i role kulturowych kodów (stąd, to uwaga na marginesie, koncept rzeczywistości wirtualnej jako zjawiska symbolicznego, kulturowego – to różnica budująca wiele treści dyskursu jej poświęconych). Relacje matematycznego kodu i zjawiska naturalnego elektryczności tworzą matrycę, w której zakotwiczony został projekt cyfrowy. Przenikając przez poziom wizualnych, intuicyjnych interfejsów przeznaczonych dla użytkownika – takich jak GUI w systemach operacyjnych, przy dużym zbliżeniu zobaczymy w cyfrowych mediach zmiany napięcia elektrycznego, którymi w procesorach sterują tranzystory posłuszne matematycznym komendom 0 i 1.

Takich relacji pomiędzy matematycznością i elektrycznością doszukał się i wykorzystał w sensie komunikacyjnym chyba jako pierwszy Samuel Morse, amerykański artysta i prekursor telegrafii. Morse, przypomnę, opracował system komunikacji korzystający z właściwości światła, dźwięku lub elektryczności, których kontrolowanym obecnościom i nieobecności nadał symboliczne znaczenia. Tak zwany alfabet Morse’a polega na wykorzystaniu natury tych zjawisk fizycznych na zasadzie powiązania z nimi znaków odnoszących się do poszczególnych liter alfabetu łacińskiego – innego, wcześniej istniejącego kodu komunikacyjnego. Metodyczne zapalanie światła, przerywanie dźwięku czy obiegu elektrycznego w zgodny z zaszyfrowanymi w alfabecie znakami czyni ze zjawisk naturalnych komunikatory kulturowe, bowiem stwarza wrażenie kulturowej dominacji nad siłami przyrody, ich ujarzmienia i wykorzystania. Morse’owskim tropem podążyli matematycy, którzy poszukiwali symbolicznych formuł pozwalających połączyć kodowanie elektryczności z koncepcjami maszyn obliczeniowych i w ten sposób narodziła się idea cyfrowego kodu, który stanom naturalnych żywiołów (elektryczności) przypisał wartości matematyczne. Ogólnie rzecz ujmując można powiedzieć, że idea elektrycznej (obecnie elektronicznej) cyfrowości to nic innego, jak multiplikowane i zapętlone na miliony różnych sposobów w postaci skomplikowanej formalnie i zminiaturyzowanej materialnie architektury hardware (procesory z milionami elektrycznych półprzewodników-tranzystorów o wielkości jedynie mikronów każdy) proste matematyczne operacje (wyrażone jedynie za pomocą 1 i 0) na elektryczności, jej przewodzenie lub jego brak. W taki sposób zapisane są choćby dane na płytach CD, DVD czy BD.

Algorytmiczne instrukcje tworzone na różnych poziomach cyfrowego kodu kontrolują działanie milionów krzemowych bramek, które w odpowiedzi na komendy 0 lub 1 zamykają się, czyli nie przewodzą w danej chwili energii elektrycznej, lub też na chwilę się udrażniają komponując pożądaną strukturę obwodu elektrycznego. Odbywające się w ułamkach sekund – za sprawą fizycznych cech zjawiska elektryczności, jego naturalnej prędkości bliskiej prędkości światła – elektryczne transmisje lub ich braki układają się wewnątrz hardware we wzorce, których sumą stają się wyniki zadanych softwarem hardware’owi zapytań i wydanych w ten sam sposób instrukcji wykonawczych.

Ponad tym bazowym poziomem spotkania matematyki i elektryczności (kultury i natury) nadbudowane są warstwy software, których zadaniem jest „ukulturalnianie” pierwotnego zapisu 1 i 0, nadawanie mu bardziej wyrafinowanych matematycznie, a więc także i kulturowo, form kodowania. Jedną z nich jest choćby ASCII (American Standard Code for Information Interchange) – 7-bitowy kod przyporządkowujący liczby z zakresu 0-127 literom alfabetu łacińskiego, cyfrom, znakom przestankowym i innym symbolom oraz poleceniom sterującym. Dla przykładu litera „a” jest w ASCII kodowana liczbą 97 (w zapisie binarnym będzie to: 0110 0001), a znak spacji jest kodowany liczbą 32 (w zapisie binarnym będzie to: 0010 0000). Wysiłek twórców obu splecionych warstw nowych mediów, software i hardware, polegający na przygotowaniu takich wersji cyfrowego projektu kulturowego, które będą najbardziej możliwie proste w obsłudze dla przeciętnego użytkownika, intuicyjne antropologicznie, zmierza ku całkowitemu odseparowaniu go od elektryczności, a jej samej uczynieniu niewidzialną, przezroczystą kulturowo, ukrytą wewnątrz struktury maszyny. Automatyczną, zakodowaną wcześniej kontrolę nad elektrycznością przejmują zaimplementowane w maszyny i systemy operacyjne protokoły i oprogramowanie niskiego rzędu (BIOS, instrukcje zapisane w czipach składających się na architekturę hardware), a użytkownik nie ma wielu użytkowych powodów, możliwości ani sposobów, aby ją dla siebie odzyskać. Najbardziej tajnym, skrywanym fizycznie i software’owo szyfrem projektu cyfrowego pozostaje zjawisko elektryczności w całej swej prostocie pojawiania się i znikania, otwierania i zamykania mikroobwodów [125].

Niewidzialna elektryczność projektu cyfrowego to zagadnienie, które można rozważać w kontekście teorii mediów. Francuski filozof techniki, Bernard Stiegler, mówiąc o przezroczystości i znikaniu technologii, posługuje się terminem mętności (deep opacity). Nie jesteśmy w stanie w prosty sposób i szybko zrozumieć, na czym polega właściwy sens technik, którymi się posługujemy w naszym życiu – twierdzi. Nie rozumiemy zarówno tego, w jaki sposób działają one same, jak i tego, jaki mają wpływ na to, jak działamy my, pomimo iż nieustannie podejmujemy ważne decyzje odnoszące się bezpośrednio do działania techniki jak i w oparciu o jej kulturowego ducha. Powstające w ten sposób kulturowe niezrozumienie powoduje, że techniki definiujemy jedynie w zarysie, w sposób przybliżony. Bardziej za sprawą naszych intuicji i odczuć niż racjonalnych przesłanek [126].

W podobnym duchu ten mglisty sens techniki analizuje Friedrich Kittler. Niemiecki teoretyk skupia się na przesłanianiu za pomocą warstw kodowych kolejnych poziomów software zawierających się pomiędzy kodem binarnym a interfejsami użytkowymi. Według Kittlera tworzy się w ten sposób system sekretny (system of secrecy). Pokryta nieprzezroczystymi warstwami kodu maszyna znika z pola percepcji swoich użytkowników, a jednocześnie za sprawą „zabezpieczającego” software i protokołów chroni się przed „pozbawionymi zaufania” programami i użytkownikami. W ten sposób szczelnym kordonem otacza jądro systemu operacyjnego i zamyka wiele potencjalnie możliwych wejść i wyjść z i do niego. Taki stan rzeczy świadczy o niezwykle istotnej kulturowej konsekwencji braku przezroczystości technologii cyfrowych. To trudność w przeniknięciu i opanowaniu cyfrowych systemów, których wielokrotne złożenia i warstwy stawiają niezwykle wysoko poprzeczkę kompetencyjną dla mających z nimi kontakt użytkowników. Cyfrowe systemy są dodatkowo coraz bardziej rozciągane różnymi wewnętrznymi regulacjami, które zwiększają z biegiem czasu dystans pomiędzy bezpośrednią manipulacją elektrycznością i matematycznością a finalnym tych systemów użytkownikiem [127].

Sądzę, że taka „wielka nieobecność” elektryczności w codziennej, bezpośredniej kontroli mediów cyfrowych jak i w ich medioznawczej, kulturowej teorii została nie tylko ustanowiona za sprawą wymogów miniaturyzacji hardware, bezpieczeństwa użytkowników, kwestii ekologicznych czy problemów funkcjonalnych. Elektryczność znajduje się po tej samej stronie kulturowo-naturalnych podziałów, po której znajduje się wnętrze ludzkiego ciała przesłonięte przed zmysłami szczelną granicą skóry poprzecinaną jedynie wyspami naturalnych „sensorów”. W siebie samych, w sensie fizycznym, nie mamy przecież wglądu. O tym, co się wewnątrz naszych organizmów dzieje, wiemy jedynie w przybliżeniu z podręczników anatomii i fizjologii oraz na skutek nieoczekiwanych wypadków, podczas których naruszona zostaje nasza fizyczna integralność. Osobną rolę odgrywają w poznawaniu naszego wnętrza maszyny medialne – RTG, USG, skanery na lotniskach, stetoskopy, itd. Na razie rolę anatomów i fizjologów elektryczności wewnątrz cyfrowych organizmów spełniają jedynie wybrane elity inżynierów. Można się jednak spodziewać, że podobnie jak wokół software i programowania, a zatem wokół matematyczności wcielonej w cyfrowe formy, narodziły się oddolne środowiska i ruchy obnażające, projektujące i wykorzystujące jej zasady dla własnych celów – takie jak ruchy Wolnego Oprogramowania, społeczności programistów i hakerów, tak i elektryczność hardware doczeka się z czasem podobnego w skali i zakresie zainteresowania i popularyzacji. Już dzisiaj z rosnącym wzięciem funkcjonują projekty społeczne i kulturowe, które eksperymentują z hardware i improwizują w oparciu o napędzającą go elektryczność. O tym jak bardzo potrzebne są w kulturze cyfrowej różne warianty jej wykorzystania i oswajania, różne towarzyszące jej dyskursy, niech świadczy wielka popularność ruchów DIY hardwaretweak hardware. Pośród nich najprężniej funkcjonują środowiska skupione wokół idei otwartego hardware i jego społecznościowych przekształceń dokonywanych na bazie mikrokomputerów Arduino, czy Raspberry Pi. Społeczności te wspólnie projektują, testują, przekształcają, popularyzują i wdrażają przeróżne cyfrowe systemy i instalacje w oparciu o te urządzenia; wynajdują dla komputeryzacji niezwykłe zastosowania, programują dedykowany im software, dobierają stosowny hardware i zajmują się upowszechnianiem budowanej w ten sposób bazy wiedzy o możliwościach alternatywnego wobec korporacji i systemów państwowych rozwoju projektu cyfrowego.

Poddanie cyfrowego świata elektryczności, translacja kultury do jej fizycznego „języka”, ma daleko posunięte konsekwencje. Cyfrowy świat odnajduje w elektryczności swój uniwersalny i totalny zarazem nośnik, dopasowuje do niej swój kod. Ma tu miejsce jednocześnie jeden z najważniejszych dla postmedialności procederów, który na poziomie materialnym inicjuje wymieszanie dotychczasowych mediów, ich języków i form. To zjawisko polega na elektrycznej dekonstrukcji informacji, która w formie digitalnej traci tradycyjną nierozerwalność z formą (to zasada medialności) i nomadycznie wędruje pomiędzy różnymi wywołaniami, interfejsami i remiksami oczekując na ponowną materializację. Zelektryfikowana informacja redukuje się do postaci danych. Uwolnione od tradycyjnej tożsamości z nośnikami dane cyrkulują pomiędzy już dostępnymi interfejsami, algorytmami i protokołami. Pozostają w stanie nieustannej gotowości do bycia na różne sposoby wywołanymi i zinterpretowanymi za pomocą wszystkich możliwych metod, przyjęcia dowolnej medialnej formy i dowolnego statusu. Napięcie elektryczne „ożywiające” martwe krzemowe i metalowe obwody i układy scalone cyfrowego świata nie zna tradycyjnych kulturowych kodów, które stanowiły o jakości informacji, o jej ciężarze gatunkowym, kontekście społecznym, itd. Gotowe jest równie dobrze odtworzyć w abstrakcyjny sposób wszelkie wcześniejsze języki, formy i media, jak i powoływać do istnienia wszelkie inne, będące częściowo remediacjami już istniejących, jak choćby interaktywna telewizja czy prasa, jak i zupełnie nowe, takie jak interaktywne wizualizacje baz danych. Różnicujące się formalnie z wyraźnym przyspieszeniem w okresie nasilenia się rewolucji przemysłowej środowisko technologiczne mediów wystawia na ciężką próbę dotychczasowy monopol mediacji gutenbergowskiej. Wraz z pojawieniem się radia, fotografii, potem filmu, telefonu, rodzi się nowa sytuacja ontologiczna, w której komunikat można odseparować od transmitującego go medium. Wtedy to właśnie pojawia się informacja jako taka. Jako tekst, który wymyka się literaturze; przekaz, który konkurencyjnie podejmują i próbują zawłaszczyć inne technologiczne formy nowoczesnych mediacji. W ten sposób informacja przestaje być materialna i powoli przekształca się w to, czym jest dzisiaj – potencją/energią komunikacyjną szukającą najlepszego wcielenia technologicznego (interfejsu). To technologiczne zróżnicowanie medialnych form dowodzi zasadniczej różnicy pomiędzy materią a informacją, pomiędzy rzeczywistym a symbolicznym w komunikacyjnym uniwersum [128].

Zmianę statusu informacji, którą wywołuje elektryczność operująca w obszarze cyfrowego kodu, amerykańska badaczka nowych mediów, Katherine Hayles, nazywa odcieleśnieniem informacji. Według Hayles zanurzeni coraz głębiej w świat kodu i danych, którymi elektrycznie manipulujemy, na nowo konstruujemy naszą tożsamość i wyobraźnię, rozpoczynamy kondycję postludzką[129]. Dla tej kondycji najważniejsze są procesy, które od czasów kartezjańskich kultura Zachodu postrzega jako właściwości rozumu i rozumności zachodzące w coraz większym dystansie od ciała [130]. Hayles nie stara się, oczywiście, wspierać i uzasadniać teorii dotyczących fizycznego znikania cielesności. Autorce chodzi tu o malejące jej znaczenie w obliczu cyfrowych przemian, o narodziny nowych wyobraźni i scen działania, które do cielesności odwołują się w coraz bardziej ograniczonym stopniu z pominięciem tradycyjnych dyskursów i etosów. Obu sfer, cielesności i informacji, dotyczy podobnie rekonstrukcja: kiedy przyznajemy informacji niezależność od jej materialnych nośników – mediów, to jest kiedy transformujemy/redukujemy ją do postaci cyfrowych danych, wówczas opuszczamy galaktykę, którą definiują obecność i jej brak. Wchodzimy za to w porządek, w którym panują jedynie binarne przeciwieństwa sygnału i jego braku, matrycy i przygodności oraz rezonujące na kulturę dystanse pomiędzy nimi, dla których naturalnym krajobrazem stają się pikselowe ekrany i matryce zastępujące euklidesową czasoprzestrzeń. Odpowiadają im coraz częściej binarne opozycje cielesność/tożsamość, działanie/myślenie, które realizują się przez bliskość z cyfrowymi technologiami. To, że informacja straciła cielesność, nie oznacza, że ludzie i świat stracili swoje – konkluduje ostatecznie Hayles[131]. Powstaną natomiast różne nowe typy świadomości, które z dotychczasowymi, analogowymi i materialnymi zarazem, będą miały coraz mniej wspólnego. Naturalnym dla nich matecznikiem będzie elektryczność i napędzany przez nią hardware oraz sieci danych.

Zachowawcza optyka Hayles trafia na bardziej radykalne myślenie wielu teoretyków cyberkultury i nowych mediów. Elektryczne losy informacji i cielesności okazują się jednym z lejtmotywów dyskursu trans- i posthumanistycznego (stosowane są tu obie formy zamiennie)[132]. Dla takich jego moderatorów, jak Hans Moravec czy Ray Kurzweil, najbardziej interesujący w obszarze oddziaływania cyfrowych technologii i elektryczności okazuje się kontekst technologicznej transgresji i biopolityczności cielesności i podmiotowości. Wspomniany Hans Moravec już pod koniec lat 80. ubiegłego wieku propagował pogląd, w myśl którego na zasadzie podobieństw pomiędzy neuronalnymi wzorcami myślenia i konstrukcji mózgu oraz zaawansowanymi sieciami komputerowymi możliwy będzie z czasem „upload” intelektu/ducha w bardziej trwałe, lepiej pracujące i zapewniające większe możliwości – w gruncie rzeczy nieśmiertelne, środowisko hardware[133]. Dekadę później Kurzweil posunął projekt przeniesienia ludzkiej podmiotowości do wewnątrz krzemowo-elektrycznego „organizmu”, przepowiadając, że przejście to dokona się raczej do wewnątrz software niż hardware. Staniemy się software, a nie hardware. Esencją naszej tożsamości stanie się permanentne trwanie i autoewolucja (w) software[134].

Niezależnie od mniej lub bardziej prawdopodobnych scenariuszy zasiedlania i kolonizowania elektryczności przez projekt cyfrowy pozostaje ona niezmiennym warunkiem jego funkcjonowania w obecnej postaci. Pracę nad alternatywnymi modelami komputeryzacji, takimi jak biokomputery, dokonujące obliczeń w specjalnie do tego celu przystosowywanych organizmach żywych (roślinach, bakteriach), czy też koncepcje wykorzystania przewodzenia światła zamiast elektryczności w obwodach cyfrowych, są o tyleż obiecujące i intrygujące, co wtórne wobec myślenia o komputeryzacji elektrycznej, bowiem biologiczne maszyny musiałyby bazować na mikroelektrycznej wymianie napięć zachodzącej w każdym organizmie żywym, zaś maszyny wykorzystujące przewodzenie i manipulowanie światłem opierałyby się jedynie o inne spektrum fal tego samego zjawiska – światło i elektryczność mają jedną „genetykę”, czego dowodzi choćby piorun.

Pomimo centralnej lokacji wewnątrz projektu cyfrowego elektryczność nie stała się dotąd przedmiotem pogłębionych studiów kulturowych, dyskurs jej poświęcony skonstruowały i podtrzymują nauki ścisłe i coraz częściej społeczności domorosłych i profesjonalnych inżynierów pracujących z maszynami cyfrowymi i elektroniką [135]. Pora najwyższa, aby elektryczności i energii w ogóle dedykować szeroko zakrojone studia humanistyczne i kulturowospołeczne. W połowie XIX wieku, a więc w okresie, kiedy dopiero odkrywano użytkowy potencjał elektryczności, Michael Angelo Garvey w futurystycznej książce zatytułowanej The Silent Revolution. Or, the Future Effects of Steam and Electricity upon the Condition of Mankind wyrokował: elektryczność stanie się najważniejszym kanałem, po którym będziemy transmitować i komunikować naszą inteligencję. Elektryczny telegraf dysponuje w tym zakresie wspaniałymi właściwościami: pomija czas i miejsce[136]. I choć tę intuicję potwierdziła współczesna kultura, to krytyczna wiedza o elektryczności wciąż sięga niewiele głębiej niż do wyobraźni Garveya czy Morse’a. Chyba tylko McLuhan pisząc o globalnej wiosce, w której elektroniczne media zastępują kulturę wizualną i gutenbergowską kulturą wtórnej oralności tworząc kolektywną inteligencję, docenił wagę elektryczności w medialnym pejzażu współczesnego świata. Po nim elektryczność zamknięta w szczelnych obiegach krzemowych płytek i tranzystorów stała się tak naturalna, że nazbyt oczywista. McLuhan pisał:

Człowiek elektroniczny, podobnie jak człowiek sprzed epoki alfabetu, postrzega i ujmuje świat w całości. Jego informacyjne środowisko to w gruncie rzeczy jego własny centralny system nerwowy [137].

Celem nauki, sztuki i edukacji w ciągu najbliższych lat powinno być nie tylko odszyfrowanie kodu genetycznego, ale przede wszystkim kodów ludzkiej percepcji. W globalnym środowisku informacyjnym stary model edukacji oparty na poszukiwaniu odpowiedzi jest nieadekwatny: jesteśmy otoczeni przez miliony odpowiedzi poruszających się i zmieniających z prędkością elektryczności. Przetrwanie i kontrola nad światem będą zależeć od zdolności zadawania właściwych pytań we właściwym czasie i miejscu. W sytuacji, gdy środowisko informacyjne znajduje się w nieustannym ruchu, potrzeba nie tyle gotowych scenariuszy i rozwiązań,ile raczej starych umiejętności odczytywania wielkiej księgi świata, nawigowania w mało przyjaznej i nierozpoznanej we właściwym stopniu przestrzeni informacyjnej. W innym wypadku będziemy mieli nad tym środowiskiem technologicznym mniej kontroli niż mamy nad wiatrem i ruchami wody [138].

Mimowolne rozpoznawanie kontroli nad zjawiskami naturalnymi jako kodów kultury stawia przed analitykami cyfrowej komunikacji i pośredniczących w niej maszyn problem, który określiłbym mianem potrzeby „humanistycznej teorii elektryczności”. Poddanie tego zjawiska kulturowej analizie, konstruowanie jego teorii, jawi się jako jedno z najważniejszych – obok teorii hardware, kulturowej teorii matematyki, badań nad HCI (Human-Computer Interfaces) czy software studies – zadań badawczych dla współczesnej komunikologii i medioznawstwa. Potrzebę taką umacnia dodatkowo istnienie rozbudowanej teoriopoznawczej tradycji cybernetycznej, która rości sobie prawa do wchłonięcia/zastąpienia teorii kulturoznawczych.

Wspomniałem już o dystansie i różnicy pomiędzy zapisami kodu binarnego w ciągach wartości 0 i 1, które mają bezpośredni wpływ na strukturę pracy elektryczności wewnątrz cyfrowego hardware, a kolejnymi poziomami użytkowymi kodu, na które składają się protokoły, asemblery, systemu operacyjne, języki i środowiska programistyczne oraz oprogramowanie użytkowe, z którym przeciętny użytkownik cyfrowych mediów ma kontakt na co dzień, czyli domeną software. Układ tych zapisów jest warstwowy, co oznacza, że kolejne warstwy kodu pokrywają/przesłaniają wcześniejsze. Pośród nich istnieją różne reguły programowania i różne dla niego zastosowania. Najbliżej użytkownika, a w zasadzie najbliżej interfejsowej, użytkowej powierzchni cyfrowych maszyn znajduje się warstwa aplikacji użytkowych, które stanowią funkcjonalną i personalną bramę dla najbardziej popularnych zastosowań maszyn. Pod tą widoczną w pierwszym kontakcie są także warstwy umożliwiające przepływ danych w systemach i pomiędzy nimi, takie jak np. protokoły TCP; warstwa sieciowa, którą reguluje np. protokół IP, czy warstwa regulująca fizyczną wymianę impulsów elektrycznych, jaką jest np. popularny Ethernet. Każda warstwa jest środowiskiem dla kolejnej, która się nad nią pojawia – staje się dla niej matecznikiem, kodeksem i regulatorem. W ten sposób budowane są kolejne piętra cyfrowej kodyfikacji, kolejne poziomy cyfrowego świata. Typowym przykładem warstwowego współdziałania kodu jest, dla przykładu, sytuacja komunikacji internetowych. Większość z nich regulowana jest za sprawą protokołów TCP i IP, następnie kontrolowana jest za sprawą protokołu HTTP i wtedy dopiero pojawiają się języki kodowania internetowych stron i aplikacji, takie jak HTML, JAVA, czy CSS.

Im bliżej do użytkownika i jednocześnie im dalej od hardware, tym bardziej te warstwy odbiegają od prostoty binarnego kodu i tym bardziej stają się „kulturowe” – dostępne na wyższych poziomach języki przybierają postać kodów bliskich językowi mówionemu, posługują się jego słownikiem i gramatyką – są paratekstualneparawizualne, czyli zostały zakodowane semantycznie, a nie tylko technologicznie [139]. Są takie, bowiem muszą być bliskie kulturze, aby pracujący z nimi programiści mieli możliwość posługiwania się zrozumiałymi, osadzonymi w kontekście kulturowym systemami znaków budując wypowiedzi, które oni sami i finalni użytkownicy powstających w ten sposób tekstów będą potrafili zredagować i zrozumieć, i które będą jednocześnie czytelne dla maszyn [140]. Upowszechnianie cyfrowych technologii i ich otwarcie na możliwości programowania domagają się coraz bardziej podobnych do „naturalnych” kodów kultury ekwiwalentów cyfrowych. Współczesne programowanie w konsekwencji w coraz mniejszej skali składa się z operacji bezpośrednio projektowanych w kodzie binarnym, a coraz bliżej mu do takich nowoczesnych praktyk, jak design, typografia, projektowanie interakcji, negocjacje protokołów, interfejsy użytkowe. Im bliżej użytkowej powierzchni cyfrowej maszyny, tym bardziej software upodabnia ją do wizualnych, audialnych i mieszanych kodów kultury. Bez tej wielokrotnej translacji i uobecniania niemożliwy byłby bezpośredni, interaktywny kontakt z maszyną.

Nawarstwianie kodowych dialektów i struktur ustawia świat cyfrowy w zakresie zjawiska, które w swojej teorii komunikacji Vilém Flusser określa mianem transkodowania (transcodify). Stan ten oznacza skomplikowane i niejednolite relacje pomiędzy nakładającymi się na siebie kodami. Bywają one od siebie zupełnie niezależne, ale i pokrywają się w zakresie szyfrowania rzeczywistości. Niektóre z łatwością komunikują inne, pozostałe są tak od nich różne, że przekładanie jednego na drugi prowadzi do całkowitej utraty przekazywanej w ten sposób wiadomości, która rozpływa się w procesie trudnej translacji. Flusser podejrzewa wyłanianie się wraz z rosnącą ilością różnych kodów (a dodajmy, że w cyfrowym świecie ich liczba przyrasta niezwykle szybko), rodzin kodów i różnych gałęzi ich rozwoju[141]. Takie namnożenie kodów wydaje się szczególnie istotne, kiedy rosnące zbiory „analogowych” i „cyfrowych” w większości dublują się i w codzienności doświadczeń kultury komunikacyjnej nakładają się na siebie i konkurują ze sobą. Według Flussera istnieją trzy podstawowe typy kodów kultury, których różnice wynikają z właściwości naturalnego sensorium człowieka: to kody wizualne (alfabet), audialne (język mówiony, muzyka) i mieszane (teatr, media elektroniczne)[142]. Cyfrowy świat doskonale wszystkie te typy imituje według własnej, wewnętrznej gramatyki kodu binarnego oraz towarzyszącego mu hardware i emituje w otwartej konkurencji wobec istniejących w przestrzeni pozamedialnej i analogowej pierwowzorów.

Wielość kodów i ich zapadanie się w siebie nawzajem, ich niejasność i odległość od pierwotnych, długo im towarzyszących kontekstów kulturowych – tak jak to ma miejsce w przypadku pisma, które cyfrowość sprowadza do roli kodeksu regulującego działania maszyn medialnych – to przejaw sytuacji postmedialnej lub, jak można by ją określić w kontekście rozważań nad kodem cyfrowym, postkodowej. Istniejące kody odchodzą do historii komunikacji, tak jak niegdyś istniejące egipskie hieroglify, węzły na indiańskich rzemykach czy inne zapomniane już systemy znaków. Friedrich Kittler ocenia te historyczne następstwa jednoznacznie. Jest przekonany, że wraz z nadejściem cyfrowego wymieszania w obliczu procesorów, języków programistycznych przestajemy być piśmienni. Cyfrowy kod, a precyzyjnie mówiąc narosłe na nim współczesne języki programowania, które posługują się już nie tylko fizycznym językiem włącz/wyłącz, matematycznymi wartościami 0 i 1, ale także syntagmą i semantyką alfabetu i języka mówionego, unieważniają naturalny kontekst ich występowania i podważają ich tradycyjna semiotykę. W postmedialnych okolicznościach cyfrowy kod wchłania istniejące kody i skutecznie pasożytuje na ich kulturowej energii, wszystkie przed nim istniejące kody czyniąc już tylko atrakcyjnym przedmiotem badań dla historii i geologii mediów [143].