Czytaj książkę z rozdziału: Technika

W sferze techniki kondycja postmedialna wyłania się z zaniku autonomicznych form i gramatyk medialnych. W domenie cyfrowej wymazane zostały różnice pomiędzy poszczególnymi mediami epoki analogowej. Wchodząc do cyfrowego świata zostały one pozbawione wielu swoich szczególnych, materialnych i gramatycznych cech, reguł i kształtów – fotografia zanurzona w cyfrowości traci światłoczułą kliszę i papier, dźwięk rozstaje się z taśmami i płytami: najpierw winylowymi, a dziś także i cd. Kino stapia się systematycznie z poetyką gier interaktywnych, prasa staje się hipertekstowa i multimedialna. Ta separacja to konsekwencja gwałtownego w cyfrowości przyspieszenia zjawiska konwergencji mediów. Choć jest ono na stałe wpisane w losy techniki, a kolejne z jej form wchłaniają/naśladują/przekształcają wcześniejsze, to jego cyfrowa postać i prędkość okazały się bezprecedensowo radykalne i definitywne w tym zakresie [6]. W dyskursie teorii nowych mediów i cyberkultury stan ten został rozpoznany jako przejście od fazy mediów do fazy interfejsów, które istniejące media zaadaptowały do cyfrowych i sieciowych okoliczności. W momencie, kiedy wszystkie dotychczasowe media zostały zdigitalizowane, czyli przetłumaczone do postaci ciągów alfabetu cyfrowego kodu, i sprowadzone do postaci baz danych, rozpoczął się ich kulturowy remiks na ogromną skalę.

W domenie cyfrowej historyczne gramatyki mediów obowiązują jednakowe zasady. Wszystkie cyfrowe dane obowiązuje tu równość wobec kodu, fizycznych zasad elektryczności i hardware oraz tłumaczących je kulturze interfejsów. Poddają się one programowaniu, adaptują swoje zasoby do wymogów strukturalnych baz danych i sieciowych protokołów komunikacyjnych, wzajemnej synchronizacji i wymieszania, itd. – stają się po prostu bazami danych, ciągami cyfrowego kodu zer i jedynek, którymi można za pomocą dowolnych algorytmów zarządzać zgodnie z regułami cybernetycznej wiedzy i możliwościami obowiązujących interfejsów użytkowych. W wersji cyfrowej można z mediami zrobić wszystko to, co możliwe jest do pomyślenia i kalkulacji według ogólnie obowiązującego w cyfrowym świecie modelu (sformułowanego przez tradycję matematyki oświeceniowej i wyrażonego dosłownie przez kreatora architektury obliczeniowej współczesnych maszyn cyfrowych cybernetyka (Johna von Neumanna): interfejs wejścia-cyfrowe kalkulacje-interfejs wyjścia. W ten sposób zarówno obraz, jak i utwór muzyczny, fragment tekstu powieści czy film stają się ciągiem zer i jedynek zapisanych w cyfrowych bazach danych, otwartych na różne software’owe i interfejsowe wywołania i działania różnych algorytmów.

Znaczenie radykalnej konwergencji medialnych form w cyfrowym świecie potęguje kulturowa reguła mediacji i medialnej komunikacji. W świecie przesyconym technologicznymi rozwiązaniami służącymi komunikacji medium nie istnieje w liczbie pojedynczej, jako autonomiczna kategoria poza systemowym kontekstem. Możliwe kulturowo, percypowalne i funkcjonalne jest tylko w systemie składającym się także z innych przekaźników, spełniających inaczej podobne zadania wewnątrz komunikacyjnego ekosystemu i występujących w określonych relacjach wobec siebie nawzajem. Jedynie z poziomu wejrzenia w wewnętrzny układ tego ekosystemu rozpoznać można pojedyncze, różne od siebie nawzajem, ale dopełniające się w kulturowej praktyce elementy – poszczególne medialne formy, języki, systemy znaczeń. Z tego powodu radykalna cyfrowa konwergencja okazuje się stanem, który przekracza i unieważnia granicę rozpoznawalności fenomenów medium i mediów jako takich. Poza tą, strzegącą zrębów tożsamości analogowego uniwersum komunikacyjnego, granicą istnieje analogowo rozumiany niebyt dotychczasowego układu sił i jego form czy też inaczej hybrydowa postmedialność na styku tego, co analogowe, i tego, co cyfrowe; sytuacja, która dotyczy nie tylko zaniku różnic między istniejącymi kulturami mediów i nimi samymi, ale i rozprasza świadomość i wyobraźnię medium jako takiego (faza postmedium). Totalna konektywność i wymienność form, którą wprowadza do kultury cyfrowość, skutecznie wymazuje kulturowy sens medium, techniczne kształty i dotychczas istniejącą strukturę komunikacyjnego ekosystemu kultury. Odrzucając dotychczasowe reguły przypisane w kulturze poszczególnym przekaźnikom i całemu systemowi zwrot postmedialny objawia się, przynajmniej w sensie technologicznym, jako przestrzeń nieustannego loopu transferowanych z olbrzymią prędkością danych, które, jak to już powiedziałem, przybierać mogą dowolne interfejsy, dowolne wywołania algorytmów [7].

Fakt ich rozpoznawalności i możliwości wykorzystywania w codziennym życiu bierze się już tylko z siły dotychczasowych przyzwyczajeń, z kompromisów zawieranych przez kreatywnych, rozumiejących sens zmiany cyfrowej i sieciowej, ludzi nowego medialnego porządku z wymogami dotąd istniejącej kultury masowej z jej analogowymi mediami, linearnymi przyzwyczajeniami i sposobami myślenia. Na obecnym etapie zanikania historycznych gramatyk mediów analogowych cyfrowe interfejsy użytkowe odwołują się do reprezentacji poprzednich gramatyk medialnych i poddają się systematycznemu remiksowi. W konsekwencji dystans pomiędzy kulturą, czyli przestrzenią koordynowaną symbolicznie (matematyka>programowanie>systemy operacyjne), a ujarzmionymi zjawiskami fizycznymi (elektryczność, właściwości materiałów modelowanych w celu uzyskania kontroli nad falami i innymi zjawiskami fizycznymi, takimi jak oporność) wciąż pozostaje na poziomie wystarczającym, aby można było dalej myśleć o medialnej przestrzeni w tradycyjnych, medialnych kategoriach. Stan ten nie zmieni się, dopóki cyfrowe rozwiązania technologiczne, takie jak strona internetowa czy film cyfrowy, nie zostaną zastąpione rozwiązaniami odpowiadającymi w większym stopniu wyzwaniom ducha cyfrowości i sieci niż starającymi się nawiązywać kompromisowy dialog z mediami przeszłości.

Jednocześnie coraz więcej medialnych tekstów i form powstaje w formule cyfrowe dane + interfejs, co oznacza, że już niebawem – zarówno technologicznie, jak i w obrębie wyobraźni kulturowej – możliwe będzie zrównanie atomów i bitów, wykluczenie analogowego pośrednictwa medialnego. Postmedialne okoliczności stworzą kulturowe podłoże dla bezpośredniej manipulacji światem atomów za pomocą bitów, wyemigrujemy z analogowego świata medialnych form i sensów ku pełni cyfrowego zakodowania rzeczywistości [8]. Ślady tego kierunku ewolucji technologii cyfrowych i kultury dostrzec można, na przykład, w rozwijaniu technologii pikselowej. Systematycznie postępuje w tym obszarze zbliżanie się wielkości hardware’owych pikseli do fizycznych wielkości atomu, a także nieustanne poszerzanie zdolności funkcjonalnych pikseli, tak by nie tylko wyświetlały obrazy, ale i umożliwiały nad nimi bezpośrednią, taktylną kontrolę. W rezultacie w przyszłości można spodziewać się cyfrowych zdjęć dających się „zoomować” niemal w nieskończoność w stosunku do poziomu startowego, który wyznacza pole widzenia człowieka i oparta o jego wytyczne kultura wizualna. Piksele z czasem spełnią poetycką obietnicę Google Earth sugerującą bazodanową reprezentację i nawigację po doskonałej mapie planety, by jednocześnie zaoferować algorytmiczne i mechaniczne możliwości manipulacji jej elementami zarówno na poziomie widzenia planety czy galaktyki, jak i w „zbliżeniu” do atomów, neutrin, bozonów i wszelkich ich niewidocznych struktur, jak DNA czy struktura fal – wątek ten rozwinę w ostatniej części książki, kiedy będę analizować cyfrowe losy mapy.

Postmedialna praktyka technologiczna, czyli wychodzenie ze świata tradycyjnych form medialnych i jednoczesna erozja ich ontycznego statusu, jest ściśle powiązana ze stymulującymi ją i regulującymi rozpoznaniami i diagnozami natury teoretycznej, ideami wcielanymi w życie w cyberkulturowej praktyce. Hipoteza postmedialna pojawiła się w odniesieniu do transformacji technologicznych zarówno w dyskursie sztuki mediów, jak i w debacie poświęconej rozwojowi projektu cyfrowego, prowadzonej na gruncie nauk humanistycznych i społecznych. Ewolucją komunikacyjnych konceptów opartych na specyfice medium zajęli się obok cybernetyków także teoretycy komunikacji i mediów. Ich analizy przysłużyły przenikaniu i wymianie wiedzy pomiędzy humanistyką a cybernetyką od połowy XX wieku, a więc w okresie narodzin technologii cyfrowych i technologicznego boomu na nie. Stały się także swoistymi drogowskazami wskazującymi kierunek rozwoju projektu cyfrowego. Wśród nich szczególne znaczenie mają teoria metamedium Alana Kaya, przywołana wiele lat później przez Lva Manovicha, a także koncepcja maszyny uniwersalnej Alana Turinga. Na gruncie dyskursu sztuki i jej teorii myślenie to wykorzystują w swoich pracach poświęconych kondycji sztuki uwikłanej w media Peter Weibel i Domenico Quaranta. Sięgnę teraz do ich ustaleń, aby z perspektywy dyskursywnej przyjrzeć się omawianym ewolucjom technologicznym.

Alan TuringAlan Kay, ojcowie-założyciele projektu cyfrowego, w swoich wypowiedziach konceptualizowali rozwój cyfrowego świata, odwołując się do idei uniwersalnej maszyny obliczeniowej. Dysponuje ona zdolnością do kalkulowania wszystkiego, co zostaje jej na wejściu (input) przedstawione w postaci odpowiednio zakodowanych zasobów, które po przetworzeniu (computing) oddawałaby na wyjściu (output). Turing i wielu jego następców było przekonanych, że świat da się sprowadzić do postaci matematycznej reprezentacji (myślenie kartezjańskie) – wówczas wszystkie jego stany, wymiary, dynamiki można będzie przetwarzać matematycznie (komputerowo) za pomocą takiej uniwersalnej maszyny. Zanikłaby wtedy różnica pomiędzy tym, co realne, a tym, co symulowane/zakodowane, zaś samo urządzenie przez zdolność do naśladowania form rzeczywistości, wchłaniania maszyn poprzedzających, stawałoby się jednocześnie płynną grą pomiędzy nimi, konstruowaną na bieżąco ich sumą/synergią. Koncept maszyny uniwersalnej stał się mitem założycielskim komputeryzacji, odwołującym się do idei renesansowych i oświeceniowych (powrócę do tego wątku w części poświęconej cyfrowemu kodowi i matematyczności świata), i w zasadzie nie doczekał się do czasów współczesnych zdolnych mu zagrozić na tej pozycji alternatywnych konceptów [9]. Alan Kay tę ogólną cechę maszyny Turinga adaptował dodatkowo na potrzeby dyskursu poświęconego komunikacyjnej roli technologii cyfrowych, która okazała się jedną z najprężniej rozwijających się dziedzin projektu cyfrowego – nowym mediom. W opublikowanym w roku 1977 eseju Personal Dynamic Media Amerykanin sugerował, że komputer można nazwać metamedium, to jest taką formą medium, która zawiera w sobie wszystkie poprzednie media [10].

W oparciu o dokonania Kaya swoją współczesną topografię nowych mediów, stanowiącą już referencyjną wykładnię dla obecnego dyskursu w ramach studiów medioznawczych i kulturoznawczych, opracował amerykański teoretyk rosyjskiego pochodzenia Lev Manovich. W swojej najbardziej znanej pracy zatytułowanej Język nowych mediów jeszcze pośrednio wskazał na sens kategorii metamedium, postrzegając go jako kulturowy efekt jednej z najważniejszych reguł organizujących ekosystem mediów cyfrowych, czyli używania wszystkich starszych mediów jako swojej pierwotnej treści, gramatyki cyfrowego języka [11]. Inaczej mówiąc: komputer rozumie jako metamedium, które wchłonęło wszystkie wcześniej istniejące formy technologiczne i posługuje się nimi w obecnej fazie kulturowej bytności, czerpiąc z ich form zasady organizacji świata informacji i reguły komunikacji. Specjalistyczne techniki pracy, służące im narzędzia, języki artystycznej wypowiedzi i estetyki niegdyś przypisane do rozłącznych, hermetycznych dziedzin i praktyk komunikacyjnych, w przestrzeni cyfrowej otwierają się na nieograniczony i nieustanny import/export pomiędzy różnymi istniejącymi na tej platformie możliwościami. Stare metody i środki znajdują nowe, wspólne pole eksploatacji w kodzie software: są weń wpisywane jako strukturalne kształty i reguły działania, jego pragmatyki i interfejsy użytkowe. Metamedium jest tym samym otwarte na wszystkie potencjalne medialne kształty i gry, które zostają pomyślane i uruchomione w cyfrowym środowisku [12].

Pojęcie metamedium ma dodatkowo dla Manovicha także bardzo ważne odniesienie historyczne. Sens tej kategorii odwołuje do dokonań awangardy w sztuce w pierwszej połowie XX. wieku. W latach 1915–1928 artyści wizualni, architekci, designerzy stworzyli cały zbiór nowych technik i rozwiązań dotyczących rozumienia przestrzeni, czasu i sztuki, które wywarły zasadniczy wpływ na losy technologii cyfrowych w późniejszym okresie. Myślenie awangardy, metody i kody tej formacji, ucieleśnione zostały w pełni dopiero w formie cyfrowych mediacji. Chodzi tu np. o montaż filmowy, technikę kolażu fotograficznego i jej funkcje kopiuj/wklej czy eksperymenty Lissitzky’ego z ruchomą ramą obrazów. Nowe media, ich software to podjęcie spuścizny awangardy w obszarze kultury medialnej i komunikacyjnej.

Kategorię metamedium w jej cybernetycznym i medioznawczym sensie można uznać za wstępne rozpoznanie sytuacji postmedialnej. W innej wypowiedzi, zatytułowanej Post-media Aesthetics, Manovich idąc o krok dalej w stosunku do Języka nowych mediów stawia znak równości między kategorią postmedia a cyfrową estetyką informacji, dopowiadając w ten sposób wcześniej wykorzystane pojęcie metamedium przez wpasowanie w kontekst relacji sztuki mediów, technologii i teorii kultury [13]. Tradycyjnie silne więzy pomiędzy tożsamością dzieł sztuki a transportującymi je mediami zostały w cyfrowości zerwane – wyrokuje. Jednocześnie, przyznaje, historia sztuki to także (a dla przywołanych za chwilę takich teoretyków, jak Weibel – przede wszystkim) historia nowych interfejsów (technologii), które tworzą artyści w odpowiedzi na zmieniające się w czasie potrzeby i wyobraźnie jej odbiorców, reagując na towarzyszące im środowisko technologiczne – to także funkcja rozwoju technologicznego w ogóle, szczególnie zaś wewnątrz społeczeństw i kultur rozwiniętego Zachodu po rewolucji przemysłowej i oświeceniowej. Postmedialna estetyka jest w związku z tym przede wszystkim emanacją cybernetycznego software, bo to dzięki niemu stare gramatyki medialne znajdują odniesienie w nowo konstruowanych (cyfrowo) tekstach kultury. Software miksuje istniejącą gramatykę kultury (języki starych mediów) z możliwościami oferowanymi przez nowe narzędzia medialne, jest mostem, po którym w obu kierunkach poruszają się medialne hardware, odnajdując się nieustannie na nowo w różnych konfiguracjach. Estetykę tego typu definiują takie tagi, jak: kultura informacji, remiks, update, dane i bazy danych, interfejs, kompresja, algorytm.

W kontekście sztuki mediów technologiczny sens pojęcia postmedia podejmują i rozwijają także inni ważni dla medioznawczego dyskursu analitycy, jak Peter Weibel i Domenico Quaranta. Weibel, uznany teoretyk kultury medialnej i jeden z najważniejszych jej animatorów, do którego ustaleń będę w tej pracy wielokrotnie powracać, wywodzi stan postmedialny z generalnego kryzysu reprezentacji, który w sztuce współczesnej objawił się wraz z pojawieniem się mediów wizualnych – prasy, fotografii i później kina. Ich kulturowa i artystyczna ekspansja spowodowała, że sztuka mimowolnie, wbrew oporom artystów i mecenasów, przekształciła się w sztukę mediów. Nurt ten zapoczątkował Duchamp, który otworzył sztukę na obiekt rozumiany już nie jako metafora, ale przedmiot fizyczny, namacalny byt postrzegany realistycznie i w tym duchu używany semiotycznie. Technologie medialne stały się najpierw przedmiotami sztuki, by następnie stać się narzędziami sztuki, a wreszcie jej świadomie podejmowanymi tematami. Przedmioty medialne, dzieła sztuki mediów okazały się mieć niemieszczącą się w dotychczasowym kanonie form i materii artystycznego wyrazu niematerialną konsystencję, inny stan skupienia. W ten sposób sztuka czy szerzej: kultura znalazły się wewnątrz mediów – zostały zmediatyzowane, wchłonięte przez medialne gramatyki i reguły. Późniejsze mówienie o sztuce mediów, a zatem także o kulturze mediów, nie ma racji bytu. W związku z tą ekspansją Weibel ogłasza nadejście sytuacji postmedialnej, tj. takiej, w której nie ma już osobnej kategorii: sztuka mediów. Nic nie dzieje się w sztuce i kulturze poza granicami medialnej przestrzeni i regułami medialnych form. Kondycja postmedialna powstaje w dwóch fazach. Pierwsza polega na zrównaniu statusu i kulturowej siły istniejących mediów sztuki. W konkurencji między sobą doszły one do momentu równości jako narzędzia ekspresji artystycznej. Nie ma obecnie medialnych technologii, które dominują w praktyce sztuki albo które są z niej programowo wykluczone. Faza druga polega na zapadaniu się wszystkich tych medialnych form w siebie nawzajem. Stapiające się media tracą swoją unikalność i dalej: tożsamość w ogóle [14]. Weibel reasumuje:

Oddziaływanie mediów jest uniwersalne, więc wszelka sztuka jest obecnie sztuką postmedialną. Ponadto każda sztuka jest postmedialna nie tylko dlatego, że media są maszynami uniwersalnymi, lecz dlatego, że uniwersalna maszyna, jaką jest komputer, posiada zdolność symulowania wszystkich mediów.

W obszarze sztuki, jak można wywnioskować z prac Manovicha i Weibla, koncept medium został najpierw wystawiony na próbę przez nowe formy wypowiedzi artystycznej, takie jak asamblaż, happening, instalacja, performance, a równolegle za sprawą kulturowej obecności analogowych mediów mechanicznych: fotografii, filmu i wideo. Zdarzyło się to z tradycyjną koncepcją rozumienia medium przyjętą w sztuce, to jest jako tworzywa artystycznego, oraz z tradycyjną formą upowszechniania, dystrybucji sztuki: modelem, w którym na szczycie znajdują się artyści, opiniotwórcze elity i systemowe narzędzia upowszechniania sztuki, takie jak muzea czy galerie. W rezultacie sytuacja postmedialna to także przestrzeń konfliktu pomiędzy tradycyjnym systemem sztuki a sztuką mediów. Sztuka mediów ze względu na swoją „mediocentryczność” nie weszła w naturalny sposób w obieg sztuki współczesnej, okazała się raczej systemową, formalną i estetyczną alternatywą wobec niej. W ten sposób kondycję postmedialną definiuje kolejny medioznawca, a jednocześnie krytyk i kurator sztuki Domenico Quaranta [15].

Dziejowa logika technologii komunikacyjnych, która wytyczyła trajektorię media-nowe media-postmedia, obejmuje obszar kulturowych odczytań technologii komunikacyjnych. Definiowanie pola i treści sztuki współczesnej w odniesieniu do niej to tylko jedna z postmedialnych debat podjętych w różnych sferach, na które wpływ ma rzeczywistość cyfrowa. Dający się zaobserwować – widoczny w napięciu pomiędzy sztuką współczesną a sztuką nowych mediów – strach przed kondycją postmedialną ma znamiona uniwersalne, choć, jak na razie, jedynie dyskurs krytyki sztuki mediów i teorii kultury doprecyzował ten stan i zaproponował dla niego własny język i kategorie pojęciowe, które tu przywołałem. Można się spodziewać, że niebawem także i te inne, oporne lub cyniczne dyskursy, takie jak teoria nauki (częściowo objawia się to za sprawą takich „nowalijek”, jak digital humanities) czy nauki o życiu, dostrzegą medialną zmianę i poczują się przez nią sprowokowane do ponownej odpowiedzi na fundamentalne pytania.

Prowadzona przez Weibla i Quaranta krytyka systemu sztuki wskazuje na przywiązanie do tradycyjnej jedności treści i form, które jest także obecne w myśleniu o mediach i komunikacji. Teorie mediów i szerzej kulturoznawcza wiedza o mediach mają skłonność do postrzegania kulturowego dominium komunikacji przez pryzmat kategorii obiektu i stojącej za nim techniki. Interpretacje wywodzące się z tej perspektywy widzą ten obiekt na dwa sposoby. Po pierwsze, uznają za niego przedmioty, czyli medialne technologie oraz medialne wytwory/teksty. Po drugie, obiektem tym czynią komunikujący podmiot, uwikłanego w medialne sprzężenia człowieka, aktora działań komunikacyjnych. Ani przedmioty samodzielnie, ani podobnie rozumiane podmioty, ani synergiczne kombinacje tych kierunków składające się na tradycyjny model środowiska i procesów komunikacyjnych nie przystają jednak do natury i zasięgu ewolucji medialnego świata dokonującej się w cyfrowych okolicznościach. Tak zaprojektowany model, powtórzę, można było z powodzeniem wykorzystywać (w różnych wewnętrznych jego strukturalizacjach i ujęciach dyscyplinarnych – od analizy semiotyki medialnego przekazu po deterministyczne postrzegania technologii jako przekazu) jedynie wobec domeny mediów analogowych. Wobec natury cyfrowego i sieciowego świata, w którym hardware zyskał przeciwwagę w postaci software, ekosystem analogowych transmisji i reprezentacji został wystawiony na dziejową próbę, stając w obliczu sieciowości. W nowych okolicznościach, w których linearna percepcja mierzy się z interakcyjnością, materialne formy z wirtualnymi reprezentacjami, skończone kształty z nieustannym przetwarzaniem i remiksowaniem, istniejące schematy poznawcze przestają wystarczać do opisu komunikacyjnego świata.

Wraz z cyfrową zmianą pojawiały się także towarzyszące jej rekonstrukcje pojęć i teorii, dopełniające diagnozy o sytuacji postmedialnej. Matthew Kirschenbaum, amerykański humanista starający się interdyscyplinarnie przenikać istotę cyfrowości, wskazuje na potrójną naturę cyfrowych sytuacji medialnych. Mają one (1) wymiar fizyczny; są znakami i maszynami je transportującymi. Są jednocześnie (2) formatami logicznymi, co znaczy, że są to dane, które te maszyny rozpoznają, interpretują i przetwarzają. Są także (3) konceptami, czyli posiadają naturę bytów semiotycznych, aksjologicznych: są tekstami kultury [16]. W podobnym duchu wypowiada się inny amerykański badacz cyberświata Mark Hansen. Amerykanin jest przekonany, że teorie mediów cyfrowych potrzebują nowego punktu odniesienia, który będzie w większym niż dotychczas stopniu korespondować ze zmianami zachodzącymi w medialnym świecie. Hansen wskazuje na rosnące znaczenie procesów medialnych, które ani nie objawiają się postrzegającemu cyberprzestrzeń za sprawą jej interfejsów sensorium, ani nie dają się zamknąć w formie pojedynczych obiektów/reguł technologicznych. Tą nową kategorią jest procesualność mediów, która rozciąga je pomiędzy różnymi spiętymi w sieci przedmiotami technologicznymi w tle objawiających się użytkownikom wysuniętych na pierwszy plan działań i w ten sposób rozmywa ich uchwytną, skończoną formalnie postać. Stają się one coraz mniej wyraźne – ukryte przed przyzwyczajoną do zwykłych, analogowych i materialnych form, percepcją [17]. W identyczny sposób charakter postmedialnego środowiska interpretuje filozofka mediów Katherine N. Hayles, kiedy wskazuje na przykład na dynamiczny i złożony charakter ontyczny cyfrowej tekstualności:

Istnieją dane, programy, które je wywołują i przetwarzają, hardware, który na bazie swoich funkcjonalności te dane kompiluje i interpretuje. Potrzeba wszystkich tych elementów/etapów, aby udało się stworzyć tekst elektroniczny w jego dzisiejszej postaci. […] Z tego powodu lepiej interpretować go jako proces, a nie jako obiekt [18].

Takie wrażenie na temat medialnej nieprzejrzystości mają nie tylko sami medioznawcy. Bruno Latour, jeden z najbardziej uznanych diagnostów współczesności, rozważając przesunięcie od obiektów do procesów technologicznych zauważa, że ten ontologiczny zwrot prowadzi do wykształcenia się fantomowego oblicza nowych mediów w stosunku do sfery społecznej i kultury [19]. Obwody scalone, przełączniki, bramki, kable, protokoły, różne poziomy software, wyświetlacze i wreszcie pola magnetyczne i inne zjawiska związane z elektrycznością to przeplatające się nawzajem elementy tej fantomowej ontologii, z którą na co dzień, mniej lub bardziej świadomie, mamy do czynienia. W rezultacie postmedialny charakter zdematrializowanej informacji skutkuje podwójnie. Przedmiot przekształca się w obiekt medialnej reprezentacji. Zyskując taki status przekracza barierę tradycyjnie pojętej materialności, staje się swoim własnym odbiciem, abstrakcyjnym (wirtualnym) przedstawieniem i zapośredniczeniem. Skutek drugi bierze się z faktu dematerializacji transmitującego medium: skłonni przypisywać wartość materialną postrzeganym dzięki mediom przedmiotom/obiektom dematerializujemy w rezultacie samo medium. Medium, które działa niepostrzeżenie, które jest niewidzialne okazuje się pozbawione wymiaru materialności, kończy swój dotychczasowy żywot w materialnym świecie znaków, przedmiotów i zdarzeń [20].

Opisany powyżej przez teoretyków na różne sposoby hybrydyczny i procesualny, cyfrowy stan rzeczy to przede wszystkim wciąż niewybrzmiałe echa i rezonanse jednego z założycielskich sporów, który wytyczył charakter projektu cyfrowego. Chodzi o debatę wokół ontycznego charakteru informacji, której korzeni szukać trzeba jednak dużo głębiej niż tylko w cywilizacyjnej debacie dotyczącej komputeryzacji. Objawił się on najpierw w postaci dwóch przeciwbieżnych dążeń w nowożytnym dyskursie poświęconym wiedzy w najbardziej ogólnym jej znaczeniu: ku wiedzy abstrakcyjnej (matematycznej) oraz wiedzy namacalnej, mającej bezpośrednie potwierdzenie w percypowanej rzeczywistości. Z jednej strony matematyka i jej pochodne miałyby być myśleniem abstrakcyjnym, formalnie doskonałymi teoriami opisującymi złożoność natury świata. Z drugiej zaś poznawanie i myślenie skonstruowane w ten sposób domagało się potwierdzenia i weryfikacji wobec niedoskonałości wiedzy abstrakcyjnej zderzającej się z wieloma niewytłumaczalnymi, a przecież realnie doświadczanymi kondycjami świata. Ten problem stał się jednym z najważniejszych dla nowoczesnych nauk i sztuk – objawił się w nich jako dystynkcja pomiędzy teorią a empirią, sztuką reprezentacji i sztuką przedmiotów, szczególnego zaś znaczenia nabrał wraz pojawieniem się maszyn kalkulujących i cyfrowej reprezentacji rzeczywistości przez nie tkanej [21]. Problem ten na właściwym dla metateorii wiedzy i nauki poziomie skomentował, by przywołać tu jeden z najważniejszych współczesnych autorytetów, filozof i metodolog Paul Feyerabend w swojej głośnej krytyce hegemonicznej roli naukowego myślenia abstrakcyjnego:

Abstrakcja wydaje się być negatywnym zwyczajem: realne właściwości fizyczne, kolory, temperatura, tarcie, opór powietrza, krążenie planet są w tym typie myślenia pomijane [22].

Jaką kondycję proponują nowe, cyfrowe media? W codziennym krajobrazie miejsce stałych i percypowalnych w tradycyjny, obiektowy sposób maszyn i tekstów medialnych zajmują ich cyfrowe ślady, tj. medialne procesy, obliczenia nieustannie dokonujące się pod powierzchnią interfejsów, sieciowe transfery danych we wszystkich możliwych kierunkach, negocjacje protokołów (ping, IP, Cookies). Ich obecność konstytuuje takie nowe formy technologicznego krajobrazu, jak odbywające się przy bardzo ograniczonej wiedzy i kontroli ze strony użytkownika działania komunikacyjne pomiędzy urządzeniami (Internet rzeczy) czy serwisami i usługami software’owymi i sieciowymi. Analogowe przyzwyczajenia często stawiają nas wobec nich w mało komfortowej sytuacji, kiedy nieświadomi tego, co procesują, komunikują i interfejsują wykorzystywane przez nas urządzenia jesteśmy narażeni na niespodzianki i konieczność nieustannej uwagi na wielu poziomach percepcji. Boleśnie w sensie finansowym przekonało się na przykład o tej nieustannej i fantomicznej konektywności cyfrowych urządzeń połączonych z sieciami polskie społeczeństwo zauroczone nowymi liniami technologicznymi smartfonów, kiedy okazało się, że nieustannie komunikują się one z bazami danych operatorów, dostawców usług, producentów, sieciami społecznościowymi i wieloma innymi miejscami w sieciach. Użytkownicy tych urządzeń przez długi czas nie zdawali sobie sprawy z przebiegu tych ukrytych transmisji i transferów, za co operatorzy zacierając ręce wystawili im słone rachunki [23].

Przechodząc od medialnych obiektów do medialnych procesów doszedłem do kategorii software, czyli napędzanej dzięki elektrycznej i cyfrowej cyrkulacji zdematerializowanej informacji – danych. To kategoria, która stanowi o ontologicznej unikalności fenomenu nowych mediów i cyberkultury, zaś współcześni medioznawcy stawiają ją w centrum cyfrowej kultury, zaś samemu pojęciu przypisują miano kluczowego dla teorii kultury współczesnych mediów. Nie będę w tym miejscu z oczywistych względów nawet próbował zagłębiać się w definiowanie i analizy software, bo jest to problematyka, która domaga się samodzielnych opracowań i, jak wspomniałem we wstępie, w moim tekście funkcjonuje jako najważniejszy, choć mało wyraźny bohater drugiego planu. Przy różnych okazjach będę jednak do poszczególnych elementów software’owego uniwersum się odwoływać.

Kilka lat temu Lev Manovich, chyba najbardziej popularny z zajmujących się nowymi mediami badaczy i animatorów, ogłosił, że nadeszła epoka dominacji soft­ware w medialnym świecie i daleko poza nim, na terytorium szeroko rozumianej kultury. Software, powiada, przejmuje kontrolę nad materialnym wymiarem medialnej rzeczywistości, staje się – wraz z interfejsami – kulturową powłoką hard­ware i to jemu powinny się bez reszty oddać współczesne studia nad mediami, przekształcając się z media studiessoftware studies [31]. Matthew Fuller, jeden z inicjatorów kulturowych badań nad software i twórca kategorii software studies, definiując kulturę software, mówi o łączących się w niej różnych, nieposiadających ekwiwalentu w kulturze mediów masowych, warstwach cyfrowego świata. Angielski medioznawca wskazuje na trzy zasadnicze tropy kulturowe porządkujące obszar software. Są nimi: critical software, social software oraz speculative software. Wszystkim trzem przyjrzę się teraz bliżej.

Software krytyczny spełnia funkcję nadzoru nad software w ogóle. To oprogramowanie, które śledzi poczynania software, wyświetla jego kulturowe mechanizmy i obnaża polityki kodu, angażując użytkowników i programistów w krytykę cyfrowości, czyli odnajdywanie w niej wszelkich śladów i kodów normalizujących. Dzięki takiemu wykorzystaniu software cyberkultura podlega nieustannemu prześwietlaniu i ma szansę opierać się technopolowym zapędom. Przykładem takiego software jest wersja znanej gry Wolfstein, zrealizowana przez artystyczny kolektyw JODI. Cyfrowa „scenografia” tej gry w wersji krytycznej została zastąpiona wizualizacjami fragmentów cyfrowego kodu, które po przetworzeniu stwarzają scenerię gry [32].

Social software to fenomen, na który składają się dwa trudne do rozłącznego traktowania inne: wolne oprogramowanie (w tym ruch open source) oraz programowanie do użytku zbiorowego, część Web 2.0. Zasadą tego pierwszego jest tworzenie programów darmowych w przestrzeni publicznej, kolektywnie przygotowywane alternatywy dla wersji komercyjnych, które pozwalają na określone funkcjonalności w oderwaniu od tradycyjnych reguł rynkowych wynikających z obwarowanego szeregiem zależności, tradycji i reguł prawnych podziału ról pomiędzy właścicieli i konsumentów. Zasadą oprogramowania społecznego jest natomiast przejmowanie kontroli nad oprogramowaniem przez pozabiznesowe, pozasystemowe jednostki i społeczności. Dzięki takim działaniom przestrzeń cyfrowego kodu wciąż udaje się zachować od wchłonięcia w reżim wartości ekonomicznych – pozostaje otwartym tekstem kultury, który wspólnie piszą i redagują zainteresowani. Ma tu także miejsce agregacja i akumulacja kapitału społecznego w nowej, cyfrowej wersji [33].

Software spekulacyjny to natomiast oprogramowanie eksperymentalne, za pomocą którego możliwa jest eksploracja możliwości programowania w ogóle. W tej dziedzinie programiści ewaluują kodowe glitche, wirusy, malware, spyware, patche, błędy, ale także poszukują nowych rozwiązań społecznych i kulturowych sytuujących software w przestrzeni publicznej. Kategorią bliskoznaczną wobec spekulacyjności software jest strategia cyfrowego oporu i działania antysystemowego, która charakteryzuje środowiska i etos hakerski.

Poprzez swoją formalną otwartość i nominalnie egalitarny dostęp do zasobów kodu software może się rozwijać jako ważna dla kultury sytuacja postmedialna właśnie wtedy, kiedy wszystkie trzy wskazane przez Fullera jego domeny rozwijają się równolegle. Postmedialny charakter software bierze się z krytycznego oglądu i potencjału rekonstrukcji, który ta medialna warstwa oferuje wobec wszystkich poprzednich gramatyk i kodów medialnych oraz ekosystemu medialnego jako takiego. Bierze się także z dokonującej się pod naporem sił społecznych, reorganizacji tego ekosystemu i obecności w nim nowych, społecznych, graczy mających rzeczywisty wpływ na hierarchiczny dotąd, medialny krajobraz. Postmedialność software to także efekt możliwego w obszarze kodu nieustannego sprzężenia zwrotnego pomiędzy obecnymi formami oprogramowania a ich przyszłymi wersjami. Software jest formą otwartą, a zatem znajdującą się w nieustannie sprzężonym i zapętlonym procesie kodowania i jego hardware’owych implementacji.

Manovich i Fuller postrzegają software jak praktykę kulturową, w której mieszają się wszystkie dotychczasowe doświadczenia kulturowe i cywilizacyjne – zarówno związane z istniejącymi mediami i zapośredniczoną przez nie komunikacją, jak i wynikające z dorobku nauki, sztuki, urbanistyki, wojskowości, itd. Praktyka technologiczna i komunikacyjna software to konglomerat, w którym łączą się i stapiają ze sobą do granic rozpoznawalności sztuka, nauka i technika. Jaki jest efekt tego wymieszania? To znacznie więcej niż software rozumiany technologicznie jako zbiór instrukcji operacyjnych komputera. Kulturowe rozumienie software rozciąga się bowiem również na materializację i synergię kulturowych (w tym i medialnych) dyskursów, form i modalności, zderzenie przeróżnych procesów i dyskursów, technokulturowy asamblaż – jak powiedzieliby Deleuze i Guattari [34].

Tak zdefiniowany software to przestrzeń postmedialna, w której dochodzi do renegocjacji władzy i stosunków społecznych, kiedy biorące udział w jego tworzeniu, dystrybucji i implementacji grupy społeczne doskonale radzą sobie bez pomocy, pośrednictwa czy regulacji systemu politycznego i ekonomicznego (open software, social software). Za jego sprawą ma również miejsce postmedialna renegocjacja ustalonych pozycji antropologicznych na linii człowiek-technika, szczególnie zaś w zakresie antropologii i socjologii interfejsów medialnych. Wreszcie dzięki software wprawiane jest w ruch i podtrzymywane w tym dynamicznym stanie uniwersum cyfrowych danych. W rezultacie odmienia się zupełnie ich kultura, ekonomia i ekologia, pojawiają się nowe kształty i cyrkulacje informacyjne, takie jak kultura otwarta (open culture), alternatywne obiegi i społeczne cyrkulacje danych, sieci grupujące ich użytkowników, piractwo i dyskursy poświęcone dostępowi do danych i informacji [35].

Software to także najbardziej hybrydowy i fantomowy ze współczesnych medialnych stanów i form. Jego praktyka zorientowana jest z założenia na procesualność – uruchomione oprogramowanie najczęściej pracuje w tle niezależnie od bieżących, cząstkowych działań użytkownika na poziomie jego interfejsu użytkowego. Jego status rozciąga się pomiędzy materialnością działań dokonywanych za sprawą kontrolowania elektryczności wewnątrz infrastruktury obliczeniowej maszyny cyfrowej a efemerycznością wirtualności, czyli abstrakcyjnych zapisów w różnych (równie abstrakcyjnych) formalnych, programistycznych językach i kodach. Software jest zatem jednocześnie matematyczną abstrakcją i elektryczną materialnością, wirtualnym procesem i materializującym się interfejsem. Sytuuje się pomiędzy indywidualnym doświadczeniem mediów a ich wymiarem społecznym w różnych przybieranych przez nie formach, takich jak systemy operacyjne i personalizowane aplikacje, aplikacje transmitujące i aplikacje interaktywne [36].

To wszystko czyni z software przedmiot niejasny i domagający się nieustannej uwagi poznawczej. Trudno się dziwić, że wielu współczesnych medioznawców gotowych jest wskazywać jego centralną pozycję w cyfrowym świecie. Nie brakuje jednak i głosów skrajnie przeciwnych wobec tego typu deklaracji. Friedrich Kittler, niemiecki medioznawca, stwierdza kategorycznie: there is no software! Wszystko, argumentuje, co przyjęło się oznaczać tym mianem, da się sprowadzić do postaci najprostszych, powtarzalnych czynności wykonywanych przez maszyny cyfrowe: kontroli zmian napięcia w elementach struktury hardware. Rozbudowane manipulacje kodu, poetyka software to w gruncie rzeczy jedynie regulacje dotyczące milionów dziejących się jednocześnie w cyfrowym urządzeniu stanów napięcia elektrycznego, oferujących jedynie onoff. Kittler rozumie software analogicznie do dziewiętnastowiecznych, w duchu będących konsekwencją kartezjańskiego dualizmu, wyobrażeń na temat pracy mózgu – miała ona polegać na skomplikowanej mechanice wymian napięć elektrycznych pomiędzy poszczególnymi ośrodkami. W identyczny sposób na fundamentalnym poziomie technologicznym działa także software: zera i jedynki kodu zmuszają hardware – procesory, czipy, macierze, do reagowania na obecność napięcia elektrycznego lub jego chwilowe braki. Poziom ten jednak w praktyce codziennego użycia komputerów jest dla użytkowników niedostępny ze względu na jego polityczne i strategiczne znaczenie dla bezpieczeństwa samej maszyny i ochrony jej struktury przed przeprogramowaniem (w ten sposób chroni ją na przykład oprogramowanie BIOS; bezpośredni asembler i emulator, który zamienia instrukcje software na czynności mechaniczne hardware). Softwarem można by nazwać jedynie miliardy nakładek rozpisanych w gramatyce cyfrowego kodu, które mają wartość użytkową, co znaczy, że są to programy, aplikacje, elementy interfejsu, itd. Uobecniają one jednak „software’ową wieżę Babel”, bowiem spora ilość języków programowania, formuł łączenia się ich ze sobą i możliwych form współpracy z asemblerami oraz wszelkie pozostałe uwarunkowania systemowe powodują, że pierwotny język informowania elektryczności o jej przebiegu zostaje nimi zupełnie przesłonięty. Staje się przez to czymś na podobieństwo archaicznych języków, których używać są w stanie już tylko pasjonaci i specjaliści, które jednak na stałe wpisane są w struktury nowych – wniosły do nich reguły gramatyczne, semantyczne, tak jak łacina do współczesnych języków cywilizacji zachodniej. Dopiero dostęp do fundamentalnego, ukrytego poziomu pozwala na prawdziwą władzę nad technologią maszyny obliczeniowej, która zaczyna się w momencie, kiedy możliwa jest kontrola nad fizyczną pracą hardware, bezpośrednia kontrola płynącej w jego elementach elektryczności [37].

Kolejną postmedialną rekonstrukcją współczesnego świata, która dokonuje się w obszarze technologicznym, jest przejście od mediów stacjonarnych do mediów mobilnych. Ta zmiana, którą teoretycy zaczynają powoli tagować mianem „zwrotu mobilnościowego” (mobile turn), dotyczy deregulacji technologicznej struktury ekosystemu medialnego, powielającej dotąd stabilnie usytuowaną geograficznie, kulturowo i społecznie hierarchię bytów. Dotychczasowe hierarchiczne doświadczenie mediów było fizycznie związane z konkretnym miejscem, czasem i technologią – niech emblematem tego stanu rzeczy będzie klasyczna sytuacja telewizji, której fale nadawane z centrali (zarówno technologicznej jak i merytorycznej) pokrywają swoim zasięgiem obszar wyznaczany przez granice geograficzne, polityczne i ekonomiczne, zaś sam odbiornik telewizyjny uzależniony jest od źródła energii elektrycznej na zasadzie „przywiązanego” do gniazdka kabla. Mobilnościowa deregulacja tego stanu rzeczy powoduje natomiast, że zdolne do tymczasowego odłączenia od sieci dystrybucji energii potrzebnej do zasilania urządzenia cyfrowe mogą funkcjonować, przynajmniej przez jakiś czas, gdziekolwiek je ze sobą ich użytkownik zabierze. Dodatkowo uwolnione z ustawionej na „sztywno” infrastruktury przesyłowej interfejsy nic nie tracą ze swojego sieciowego potencjału, bowiem sieci wraz z nimi rozproszyły się w fizycznej przestrzeni – dostęp do nich możliwy jest dzięki różnym protokołom (wi-fi, gps, bezprzewodowe i przewodowe sieci internetowe) i standardom użytkowym/interfejsom (tablet, nawigacja, laptop) oraz protokołom komunikacyjnym, dla których jedynie jedną w wielu dostępnych opcji jest telewizyjna sytuacja jeden-do-wielu bezzwrotnie [38].

Płynnie i przygodnie usytuowane w ten sposób w postgeograficznym i postpolitycznym krajobrazie media mobilne pozwalają swoim użytkownikom na permanentny kontakt z równie płynną i przygodną wirtualną przestrzenią danych i sieci, a jednocześnie nie wchodzą w konflikt z warunkami tradycyjnego bycia i życia w przestrzeni fizycznej. W rezultacie przestrzeń kulturowa, powstająca z nakładania się na siebie w doświadczeniu zanurzonego w obie człowieka staje się hybrydą. Zacierają się w niej dystynkcje pomiędzy niegdyś rozdzielnymi stanami materialności i cyfrowości, atomy przenikają się z bitami i/lub zamieniają miejscami. Za sprawą upłynnienia infrastruktury medialnej i wejścia z nią w przestrzeń fizyczną staje się ona w związku z tym również ekstrapolacją przestrzeni społecznej powstającej w mediach społecznościowych. Doskonałym przykładem takiej hybrydycznej koegzystencji elementu wirtualnego, sieciowego i materialnego są wszelkie serwisy odnoszące się do mechanizmów geolokacji i cyfrowych map – takie jak googlemaps, forsquare czy facebook. Nie sposób obecnie rozsądzić, która z warstw kompozytowej przestrzeni społecznej ma prymarne znaczenie, a która jest wobec tej ważniejszej wtórna. Wydarzenia inspirowane, konceptualizowane i częściowo aranżowane w sieciach elektronicznych znajdują kontynuację w materialnych rejonach przestrzeni publicznej. Dzieje się także na odwrót, „materialne” działania zyskują drugie, poszerzone życie w przestrzeni portali społecznościowych, na forach i serwisach publikujących filmy, fotografie i notatki. Jak konkludują badacze mediów mobilnych: hybrydyczna przestrzeń ustanowiona za pośrednictwem tych technologii jest przestrzenią połączeń, przepływów i transferów, mobilności i nowego typu sytuacji społecznych [39]. Nietrudno o inne przykłady dowodzące postmedialnego zanikania granic pomiędzy działaniem w przestrzeni atomów i w przestrzeni bitów. Jednym z nich jest nowy typ pracy, która staje się niezależna od fizycznego miejsca (tego dowodził już Alvin Toffler w swoich analizach poświęconych zjawisku telepracy), ale i nie posiada tradycyjnej struktury, w której pracodawca zleca zatrudnionemu jakieś zadania do wykonania i nadzoruje go w trakcie ich wykonywania. Praca mobilna (crowdsourcing) polega na udostępnianiu zadań do wykonania na zasadzie bazy prostych czynności, do których mogą zalogować się chętni do ich wykonania. Pracodawca może rozłożyć swoje potrzeby na dziesiątki czy setki drobnych czynności do wykonania i cierpliwie poczekać, aż zostaną zrealizowane pod nadzorem specjalnych aplikacji dystrybuujących zlecenia, nadzorujących ich wykonanie itd.. Na razie działania tego typu dotyczyć mogą jedynie prac analitycznych, związanych z przetwarzaniem informacji i ich pozyskiwaniem, jednak już dzisiaj takie modele zatrudniania i wykonywania pracy skutecznie zastępują tradycyjne przedsiębiorstwa i „materialne” reguły gospodarki postfordowskiej [40].

Mobilności mediów towarzyszą w ich teorii kategorie mediów lokacyjnych i geomediów. Poszerza to społecznościowe doświadczenia mediów mobilnych o walor kulturowego konstruowania przestrzeni. Do tego wątku powrócę szerzej przy okazji analiz związanych z bazodanowym rozumieniem przestrzeni i mapy.