Czytaj książkę oznaczoną tagiem: teoria

Postmedialne uniwersum nie różni się w tym zakresie od wcześniejszych kulturowych kondycji technologii komunikacyjnych – od ery pisma, epoki druku Gutenberga czy elektrycznej fazy kultury masowej z jej analogowymi mass mediami. Mechanizm ten znany jest już dobrze medioznawcom i badaczom relacji kultury i techniki. Zauważyli oni, że gdy nowinki technologiczne przenikają do życia społecznego i kultury, stają się powszechnym i popularnym narzędziem w rękach ludzi i systemów kulturowych, dopiero wówczas zyskują status powszechnych mediów i mediacji, ogólnie dostępnych i znanych języków i reguł komunikacyjnych i tylko wtedy są w stanie stawać się narzędziami zmiany istniejącego świata[5]. Przenikają i rekonstytuują wówczas dopiero najważniejsze relacje władzy i systemy ideologiczne, zakorzeniają się w porządkach semantycznych i aksjologicznych, poddają się sile ich oddziaływania, redefiniowaniu, instrumentalizowaniu i dostrajaniu wobec różnych oczekiwań, wrażliwości i konfiguracji systemowych – oddziaływając we wszystkich tych lokalizacjach, zgodnie z newtonowską zasadą, z adekwatną siłą i według analogicznych reguł o przeciwnym zwrocie. W tak skonstruowanym procesie stają się mediami danej kultury, a kultura staje się funkcją tych mediów, programują według własnej gramatyki nasze rozumienie świata i pośredniczą w jego budowaniu, reagując na wcześniej rozpisany dla nich kulturowy kodeks.

Znaczenie radykalnej konwergencji medialnych form w cyfrowym świecie potęguje kulturowa reguła mediacji i medialnej komunikacji. W świecie przesyconym technologicznymi rozwiązaniami służącymi komunikacji medium nie istnieje w liczbie pojedynczej, jako autonomiczna kategoria poza systemowym kontekstem. Możliwe kulturowo, percypowalne i funkcjonalne jest tylko w systemie składającym się także z innych przekaźników, spełniających inaczej podobne zadania wewnątrz komunikacyjnego ekosystemu i występujących w określonych relacjach wobec siebie nawzajem. Jedynie z poziomu wejrzenia w wewnętrzny układ tego ekosystemu rozpoznać można pojedyncze, różne od siebie nawzajem, ale dopełniające się w kulturowej praktyce elementy – poszczególne medialne formy, języki, systemy znaczeń. Z tego powodu radykalna cyfrowa konwergencja okazuje się stanem, który przekracza i unieważnia granicę rozpoznawalności fenomenów medium i mediów jako takich. Poza tą, strzegącą zrębów tożsamości analogowego uniwersum komunikacyjnego, granicą istnieje analogowo rozumiany niebyt dotychczasowego układu sił i jego form czy też inaczej hybrydowa postmedialność na styku tego, co analogowe, i tego, co cyfrowe; sytuacja, która dotyczy nie tylko zaniku różnic między istniejącymi kulturami mediów i nimi samymi, ale i rozprasza świadomość i wyobraźnię medium jako takiego (faza postmedium). Totalna konektywność i wymienność form, którą wprowadza do kultury cyfrowość, skutecznie wymazuje kulturowy sens medium, techniczne kształty i dotychczas istniejącą strukturę komunikacyjnego ekosystemu kultury. Odrzucając dotychczasowe reguły przypisane w kulturze poszczególnym przekaźnikom i całemu systemowi zwrot postmedialny objawia się, przynajmniej w sensie technologicznym, jako przestrzeń nieustannego loopu transferowanych z olbrzymią prędkością danych, które, jak to już powiedziałem, przybierać mogą dowolne interfejsy, dowolne wywołania algorytmów [7].

Fakt ich rozpoznawalności i możliwości wykorzystywania w codziennym życiu bierze się już tylko z siły dotychczasowych przyzwyczajeń, z kompromisów zawieranych przez kreatywnych, rozumiejących sens zmiany cyfrowej i sieciowej, ludzi nowego medialnego porządku z wymogami dotąd istniejącej kultury masowej z jej analogowymi mediami, linearnymi przyzwyczajeniami i sposobami myślenia. Na obecnym etapie zanikania historycznych gramatyk mediów analogowych cyfrowe interfejsy użytkowe odwołują się do reprezentacji poprzednich gramatyk medialnych i poddają się systematycznemu remiksowi. W konsekwencji dystans pomiędzy kulturą, czyli przestrzenią koordynowaną symbolicznie (matematyka>programowanie>systemy operacyjne), a ujarzmionymi zjawiskami fizycznymi (elektryczność, właściwości materiałów modelowanych w celu uzyskania kontroli nad falami i innymi zjawiskami fizycznymi, takimi jak oporność) wciąż pozostaje na poziomie wystarczającym, aby można było dalej myśleć o medialnej przestrzeni w tradycyjnych, medialnych kategoriach. Stan ten nie zmieni się, dopóki cyfrowe rozwiązania technologiczne, takie jak strona internetowa czy film cyfrowy, nie zostaną zastąpione rozwiązaniami odpowiadającymi w większym stopniu wyzwaniom ducha cyfrowości i sieci niż starającymi się nawiązywać kompromisowy dialog z mediami przeszłości.

Postmedialna praktyka technologiczna, czyli wychodzenie ze świata tradycyjnych form medialnych i jednoczesna erozja ich ontycznego statusu, jest ściśle powiązana ze stymulującymi ją i regulującymi rozpoznaniami i diagnozami natury teoretycznej, ideami wcielanymi w życie w cyberkulturowej praktyce. Hipoteza postmedialna pojawiła się w odniesieniu do transformacji technologicznych zarówno w dyskursie sztuki mediów, jak i w debacie poświęconej rozwojowi projektu cyfrowego, prowadzonej na gruncie nauk humanistycznych i społecznych. Ewolucją komunikacyjnych konceptów opartych na specyfice medium zajęli się obok cybernetyków także teoretycy komunikacji i mediów. Ich analizy przysłużyły przenikaniu i wymianie wiedzy pomiędzy humanistyką a cybernetyką od połowy XX wieku, a więc w okresie narodzin technologii cyfrowych i technologicznego boomu na nie. Stały się także swoistymi drogowskazami wskazującymi kierunek rozwoju projektu cyfrowego. Wśród nich szczególne znaczenie mają teoria metamedium Alana Kaya, przywołana wiele lat później przez Lva Manovicha, a także koncepcja maszyny uniwersalnej Alana Turinga. Na gruncie dyskursu sztuki i jej teorii myślenie to wykorzystują w swoich pracach poświęconych kondycji sztuki uwikłanej w media Peter Weibel i Domenico Quaranta. Sięgnę teraz do ich ustaleń, aby z perspektywy dyskursywnej przyjrzeć się omawianym ewolucjom technologicznym.

Alan TuringAlan Kay, ojcowie-założyciele projektu cyfrowego, w swoich wypowiedziach konceptualizowali rozwój cyfrowego świata, odwołując się do idei uniwersalnej maszyny obliczeniowej. Dysponuje ona zdolnością do kalkulowania wszystkiego, co zostaje jej na wejściu (input) przedstawione w postaci odpowiednio zakodowanych zasobów, które po przetworzeniu (computing) oddawałaby na wyjściu (output). Turing i wielu jego następców było przekonanych, że świat da się sprowadzić do postaci matematycznej reprezentacji (myślenie kartezjańskie) – wówczas wszystkie jego stany, wymiary, dynamiki można będzie przetwarzać matematycznie (komputerowo) za pomocą takiej uniwersalnej maszyny. Zanikłaby wtedy różnica pomiędzy tym, co realne, a tym, co symulowane/zakodowane, zaś samo urządzenie przez zdolność do naśladowania form rzeczywistości, wchłaniania maszyn poprzedzających, stawałoby się jednocześnie płynną grą pomiędzy nimi, konstruowaną na bieżąco ich sumą/synergią. Koncept maszyny uniwersalnej stał się mitem założycielskim komputeryzacji, odwołującym się do idei renesansowych i oświeceniowych (powrócę do tego wątku w części poświęconej cyfrowemu kodowi i matematyczności świata), i w zasadzie nie doczekał się do czasów współczesnych zdolnych mu zagrozić na tej pozycji alternatywnych konceptów [9]. Alan Kay tę ogólną cechę maszyny Turinga adaptował dodatkowo na potrzeby dyskursu poświęconego komunikacyjnej roli technologii cyfrowych, która okazała się jedną z najprężniej rozwijających się dziedzin projektu cyfrowego – nowym mediom. W opublikowanym w roku 1977 eseju Personal Dynamic Media Amerykanin sugerował, że komputer można nazwać metamedium, to jest taką formą medium, która zawiera w sobie wszystkie poprzednie media [10].

W oparciu o dokonania Kaya swoją współczesną topografię nowych mediów, stanowiącą już referencyjną wykładnię dla obecnego dyskursu w ramach studiów medioznawczych i kulturoznawczych, opracował amerykański teoretyk rosyjskiego pochodzenia Lev Manovich. W swojej najbardziej znanej pracy zatytułowanej Język nowych mediów jeszcze pośrednio wskazał na sens kategorii metamedium, postrzegając go jako kulturowy efekt jednej z najważniejszych reguł organizujących ekosystem mediów cyfrowych, czyli używania wszystkich starszych mediów jako swojej pierwotnej treści, gramatyki cyfrowego języka [11]. Inaczej mówiąc: komputer rozumie jako metamedium, które wchłonęło wszystkie wcześniej istniejące formy technologiczne i posługuje się nimi w obecnej fazie kulturowej bytności, czerpiąc z ich form zasady organizacji świata informacji i reguły komunikacji. Specjalistyczne techniki pracy, służące im narzędzia, języki artystycznej wypowiedzi i estetyki niegdyś przypisane do rozłącznych, hermetycznych dziedzin i praktyk komunikacyjnych, w przestrzeni cyfrowej otwierają się na nieograniczony i nieustanny import/export pomiędzy różnymi istniejącymi na tej platformie możliwościami. Stare metody i środki znajdują nowe, wspólne pole eksploatacji w kodzie software: są weń wpisywane jako strukturalne kształty i reguły działania, jego pragmatyki i interfejsy użytkowe. Metamedium jest tym samym otwarte na wszystkie potencjalne medialne kształty i gry, które zostają pomyślane i uruchomione w cyfrowym środowisku [12].

Pojęcie metamedium ma dodatkowo dla Manovicha także bardzo ważne odniesienie historyczne. Sens tej kategorii odwołuje do dokonań awangardy w sztuce w pierwszej połowie XX. wieku. W latach 1915–1928 artyści wizualni, architekci, designerzy stworzyli cały zbiór nowych technik i rozwiązań dotyczących rozumienia przestrzeni, czasu i sztuki, które wywarły zasadniczy wpływ na losy technologii cyfrowych w późniejszym okresie. Myślenie awangardy, metody i kody tej formacji, ucieleśnione zostały w pełni dopiero w formie cyfrowych mediacji. Chodzi tu np. o montaż filmowy, technikę kolażu fotograficznego i jej funkcje kopiuj/wklej czy eksperymenty Lissitzky’ego z ruchomą ramą obrazów. Nowe media, ich software to podjęcie spuścizny awangardy w obszarze kultury medialnej i komunikacyjnej.

Kategorię metamedium w jej cybernetycznym i medioznawczym sensie można uznać za wstępne rozpoznanie sytuacji postmedialnej. W innej wypowiedzi, zatytułowanej Post-media Aesthetics, Manovich idąc o krok dalej w stosunku do Języka nowych mediów stawia znak równości między kategorią postmedia a cyfrową estetyką informacji, dopowiadając w ten sposób wcześniej wykorzystane pojęcie metamedium przez wpasowanie w kontekst relacji sztuki mediów, technologii i teorii kultury [13]. Tradycyjnie silne więzy pomiędzy tożsamością dzieł sztuki a transportującymi je mediami zostały w cyfrowości zerwane – wyrokuje. Jednocześnie, przyznaje, historia sztuki to także (a dla przywołanych za chwilę takich teoretyków, jak Weibel – przede wszystkim) historia nowych interfejsów (technologii), które tworzą artyści w odpowiedzi na zmieniające się w czasie potrzeby i wyobraźnie jej odbiorców, reagując na towarzyszące im środowisko technologiczne – to także funkcja rozwoju technologicznego w ogóle, szczególnie zaś wewnątrz społeczeństw i kultur rozwiniętego Zachodu po rewolucji przemysłowej i oświeceniowej. Postmedialna estetyka jest w związku z tym przede wszystkim emanacją cybernetycznego software, bo to dzięki niemu stare gramatyki medialne znajdują odniesienie w nowo konstruowanych (cyfrowo) tekstach kultury. Software miksuje istniejącą gramatykę kultury (języki starych mediów) z możliwościami oferowanymi przez nowe narzędzia medialne, jest mostem, po którym w obu kierunkach poruszają się medialne hardware, odnajdując się nieustannie na nowo w różnych konfiguracjach. Estetykę tego typu definiują takie tagi, jak: kultura informacji, remiks, update, dane i bazy danych, interfejs, kompresja, algorytm.

W kontekście sztuki mediów technologiczny sens pojęcia postmedia podejmują i rozwijają także inni ważni dla medioznawczego dyskursu analitycy, jak Peter Weibel i Domenico Quaranta. Weibel, uznany teoretyk kultury medialnej i jeden z najważniejszych jej animatorów, do którego ustaleń będę w tej pracy wielokrotnie powracać, wywodzi stan postmedialny z generalnego kryzysu reprezentacji, który w sztuce współczesnej objawił się wraz z pojawieniem się mediów wizualnych – prasy, fotografii i później kina. Ich kulturowa i artystyczna ekspansja spowodowała, że sztuka mimowolnie, wbrew oporom artystów i mecenasów, przekształciła się w sztukę mediów. Nurt ten zapoczątkował Duchamp, który otworzył sztukę na obiekt rozumiany już nie jako metafora, ale przedmiot fizyczny, namacalny byt postrzegany realistycznie i w tym duchu używany semiotycznie. Technologie medialne stały się najpierw przedmiotami sztuki, by następnie stać się narzędziami sztuki, a wreszcie jej świadomie podejmowanymi tematami. Przedmioty medialne, dzieła sztuki mediów okazały się mieć niemieszczącą się w dotychczasowym kanonie form i materii artystycznego wyrazu niematerialną konsystencję, inny stan skupienia. W ten sposób sztuka czy szerzej: kultura znalazły się wewnątrz mediów – zostały zmediatyzowane, wchłonięte przez medialne gramatyki i reguły. Późniejsze mówienie o sztuce mediów, a zatem także o kulturze mediów, nie ma racji bytu. W związku z tą ekspansją Weibel ogłasza nadejście sytuacji postmedialnej, tj. takiej, w której nie ma już osobnej kategorii: sztuka mediów. Nic nie dzieje się w sztuce i kulturze poza granicami medialnej przestrzeni i regułami medialnych form. Kondycja postmedialna powstaje w dwóch fazach. Pierwsza polega na zrównaniu statusu i kulturowej siły istniejących mediów sztuki. W konkurencji między sobą doszły one do momentu równości jako narzędzia ekspresji artystycznej. Nie ma obecnie medialnych technologii, które dominują w praktyce sztuki albo które są z niej programowo wykluczone. Faza druga polega na zapadaniu się wszystkich tych medialnych form w siebie nawzajem. Stapiające się media tracą swoją unikalność i dalej: tożsamość w ogóle [14]. Weibel reasumuje:

Oddziaływanie mediów jest uniwersalne, więc wszelka sztuka jest obecnie sztuką postmedialną. Ponadto każda sztuka jest postmedialna nie tylko dlatego, że media są maszynami uniwersalnymi, lecz dlatego, że uniwersalna maszyna, jaką jest komputer, posiada zdolność symulowania wszystkich mediów.

W obszarze sztuki, jak można wywnioskować z prac Manovicha i Weibla, koncept medium został najpierw wystawiony na próbę przez nowe formy wypowiedzi artystycznej, takie jak asamblaż, happening, instalacja, performance, a równolegle za sprawą kulturowej obecności analogowych mediów mechanicznych: fotografii, filmu i wideo. Zdarzyło się to z tradycyjną koncepcją rozumienia medium przyjętą w sztuce, to jest jako tworzywa artystycznego, oraz z tradycyjną formą upowszechniania, dystrybucji sztuki: modelem, w którym na szczycie znajdują się artyści, opiniotwórcze elity i systemowe narzędzia upowszechniania sztuki, takie jak muzea czy galerie. W rezultacie sytuacja postmedialna to także przestrzeń konfliktu pomiędzy tradycyjnym systemem sztuki a sztuką mediów. Sztuka mediów ze względu na swoją „mediocentryczność” nie weszła w naturalny sposób w obieg sztuki współczesnej, okazała się raczej systemową, formalną i estetyczną alternatywą wobec niej. W ten sposób kondycję postmedialną definiuje kolejny medioznawca, a jednocześnie krytyk i kurator sztuki Domenico Quaranta [15].

Dziejowa logika technologii komunikacyjnych, która wytyczyła trajektorię media-nowe media-postmedia, obejmuje obszar kulturowych odczytań technologii komunikacyjnych. Definiowanie pola i treści sztuki współczesnej w odniesieniu do niej to tylko jedna z postmedialnych debat podjętych w różnych sferach, na które wpływ ma rzeczywistość cyfrowa. Dający się zaobserwować – widoczny w napięciu pomiędzy sztuką współczesną a sztuką nowych mediów – strach przed kondycją postmedialną ma znamiona uniwersalne, choć, jak na razie, jedynie dyskurs krytyki sztuki mediów i teorii kultury doprecyzował ten stan i zaproponował dla niego własny język i kategorie pojęciowe, które tu przywołałem. Można się spodziewać, że niebawem także i te inne, oporne lub cyniczne dyskursy, takie jak teoria nauki (częściowo objawia się to za sprawą takich „nowalijek”, jak digital humanities) czy nauki o życiu, dostrzegą medialną zmianę i poczują się przez nią sprowokowane do ponownej odpowiedzi na fundamentalne pytania.

Prowadzona przez Weibla i Quaranta krytyka systemu sztuki wskazuje na przywiązanie do tradycyjnej jedności treści i form, które jest także obecne w myśleniu o mediach i komunikacji. Teorie mediów i szerzej kulturoznawcza wiedza o mediach mają skłonność do postrzegania kulturowego dominium komunikacji przez pryzmat kategorii obiektu i stojącej za nim techniki. Interpretacje wywodzące się z tej perspektywy widzą ten obiekt na dwa sposoby. Po pierwsze, uznają za niego przedmioty, czyli medialne technologie oraz medialne wytwory/teksty. Po drugie, obiektem tym czynią komunikujący podmiot, uwikłanego w medialne sprzężenia człowieka, aktora działań komunikacyjnych. Ani przedmioty samodzielnie, ani podobnie rozumiane podmioty, ani synergiczne kombinacje tych kierunków składające się na tradycyjny model środowiska i procesów komunikacyjnych nie przystają jednak do natury i zasięgu ewolucji medialnego świata dokonującej się w cyfrowych okolicznościach. Tak zaprojektowany model, powtórzę, można było z powodzeniem wykorzystywać (w różnych wewnętrznych jego strukturalizacjach i ujęciach dyscyplinarnych – od analizy semiotyki medialnego przekazu po deterministyczne postrzegania technologii jako przekazu) jedynie wobec domeny mediów analogowych. Wobec natury cyfrowego i sieciowego świata, w którym hardware zyskał przeciwwagę w postaci software, ekosystem analogowych transmisji i reprezentacji został wystawiony na dziejową próbę, stając w obliczu sieciowości. W nowych okolicznościach, w których linearna percepcja mierzy się z interakcyjnością, materialne formy z wirtualnymi reprezentacjami, skończone kształty z nieustannym przetwarzaniem i remiksowaniem, istniejące schematy poznawcze przestają wystarczać do opisu komunikacyjnego świata.

Wraz z cyfrową zmianą pojawiały się także towarzyszące jej rekonstrukcje pojęć i teorii, dopełniające diagnozy o sytuacji postmedialnej. Matthew Kirschenbaum, amerykański humanista starający się interdyscyplinarnie przenikać istotę cyfrowości, wskazuje na potrójną naturę cyfrowych sytuacji medialnych. Mają one (1) wymiar fizyczny; są znakami i maszynami je transportującymi. Są jednocześnie (2) formatami logicznymi, co znaczy, że są to dane, które te maszyny rozpoznają, interpretują i przetwarzają. Są także (3) konceptami, czyli posiadają naturę bytów semiotycznych, aksjologicznych: są tekstami kultury [16]. W podobnym duchu wypowiada się inny amerykański badacz cyberświata Mark Hansen. Amerykanin jest przekonany, że teorie mediów cyfrowych potrzebują nowego punktu odniesienia, który będzie w większym niż dotychczas stopniu korespondować ze zmianami zachodzącymi w medialnym świecie. Hansen wskazuje na rosnące znaczenie procesów medialnych, które ani nie objawiają się postrzegającemu cyberprzestrzeń za sprawą jej interfejsów sensorium, ani nie dają się zamknąć w formie pojedynczych obiektów/reguł technologicznych. Tą nową kategorią jest procesualność mediów, która rozciąga je pomiędzy różnymi spiętymi w sieci przedmiotami technologicznymi w tle objawiających się użytkownikom wysuniętych na pierwszy plan działań i w ten sposób rozmywa ich uchwytną, skończoną formalnie postać. Stają się one coraz mniej wyraźne – ukryte przed przyzwyczajoną do zwykłych, analogowych i materialnych form, percepcją [17]. W identyczny sposób charakter postmedialnego środowiska interpretuje filozofka mediów Katherine N. Hayles, kiedy wskazuje na przykład na dynamiczny i złożony charakter ontyczny cyfrowej tekstualności:

Istnieją dane, programy, które je wywołują i przetwarzają, hardware, który na bazie swoich funkcjonalności te dane kompiluje i interpretuje. Potrzeba wszystkich tych elementów/etapów, aby udało się stworzyć tekst elektroniczny w jego dzisiejszej postaci. […] Z tego powodu lepiej interpretować go jako proces, a nie jako obiekt [18].

Takie wrażenie na temat medialnej nieprzejrzystości mają nie tylko sami medioznawcy. Bruno Latour, jeden z najbardziej uznanych diagnostów współczesności, rozważając przesunięcie od obiektów do procesów technologicznych zauważa, że ten ontologiczny zwrot prowadzi do wykształcenia się fantomowego oblicza nowych mediów w stosunku do sfery społecznej i kultury [19]. Obwody scalone, przełączniki, bramki, kable, protokoły, różne poziomy software, wyświetlacze i wreszcie pola magnetyczne i inne zjawiska związane z elektrycznością to przeplatające się nawzajem elementy tej fantomowej ontologii, z którą na co dzień, mniej lub bardziej świadomie, mamy do czynienia. W rezultacie postmedialny charakter zdematrializowanej informacji skutkuje podwójnie. Przedmiot przekształca się w obiekt medialnej reprezentacji. Zyskując taki status przekracza barierę tradycyjnie pojętej materialności, staje się swoim własnym odbiciem, abstrakcyjnym (wirtualnym) przedstawieniem i zapośredniczeniem. Skutek drugi bierze się z faktu dematerializacji transmitującego medium: skłonni przypisywać wartość materialną postrzeganym dzięki mediom przedmiotom/obiektom dematerializujemy w rezultacie samo medium. Medium, które działa niepostrzeżenie, które jest niewidzialne okazuje się pozbawione wymiaru materialności, kończy swój dotychczasowy żywot w materialnym świecie znaków, przedmiotów i zdarzeń [20].

Opisany powyżej przez teoretyków na różne sposoby hybrydyczny i procesualny, cyfrowy stan rzeczy to przede wszystkim wciąż niewybrzmiałe echa i rezonanse jednego z założycielskich sporów, który wytyczył charakter projektu cyfrowego. Chodzi o debatę wokół ontycznego charakteru informacji, której korzeni szukać trzeba jednak dużo głębiej niż tylko w cywilizacyjnej debacie dotyczącej komputeryzacji. Objawił się on najpierw w postaci dwóch przeciwbieżnych dążeń w nowożytnym dyskursie poświęconym wiedzy w najbardziej ogólnym jej znaczeniu: ku wiedzy abstrakcyjnej (matematycznej) oraz wiedzy namacalnej, mającej bezpośrednie potwierdzenie w percypowanej rzeczywistości. Z jednej strony matematyka i jej pochodne miałyby być myśleniem abstrakcyjnym, formalnie doskonałymi teoriami opisującymi złożoność natury świata. Z drugiej zaś poznawanie i myślenie skonstruowane w ten sposób domagało się potwierdzenia i weryfikacji wobec niedoskonałości wiedzy abstrakcyjnej zderzającej się z wieloma niewytłumaczalnymi, a przecież realnie doświadczanymi kondycjami świata. Ten problem stał się jednym z najważniejszych dla nowoczesnych nauk i sztuk – objawił się w nich jako dystynkcja pomiędzy teorią a empirią, sztuką reprezentacji i sztuką przedmiotów, szczególnego zaś znaczenia nabrał wraz pojawieniem się maszyn kalkulujących i cyfrowej reprezentacji rzeczywistości przez nie tkanej [21]. Problem ten na właściwym dla metateorii wiedzy i nauki poziomie skomentował, by przywołać tu jeden z najważniejszych współczesnych autorytetów, filozof i metodolog Paul Feyerabend w swojej głośnej krytyce hegemonicznej roli naukowego myślenia abstrakcyjnego:

Abstrakcja wydaje się być negatywnym zwyczajem: realne właściwości fizyczne, kolory, temperatura, tarcie, opór powietrza, krążenie planet są w tym typie myślenia pomijane [22].

Jaką kondycję proponują nowe, cyfrowe media? W codziennym krajobrazie miejsce stałych i percypowalnych w tradycyjny, obiektowy sposób maszyn i tekstów medialnych zajmują ich cyfrowe ślady, tj. medialne procesy, obliczenia nieustannie dokonujące się pod powierzchnią interfejsów, sieciowe transfery danych we wszystkich możliwych kierunkach, negocjacje protokołów (ping, IP, Cookies). Ich obecność konstytuuje takie nowe formy technologicznego krajobrazu, jak odbywające się przy bardzo ograniczonej wiedzy i kontroli ze strony użytkownika działania komunikacyjne pomiędzy urządzeniami (Internet rzeczy) czy serwisami i usługami software’owymi i sieciowymi. Analogowe przyzwyczajenia często stawiają nas wobec nich w mało komfortowej sytuacji, kiedy nieświadomi tego, co procesują, komunikują i interfejsują wykorzystywane przez nas urządzenia jesteśmy narażeni na niespodzianki i konieczność nieustannej uwagi na wielu poziomach percepcji. Boleśnie w sensie finansowym przekonało się na przykład o tej nieustannej i fantomicznej konektywności cyfrowych urządzeń połączonych z sieciami polskie społeczeństwo zauroczone nowymi liniami technologicznymi smartfonów, kiedy okazało się, że nieustannie komunikują się one z bazami danych operatorów, dostawców usług, producentów, sieciami społecznościowymi i wieloma innymi miejscami w sieciach. Użytkownicy tych urządzeń przez długi czas nie zdawali sobie sprawy z przebiegu tych ukrytych transmisji i transferów, za co operatorzy zacierając ręce wystawili im słone rachunki [23].

Przechodząc od medialnych obiektów do medialnych procesów doszedłem do kategorii software, czyli napędzanej dzięki elektrycznej i cyfrowej cyrkulacji zdematerializowanej informacji – danych. To kategoria, która stanowi o ontologicznej unikalności fenomenu nowych mediów i cyberkultury, zaś współcześni medioznawcy stawiają ją w centrum cyfrowej kultury, zaś samemu pojęciu przypisują miano kluczowego dla teorii kultury współczesnych mediów. Nie będę w tym miejscu z oczywistych względów nawet próbował zagłębiać się w definiowanie i analizy software, bo jest to problematyka, która domaga się samodzielnych opracowań i, jak wspomniałem we wstępie, w moim tekście funkcjonuje jako najważniejszy, choć mało wyraźny bohater drugiego planu. Przy różnych okazjach będę jednak do poszczególnych elementów software’owego uniwersum się odwoływać.

Kilka lat temu Lev Manovich, chyba najbardziej popularny z zajmujących się nowymi mediami badaczy i animatorów, ogłosił, że nadeszła epoka dominacji soft­ware w medialnym świecie i daleko poza nim, na terytorium szeroko rozumianej kultury. Software, powiada, przejmuje kontrolę nad materialnym wymiarem medialnej rzeczywistości, staje się – wraz z interfejsami – kulturową powłoką hard­ware i to jemu powinny się bez reszty oddać współczesne studia nad mediami, przekształcając się z media studiessoftware studies [31]. Matthew Fuller, jeden z inicjatorów kulturowych badań nad software i twórca kategorii software studies, definiując kulturę software, mówi o łączących się w niej różnych, nieposiadających ekwiwalentu w kulturze mediów masowych, warstwach cyfrowego świata. Angielski medioznawca wskazuje na trzy zasadnicze tropy kulturowe porządkujące obszar software. Są nimi: critical software, social software oraz speculative software. Wszystkim trzem przyjrzę się teraz bliżej.

Software krytyczny spełnia funkcję nadzoru nad software w ogóle. To oprogramowanie, które śledzi poczynania software, wyświetla jego kulturowe mechanizmy i obnaża polityki kodu, angażując użytkowników i programistów w krytykę cyfrowości, czyli odnajdywanie w niej wszelkich śladów i kodów normalizujących. Dzięki takiemu wykorzystaniu software cyberkultura podlega nieustannemu prześwietlaniu i ma szansę opierać się technopolowym zapędom. Przykładem takiego software jest wersja znanej gry Wolfstein, zrealizowana przez artystyczny kolektyw JODI. Cyfrowa „scenografia” tej gry w wersji krytycznej została zastąpiona wizualizacjami fragmentów cyfrowego kodu, które po przetworzeniu stwarzają scenerię gry [32].

Social software to fenomen, na który składają się dwa trudne do rozłącznego traktowania inne: wolne oprogramowanie (w tym ruch open source) oraz programowanie do użytku zbiorowego, część Web 2.0. Zasadą tego pierwszego jest tworzenie programów darmowych w przestrzeni publicznej, kolektywnie przygotowywane alternatywy dla wersji komercyjnych, które pozwalają na określone funkcjonalności w oderwaniu od tradycyjnych reguł rynkowych wynikających z obwarowanego szeregiem zależności, tradycji i reguł prawnych podziału ról pomiędzy właścicieli i konsumentów. Zasadą oprogramowania społecznego jest natomiast przejmowanie kontroli nad oprogramowaniem przez pozabiznesowe, pozasystemowe jednostki i społeczności. Dzięki takim działaniom przestrzeń cyfrowego kodu wciąż udaje się zachować od wchłonięcia w reżim wartości ekonomicznych – pozostaje otwartym tekstem kultury, który wspólnie piszą i redagują zainteresowani. Ma tu także miejsce agregacja i akumulacja kapitału społecznego w nowej, cyfrowej wersji [33].

Software spekulacyjny to natomiast oprogramowanie eksperymentalne, za pomocą którego możliwa jest eksploracja możliwości programowania w ogóle. W tej dziedzinie programiści ewaluują kodowe glitche, wirusy, malware, spyware, patche, błędy, ale także poszukują nowych rozwiązań społecznych i kulturowych sytuujących software w przestrzeni publicznej. Kategorią bliskoznaczną wobec spekulacyjności software jest strategia cyfrowego oporu i działania antysystemowego, która charakteryzuje środowiska i etos hakerski.

Poprzez swoją formalną otwartość i nominalnie egalitarny dostęp do zasobów kodu software może się rozwijać jako ważna dla kultury sytuacja postmedialna właśnie wtedy, kiedy wszystkie trzy wskazane przez Fullera jego domeny rozwijają się równolegle. Postmedialny charakter software bierze się z krytycznego oglądu i potencjału rekonstrukcji, który ta medialna warstwa oferuje wobec wszystkich poprzednich gramatyk i kodów medialnych oraz ekosystemu medialnego jako takiego. Bierze się także z dokonującej się pod naporem sił społecznych, reorganizacji tego ekosystemu i obecności w nim nowych, społecznych, graczy mających rzeczywisty wpływ na hierarchiczny dotąd, medialny krajobraz. Postmedialność software to także efekt możliwego w obszarze kodu nieustannego sprzężenia zwrotnego pomiędzy obecnymi formami oprogramowania a ich przyszłymi wersjami. Software jest formą otwartą, a zatem znajdującą się w nieustannie sprzężonym i zapętlonym procesie kodowania i jego hardware’owych implementacji.

Manovich i Fuller postrzegają software jak praktykę kulturową, w której mieszają się wszystkie dotychczasowe doświadczenia kulturowe i cywilizacyjne – zarówno związane z istniejącymi mediami i zapośredniczoną przez nie komunikacją, jak i wynikające z dorobku nauki, sztuki, urbanistyki, wojskowości, itd. Praktyka technologiczna i komunikacyjna software to konglomerat, w którym łączą się i stapiają ze sobą do granic rozpoznawalności sztuka, nauka i technika. Jaki jest efekt tego wymieszania? To znacznie więcej niż software rozumiany technologicznie jako zbiór instrukcji operacyjnych komputera. Kulturowe rozumienie software rozciąga się bowiem również na materializację i synergię kulturowych (w tym i medialnych) dyskursów, form i modalności, zderzenie przeróżnych procesów i dyskursów, technokulturowy asamblaż – jak powiedzieliby Deleuze i Guattari [34].

Tak zdefiniowany software to przestrzeń postmedialna, w której dochodzi do renegocjacji władzy i stosunków społecznych, kiedy biorące udział w jego tworzeniu, dystrybucji i implementacji grupy społeczne doskonale radzą sobie bez pomocy, pośrednictwa czy regulacji systemu politycznego i ekonomicznego (open software, social software). Za jego sprawą ma również miejsce postmedialna renegocjacja ustalonych pozycji antropologicznych na linii człowiek-technika, szczególnie zaś w zakresie antropologii i socjologii interfejsów medialnych. Wreszcie dzięki software wprawiane jest w ruch i podtrzymywane w tym dynamicznym stanie uniwersum cyfrowych danych. W rezultacie odmienia się zupełnie ich kultura, ekonomia i ekologia, pojawiają się nowe kształty i cyrkulacje informacyjne, takie jak kultura otwarta (open culture), alternatywne obiegi i społeczne cyrkulacje danych, sieci grupujące ich użytkowników, piractwo i dyskursy poświęcone dostępowi do danych i informacji [35].

Matteo Pasquinelli książkę Animal Spirits. A Bestiary of the Commons poświęca właśnie analizie stopnia barbarzyństwa dzisiejszej cyberprzestrzeni, zajmuje się postępującym w niej upadkiem obyczajów i chaotyczną destrukcją wszystkiego, co relacyjne i co społeczne[47]. Pasquinelli opowiada się za wizją skutków społecznościowej rewolucji zainicjowanej przez kulturowe i społeczne ruchy w cyberprzestrzeni przeciwną wobec najbardziej popularnej mitologii cyfrowej rewolucji. Tam, gdzie cyberoptymiści widzą nowy ład kultury i urzeczywistnienie najbardziej wzniosłych marzeń i stojących za nimi wartości społecznych, stawia diagnozę przeciwną. Zamiast demokratyzacji życia społecznego, elektronicznej sfery publicznej, emancypacji obywatelskiej, widzi sieciowe zdziczenie obyczajów, dokonujący się krok wstecz w rozwoju społecznym i mimowolne wyjście na manowce kultury. Elektronicznymi zachowaniami zbiorowości rządzić mają instynkty pierwotne (tytułowe animals spirits będące nawiązaniem do kartezjańskiego oryginału, czyli tchnień żywotnych). Przekładają się one na szereg działań nieracjonalnych, nieprzewidywalnych i trudnych do jakiejkolwiek kontroli, kiedy już się objawiają. W części wynikają one z natury ludzkiej egzystencji, jednak ich przyczyną jest także „klaustrofobia kodu”, czyli zapisane w gramatyce nowych mediów mechanizmy władzy, reguły ekonomiczne, ideologie, z którymi nie potrafią racjonalnie walczyć, ani ich omijać, zanurzeni w cyfrową rzeczywistość userzy reagujący nieposkromioną agresją i dzikością. Do tego dochodzą także i inne znane antropologom mechanizmy zachowań zbiorowych, związane z celebracją anonimowości czy zachowaniami „stadnymi”. W rezultacie, wyrokuje Pasquinelli, nie istnieją wyłącznie racjonalne, jednoznacznie integrujące i moralnie nieskazitelne praktyki w cyfrowym świecie – wręcz przeciwnie stopień zawartości animals spirits w przestrzeni cyfrowej narasta. Co więcej, objawiając się i kumulując się online zostaje tam utrwalony i zmultiplikowany, by następnie, na zasadzie pętli sprzężenia zwrotnego, powracać z większą siłą do świata offline, zmieniając go.

W konsekwencji idealizowana przez wielu apologetów i marketingowców współpraca i wspólne życie w sieciach i na platformach cyfrowych, zawiązujące się w nich relacje społeczne i reaktywująca się sfera publiczna, szerzej: wszystko, co mieści w zbiorze desygnatów kategorii networking, przypomina raczej stan notworking.

Nie sądzę jednak, aby społeczną „dzikość” i „świeżość” cyberświata można było wyjaśnić jedynie przez niedojrzałość społeczną jego mieszkańców i kierujące nimi, jak tego chce Pasquinelli, niskie pobudki i instynkty. Medialna rewolucja społeczna zapoczątkowana wraz z kulturową trajektorią technologii cyfrowych to projekt dopiero rozpoczęty, jeszcze młodszy niż sam cyfrowy ekosystem. Jest obecnie w fazie, w jakiej rewolucje zazwyczaj znajdują się na początku swojego impaktu. Widać zaledwie pierwsze nowo ustanawiane konfiguracje i przesunięcia, takie jak np. nasilające się „szabrowanie” struktury i „majątku” starego systemu: taki wymiar ma w dużej mierze piractwo. Z narastającą siłą objawiają się inne podobne partyzanckie strategie wywrotowe; tak działają spamerzy, hakerzy, niektórzy twórcy hardware (doi-it-yourself hardware), środowiska skupione wokół portalu wikileaks.org, które dzięki cyfrowym narzędziom i sieciowym formom komunikacji obnażają niedoskonałości istniejącego systemu, prześwietlając jego ekonomiczne, polityczne i militarne zasoby. Wreszcie coraz bardziej nerwowo czują się i zachowują w obronie swoich dotychczasowych pozycji także beneficjenci „analogowego” systemu medialnego, którzy wciąż jeszcze liczą na to, że to, co rewolucją bywa w ich odczuciu jedynie naiwnie i na wyrost nazywane, okaże się w rezultacie jedynie niewielką korektą zastanego stanu rzeczy. Tak to przecież zaplanowali inspirując i forsując mitologię o medialnej kulturze 2.0.

David Bollier, kolejny z krytycznych analityków praktyk sieciowych, twierdzi, że nawet proste i prymitywne zachowania w sieci mają jednak głębszy, w swej istocie pozytywnie kulturotwórczy sens. Bollier argumentuje, że powstaje na skutek tych zachowań „nowy gatunek” człowieka społecznego, który w przyszłości, kiedy osiągnie przypisaną mu dojrzałość i właściwie rozpozna swoją grupową siłę, zupełnie zreorganizuje sferę polityczną i publiczną. Dzisiejsze viral spiral, czyli chaotyczne i niestabilne społeczne moce uwalniane online, okrzepną, przekształcą się w nowego typu struktury i staną się podstawą budowania zupełnie nowego ustroju społecznego i systemu kulturowego, którego zasady wyznaczą dzisiejsze słowa-klucze opisujące wirtualne społeczności, takie jak wolny dostęp do zasobów kultury i technologii, nieograniczona cyrkulacja danych, uwolniona kreatywność . Rozedrgana i targana przygodnością faktura życia zbiorowego w sieci z czasem uspokoi się i okrzepnie. [48]

Nie sposób nie dostrzec, że jedną z przyczyn takiego rozedrgania, niezależnie od tego, jak oceniać można jego wpływ na kulturę, jest fakt, iż obecnie dominujące w cyfrowej przestrzeni media społecznościowe przejęły od swoich analogowych odpowiedników gotowe i sprawdzone modele działania. Wyznaczają one stany, które wchodzą w konflikt z typowo nowomedialnymi, rewolucyjnymi w zakresie, który mnie tu interesuje, regułami i wyobrażeniami. Facebook, Flickr, Youtube i wiele ich przeróżnych, mniej znanych odpowiedników pod pozorem otwierania się na potencjał kulturowy i społeczny oraz kreatywność swoich użytkowników okazały się efektywnymi ekonomicznie przedsiębiorstwami, które ucieleśniają dominujący w poprzedniej epoce medialnej model ekonomiczny. To jednak przedsiębiorstwa doskonalsze od fordowskich i postfordowskich standardów, bowiem masy są nie tylko w nich zatrudnione, ale dodatkowo same muszą za swoją pracę zapłacić. To „zatrudnienie” polega na wypełnianiu technologicznej infrastruktury własną treścią, nadawaniu jej semiotycznej powłoki. Miliony użytkowników serwisów „społecznościowych”, publikując swoje zdjęcia, filmy, klipy audio, nawiązując relacje, pisząc wiadomości i odbierając je, tworzą tu społeczną energię, wymierne zasoby i energię społeczną i symboliczną, które właściciele portali efektywnie monetaryzują i/lub przekuwają na konkretne zasoby polityczne, gospodarcze, ideologiczne. Społeczny potencjał obywateli zanurzonych w sieci jest najpierw darmowo pozyskiwany przez operujące portale, które następnie odsprzedają go z zyskiem na medialnym rynku – za pośrednictwem reklam, lokowania produktów – starego typu instytucjom, którym zależy na podtrzymaniu modelu kultury, gdzie główną rolę odgrywają producenci, produkty, sprzedawcy i konsumenci. Zysk, popyt i podaż. W ten sposób kapitalizm sprawnie zarządza oddolnymi działaniami użytkowników technologii medialnych i skutecznie je wykorzystuje. Jego mechanizmy z łatwością przedostają się do wewnątrz cyfrowego świata i reprodukują się w nowych okolicznościach w stary sposób. Użytkownicy płacą podwójną cenę za znalezienie się w takiej sytuacji: najpierw za sprawą wygenerowanych przez siebie zasobów, które napędzają sieciową infrastrukturę, a następnie po raz drugi, kiedy chcą korzystać z zasobów, powstających na bazie udostępnionego wcześniej przez nich kapitału kulturowego. Weźmy za przykład dowolny portal społecznościowy, w którym to użytkownicy, a nie redaktorzy generują treść. Jest ona dla nich dostępna, ale jedynie w ograniczonym zakresie w postaci forów, opinii, wymiany zdań, galerii, itd. Z sumy wkładów pojedynczych użytkowników wyłania się dla posiadaczy tych portali olbrzymia baza danych, którą można na niezliczone sposoby przeglądać, nawigować, strukturyzować – to rodzaj metawiedzy o użytkownikach, mającej bardzo wymierną wartość rynkową. Może być odsprzedawana firmom trzecim jako bazy adresowe, profile użytkowników, dane statystyczne, itd. Nie znam przypadku, kiedy portal podzieliłby się z użytkownikami zgromadzonymi w ten sposób środkami finansowymi – często słyszy się natomiast o możliwościach profilowania wyszukiwania, dystrybucji reklam, geolokalizacji usług, które wykorzystują przedsiębiorcy.

Sytuacja podwójnego „opodatkowania” i podwójnej nieuczciwości przejawia się także w inny sposób. Po pierwsze dlatego, że omamione opowieścią o wyzwoleniu i rewolucji masy użytkowników najczęściej ślepo brną w ten medialny scenariusz, udostępniając bezrefleksyjnie wiele danych na temat swojego życia, takich jak zdjęcia, dane personalne, preferencje estetyczne, ślady aktywności rynkowej (zakupy), zainteresowania. Po drugie dlatego, że nikomu nie zależy na „rozbrojeniu” tego mechanizmu. W sprawie zabezpieczenia interesów obywateli nie występują państwa ani ich wyspecjalizowane organy, w ograniczonym zakresie robią to artyści funkcjonujący w oficjalnym obiegu sztuki. Te i podobne zakorzenione w analogowym systemie siły mają z medialnym rynkiem wspólny interes. Ze względu na podobieństwo strukturalne (model masowego rynku mediów jest paralelny wobec klasycznego modelu władzy państwowej) są nawzajem swoimi zakładnikami. Wszystkim im sprzyja fakt kontroli wiedzy o obywatelach i użytkownikach technologii, każdy z nich swoją elitarną pozycję i możliwość sprawowania w ten sposób władzy zawdzięcza zawłaszczaniu i wykorzystywaniu społecznej energii i zasobów, które w dobrej wierze i/lub nieświadomie zostają uwolnione w przestrzeni cyfrowej. Destrukcja modelu systemu komunikacji masowej oznaczać będzie, w bardziej lub mniej rozciągniętej w czasie perspektywie, radykalne podważenie zaufania do systemu władzy państwowej i wszelkich systemów społecznych skonstruowanych w oparciu o podział na elitę i masę, wyzwoli chęć rewolucji już nie tylko komunikacyjnej, ale i analogicznej we wszystkich możliwych sferach[49].

Kondycję animal spirits można by na gruncie pojęć filozoficznych, wytłumaczyć jako opór, sprzeciw wobec losu animal laborans. W takiej kategorii pojęciowej Hannah Arendt dostrzega człowieka zmuszonego do pracy w warunkach nowoczesnej rewolucji przemysłowej (choć nie tylko), uznając go za zniewolonego, pozbawionego sensu człowieczeństwa. Nowoczesna praca jest w jej rozumieniu stosunków społecznych przeciwieństwem wolności i kreatywności. Można tę kategorię odnieść do zniewolenia medialnego epoki mediów masowych. Wówczas eksplanacja przeciwieństwa pracy i działania twórczego sięga do czasów antycznych kultur, w których wolny człowiek pracą obarczał swoich niewolników [50]. W sieciowej i cyfrowej rzeczywistości to impuls człowieka wolnego, kreatywnego popycha go do działań nawet barbarzyńskich, uznawanych przez system oficjalnej kultury za marginalia, manowce i dzikość. Podejmuje je jednak, indywidualnie i zbiorowo, jako wyraz buntu i taktyczną broń służącą wyzwoleniu spod kontroli i manipulacji systemu medialnego, w którym chce na nowo odnaleźć się jako podmiot samostanowiący o sobie i twórczy.

Z powyższej argumentacji wynika, że utożsamianie projektu mediów 2.0 z ideą mediów społecznościowych/społecznych nie jest jednoznaczne. Stan postmedialny, który tu rozumiem jako osłabienie wyrazistości poszczególnych form medialnych, połączony ze stapianiem się medialnych języków w cyfrowy metajęzyk komunikacji medialnej narasta równolegle ze społeczną emancypacją wobec opresyjnego ideologicznie kodu technologii medialnych, to jest z rosnącą świadomością medialnego zapośredniczenia w ogóle i krytyczną świadomością poszczególnych mediów i zdolnością do rozpoznawania ich unikalnych gramatyk oraz dystansowania się wobec nich w praktyce kultury. O ile jednak proces znikania i stapiania się mediów jest zjawiskiem postępującym niezwykle szybko, o tyle zbiorowa świadomość emancypacji technologicznej dopiero się rodzi i na razie opiera się na mało dokładnych intuicjach.

Wpływowy holenderski krytyk Internetu Geert Lovink jest przekonany, że obecne stadium tzw. mediów społecznych pod szyldem 2.0 to sprawnie wyreżyserowane przez medialne korporacje działania, których zadaniem jest pozyskanie jak największej liczby danych o użytkownikach Internetu i nowych technologii. Media 2.0 są infrastrukturą nasłuchującą i tworzącą bazy danych, które potrzebne są do podtrzymywania modeli biznesowych w cyfrowym świecie – odwołam się raz jeszcze do tego wątku moich analiz. Dyskursywnej i społecznej zarazem niemocy mediów 2.0 dowodzi zdaniem Lovinka „tragedia komentarzy”, czyli ich zupełny brak w przeważającej ilości sieciowych miejsc dialogicznych. Zamiast nich doskonale funkcjonują działania i dyskursy pozorne, znaki faktycznych działań, dla których ikonami są przycisk „lubię to” na Facebook.com czy ćwierknięcia na Twitter.com [51]. Powstające w ten sposób dane, kapitał społeczny, okazują się jedynie kapitałem ekonomicznym, który służy interesom wchodzącym w jego posiadanie dostawcom infrastruktury. Praw do niego już z chwilą współtworzenia pozbawiani są zaś jego twórcy, którzy dla przykładu nie mają możliwości usunicia z Facebook.com trwale swojego profilu. Wraz z tymi prawami tracą oni także możliwości posługiwania się nim w inny, niż przewidziany przez dostawców, sposób. Niedawno głośna była seria wirtualnych samobójstw dokonywanych przez użytkowników na swoich społecznościowych profilach w proteście przeciwko polityce tych firm wobec danych użytkowników. Portale skutecznie zablokowały te subwersywne działania [52]. Wrócę do tematu pozyskiwania w ten sposób danych w części poświęconej postmedialnej roli baz danych.

Jeśli jednak media 2.0 nie spełniają kryteriów, które można by postawić wobec projektu mediów społecznych, to czy cyfrowe technologie połączone w sieciach mają szansę wyrwać się z uścisku technopolu i stać się faktycznie przestrzenią społeczną nowego typu, którą cechować będą przymioty wolności, otwartości, kreatywności, itd.? Sądzę, że obecny etap komercyjnie i politycznie inspirowanych i dyskretnie koordynowanych ruchów pseudospołecznościowych cechują dwa stany, które są charakterystyczne dla postmedialnego zwrotu. Po pierwsze, kontrola technopolu nie jest już tak skuteczna, jak w przypadku mediów masowych – w szczelnym dotąd systemie zdarzają się poważne wycieki i uszkodzenia, których nie da się już starymi metodami eliminować. To wspomniane wikileaks, działania hakerów, dziennikarstwo obywatelskie, piractwo. Po drugie, to interaktywność nowych technologii i egalitarny charakter cyfrowego kodu, do którego manipulacji i implementacji w formie software i protokołów mają zasadniczo dostęp wszyscy zainteresowani dysponujący odpowiednimi kompetencjami. Dostęp do kodu i możliwość użycia go wedle własnej wiedzy, wyobraźni i możliwości uruchomiły rzeczywistą emancypację technologiczną na niespotykaną wcześniej skalę. Skorzystanie z jej możliwości nie jest jednak ani automatyczne, ani proste. Wymaga wiedzy, której nie da się nabyć przez dekodowanie zawartości tych mediów. Potrzebne jest tu dekodowanie samych technologii i sterującego ich działaniem kodu, a to kompetencje, których wyrobienie wymaga przewartościowania w obszarach wiedzy, edukacji, wyobraźni kulturowej, prawa. Jeśli projekt cyfrowy można rozpatrywać w kategoriach uspołecznienia technologicznego środowiska komunikacji zbiorowej, to polem dla takiej refleksji jest właśnie ta emancypacyjna siła cyfrowych reguł, które do nikogo nie należą, nikogo nie preferują, nie mają formalnych ograniczeń. Można je opisać oczywiście jedynie na najbardziej fundamentalnym poziomie gramatyki technologicznego języka cyfrowości, gdzie istnieją cyfry i ich logika, czyli matematyka, oraz elektryczność jako przedmiot materializujący działania matematycznej abstrakcji. Wszystko, co istnieje w tym projekcie powyżej owego bazowego poziomu, jest już polityczne, wchodzi w reakcję z istniejącym systemem – staje się kwestią ekonomii zasobów kultury, społecznego systemu ról komunikacyjnych, regulacji prawnych, itd. Tylko towarzyszące rozwojowi technologicznemu nowego typu kompetencje medialne mogą tu zagwarantować faktycznie uspołecznioną kulturę mediów.

Niezależnie od skuteczności tego uspołeczniania w warunkach cyfrowych jasne jest, że narracja poświęcona temu zjawisku dotyka jednej z najważniejszych cech medialnego ekosystemu. W medialnej wyobraźni utrwalił się podział na media i ludzi, który jest przedłużeniem generalnej opozycji charakteryzującej relacje system-obywatele, rządzący-rządzony. Ta opozycja wyznaczyła m.in. charakter dwudziestowiecznej wiedzy o relacjach mediów, kultury, społeczeństwa i człowieka. Przywołam w tym miejscu raz jeszcze kluczowe dla tego dyskursu kategorie pojęciowe, które precyzyjnie wyrażają wspomniane zależności: technopol, kultura masowa, homogenizacja, konsumenci, bierność, masa. Wszystkie one rozpoznają, w cieniu teoretycznych ustaleń Karola Marksa, technologie medialne jako narzędzia społecznego wyzysku, dominacji i manipulacji. Za takimi diagnozami stoi przeważająca większość autorów liczących się dla dyskursu poświęconego splotowi mediów, kultury i społeczeństwa, takich jak: Walter Benjamin, Theodor Adorno, Heiddeger, Guy Debord, Jean Baudrillard, Noam Chomsky. Trudno tak inspirowanej wyobraźni uciec od postrzegania medialnego krajobrazu przez pryzmat społecznego i politycznego uwikłania technologii medialnych. Ukształtowane w duchu krytycznych narracji przekonanie o nieustannym konflikcie posiadaczy środków komunikacji i ich użytkowników obecne jest w związku z tym nieustannie w nieodłącznej „pamięci podręcznej” życia zbiorowego. Spór o władzę nad techniką i mechanizmy jej kontroli definiuje kondycję społeczną, jest jednym z wyznaczników społeczeństwa demokratycznego, otwartego i wolnego, ustawia linię wyobrażonych i rzeczywistych podziałów.

Spór o technikę zakorzenił się w wyobraźni społecznej i kulturowym dyskursie tak głęboko, że jego założeń nie są w stanie naruszyć ani radykalne zmiany technologiczne, które odmieniły oblicze technologii medialnych (cyfrowość, sieci i nowe media), ani rynkowe i polityczne narracje opiewające medialną „wiosnę ludów”. Rzeczywistość społeczna będzie się w tym zakresie zmieniała wolniej od okoliczności politycznych i technologicznych, stosowne zmiany zostaną społecznie wychwycone z czasem i dopiero wtedy status technologii komunikacyjnych ma szansę na zmianę. Analogiczny los spotka zapewne wyobrażenie o obywatelu zanurzonym w medialny świat. Postrzega on i rozumie siebie jako medialnego partyzanta, który znajduje się po przeciwnej niż technologia stronie barykady i stara się medialne maszyny, języki i ekosystem przechytrzyć, wykorzystać i/lub ośmieszyć. Z tego stanu rzeczy wywodzą się wszystkie najpopularniejsze medialne scenariusze rozpoznawane przez antropologów, takie jak przywołane „dzikie instynkty” piractwa, hakingu, anonimowych działań stadnych. Te wszystkie elementy współtworzą taktyczny opór wobec medialnego systemu i jego strategii, jakby to można określić odwołując się do terminologii Michela de Certeau.

W tej sytuacji kluczem do zrozumienia potencjału cyfrowej zmiany może okazać się poziom indywidualnych relacji z medialnymi technologiami. Jeśli wyjść poza narrację społecznego konfliktu o media, ich język, zasoby, ideologie, itd., wówczas dyskurs o medialnej rewolucji warto zdyskontować na polu antropologii mediów. Jak wspomniałem, generalny konflikt o media zawiera w sobie dualizm figur przypisywanych jednostkom, które stają w obliczu medialnego świata. Dyskurs poświęcony analogowej kulturze masowej uprzedmiotowił kulturowy podmiot, obarczając go cechami bierności, konsumeryzmu, podatności na manipulacje i nazywając nieznaczącym fragmentem masy, biernym konsumentem (teoria kultury masowej). Z czasem te jednoznacznie brzmiące określenia złagodzono pod postacią prosumenta, czyli aktywnego konsumenta (Toffler), odbiorcy świadomego i partyzancko walczącego z dominującą siłą medialnej ideologii na poziomie semiotycznym (studia kulturowe), współtwórcy przekazu (Eco, Barthes). Wreszcie w mitologii cyfrowej rewolucji upokarzana i niedoceniana w epoce mediacji masowych jednostka ustawiona zostaje w centrum medialnego ekosystemu. Wciąż jednak to „ja” nie istnieje tu bez „my”. Nie ma go bez społeczności, którą współtworzy i która go w medialnym świecie legitymizuje.

Sytuacja mediów cyfrowych nie da się na tym etapie jasno zdefiniować jako rewolucja społeczna w obszarze komunikacji. W polu technologii wciąż obecne są siły analogowego systemu mediów masowych, które funkcjonują według formuł wypracowanych w okolicznościach upolitycznienia technologii medialnych i instrumentalnego z nich korzystania. Szansą na przezwyciężenie społecznego wywłaszczenia z obszaru technologii komunikacyjnych może okazać się nie partyzancka o nie walka prowadzona na zasadzie redefiniowania kształtu obiegu cyfrowych zasobów, tworzenia i korzystania z software, hardware i interfejsów ale odwrót od myślenia o medialnym świecie jedynie w kategoriach zbiorowych i specyficzny zwrot ku historycznej figurze medialnego rzemiosła. Technologie cyfrowe nie dość, że mają w sobie potencjał zaspokojenia takiego roszczenia, to jeszcze mogą stać się narzędziami faktycznego budowania tego, co społeczne, a nie tylko polityczne czy ekonomiczne. W tym celu potrzebna jest nowa komputeryzacja, która będzie mieć zrewidowany społecznie charakter. Polegać będzie na odrzuceniu fetyszu samodzielnych maszyn i niezgodzie na ich szczególną pozycję w hierarchicznym systemie społecznym. W to miejsce pojawi się ekosystem medialny stawiający w centrum człowieka, a wokół niego medialne narzędzia. To iście kopernikański zwrot.

Trzecim z elementów wyznaczających charakter postmedialnej zmiany jest człowiek i jego biologiczne i psychofizyczne cechy. W cyfrowych okolicznościach staje on naprzeciwko dwóch postmedialnych sytuacji. Pierwszą jest przeniesienie doświadczenia medialnego ze sfery percepcji do sfery interakcji. Drugą zaś przekroczenie szeregu granic o charakterze biologicznym, które dotąd wytyczały terytorium komunikacji i kultury. Sytuacja postmedialna oznacza dla niego wejście na powrót w renesansową integralność doświadczenia medialnego (kulturowego) oraz konfrontację z niedostrzeganymi wcześniej biologicznymi reżimami komunikacji.

Postmedia można w kontekście antropologicznym określić synonimicznie: media wyobrażone. Za sprawą interaktywnych software i interfejsów możliwe jest ich bezpośrednie i niemal nieograniczone formalnie (granicą są tu jedynie parametry hardware), dokonujące się w czasie rzeczywistym, sprzężenie z procesami myślowymi. Domena cyfrowa funkcjonuje na zasadzie nieustannie zapętlonego sprzężenia wyobraźni, języka i medialnej materii: interfejsów, kodu i baz danych. Wyimaginowane idee, fantazje, marzenia, utopie transformują się tu natychmiast w modele symboliczne, czyli wyrażenia językowe (kody kultury) i w dalszej kolejności interferują z materią cyfrowego systemu. Taka relacja pomiędzy wyobraźnią, językiem i materią dotyczy nie tylko programistów, projektantów czy inżynierów, którzy są w stanie dzięki swoim umiejętnościom rozmawiać z technologiami i formować je. Dotyczy także zwykłych jej użytkowników, którzy coraz sprawniej dysponują specjalistycznymi umiejętnościami i mają dostęp do coraz większej ilości zakodowanych w nich zasobów. Obowiązuje tu nieustanny loop transferów danych, obliczeń i sterujących nimi „zasobów” ludzkich. Miękka część cyfrowych mediów, czyli software i interfejsy, to ni mniej ni więcej jak tylko zakodowane i utrwalone cyfrowo wyobraźnia i wnikające/wynikające z niej, odbite i zamrożone w medialnych formach procesy myślowe.

Wejście w cyfrowy świat właśnie z tego powodu okazuje się tak bardzo angażujące – dowodzą tego np. doświadczenia z grami komputerowymi czy programowaniem, którym to czynnościom oddający się potrafią się zupełnie zapomnieć, tracąc kontakt z rzeczywistością offline. Tak wysoki i rozbudowany poziom zaangażowania był dla wcześniejszych form medialnych nieosiągalny. Żadna z nich nie mogła przecież zaoferować dwustronnej wymiany pomiędzy sobą a użytkownikiem, tak namacalnego i uchwytnego w czasie związku przyczynowo-skutkowego i potencjału interaktywności. Żadna z nich nie była w stanie zaangażować w takim zakresie swojego użytkownika w negocjacje własnego programu, definiowanie samego siebie – pozyskiwała jego wyobraźnię tylko w trybie „czytaj”, nie pozwalając mu „pisać” [56]. Wcześniejsze, analogowe kształty wyobraźni medialnej koncentrowały się na odczytaniu (dekodowaniu, dekonstrukcji) medialnego przekazu i jego formy. Wyobraźnia postmedialna pracuje natomiast w dwóch trybach jednocześnie. Potrafi jednocześnie percypować i kreować medialny świat; nie tylko przygląda mu się ale i wizualizuje go; słucha, ale i (d)opowiada go; dotykając czuje, ale i informuje, kształtuje.

Medialna wyobraźnia jest dla komunikacyjnego i technologicznego uniwersum odpowiednikiem tego, co w nauce określa się mianem teorii. Teorie są modelami zdarzeń, interpretacjami rzeczywistości i jej projekcjami poszukującymi uniwersalnych prawd i kształtów. Dla nowoczesnej nauki i tworzonej przez nią wiedzy teorie okazują się fundamentem – nieraz wyprzedzają rzeczywistość, którą nauka tradycyjnie zwykła analizować za pomocą eksperymentów, obserwacji i doświadczeń. W nowoczesności, wraz z rozwojem technologii opartych na elektryczności (w tym także i mediów, bowiem historia współczesnych mediów i historia elektryczności są nierozłączne – zagadnieniu temu poświęcę część kolejnego rozdziału), tradycyjna kolej rzeczy została odwrócona. Stało się tak po raz pierwszy za sprawą szkockiego fizyka i matematyka Jamesa Clerka Maxwella, który w XIX wieku przewidział/matematycznie udowodnił istnienie fal elektromagnetycznych. Potrzeba było kilkunastu lat, aby istnienie tego, znanego jedynie w teorii, zjawiska eksperymentalnie potwierdzić. Udało się to dopiero Heinrichowi Hertzowi [57]. W naukach ścisłych od tego czasu teoretyczne rozpoznania świata i praktyczne działania tłumaczące jego tajemnice stały się równoprawnymi, uzupełniającymi się, ale i wzajemnie ze sobą konkurującymi metodami. Podobny los spotkał słynne równania Einsteina, które, prawdziwe w teorii już za czasów jego życia, okazały się nieweryfikowalne w praktyce jeszcze przez długi czas. Dopiero Kurt Gödel zweryfikował ich prawdziwość w odniesieniu do praktyki. W domenie cyfrowej empiryczna praktyka odpowiadałaby ontycznej logice hardware, zaś teoria – realizowana w postaci logiki działań na cyfrowych symbolach, czyli matematyki – warstwie software. Będę wracał jeszcze do tego specyficznego podziału na teorię i praktykę zarówno w nauce, jak i w obszarze technologii medialnych, ich splot i różnica pomiędzy nimi to jeden z najważniejszych czynników definiujących kulturowe kody technologii cyfrowych i regulujących rolę i kształt medialnej wyobraźni.

Myśl o mediach wyobrażonych zainspirował dla teorii mediów niemiecki badacz Siegfried Zielinski w swojej archeologii mediów [58]. Zielinski sięgnął w niej w technologiczną i dyskursywną przeszłość mediów, odnajdując w niej niepodjęte lub podjęte w niewystarczającym zakresie formy, idee i kierunki rozwoju form technologicznych. Zainteresował się genetycznymi kodami stojącymi za poszczególnymi medialnymi formami, doszukując się płynności, wymienności i nieustannej transformacji w ich ewolucji. Śladami Zielinskiego podążają dzisiaj liczni badacze kultury mediów, ale też – mniej lub bardziej świadomie – ich budowniczowie. W tajemniczym co do formy i odważnym merytorycznie tomie Book of Imaginary Media zebrani autorzy, teoretycy mediów, poszukują medialnych konstrukcji i gramatyk mediów różnych od tych, które dotąd udało się cywilizacji stworzyć. Są przekonani, że bogata historia form medialnych była, jest i pozostanie niepełna – podobnie jak społeczności, tak i media są jedynie w części realne, a w części imaginacyjne. Formy imaginacyjne, choć nigdy niezmaterializowane, objawiały się „wirtualnym” życiem w zbiorowej wyobraźni i często miewały na nią konstruktywny wpływ[59]. Możliwa jest ich zdaniem alternatywna historia mediów, a zatem i ich krytyczna (transtechnologiczna i transmedialna) archeologia. Kategoria mediów wyobrażonych odnosi się już nie tylko do retrospektywnego spojrzenia na wielowymiarowe dziedzictwo medialnego świata: ma także zwrot ku przyszłości, wskazuje na media potencjalnie istniejące, formy „w budowie” i połączone z nimi dyskursy kulturowe i technologiczne, które dopiero nabierają siły i docelowego zasięgu.

Jeszcze jedną z prób pojęciowego wskazania na przenikanie i zależności, na rozciągniętą perspektywę rozumienia kodu, software i medialnej wyobraźni, kształty nowego alfabetyzmu można odnaleźć w polskiej literaturze poświęconej tematyce cyberkultury i społecznej obecności cyfrowych technologii komunikacyjnych. Mam na myśli neologizm mindware, który powołali do życia wspólnie artyści nowych mediów, krytycy i animatorzy społeczni wraz z teoretykami kultury w ramach festiwalu Mindware. Technologie dialogu. Był ono dla nich słowem-kluczem służącym do opisania i zrozumienia zmieniającej się rzeczywistości kulturowej, w której coraz większe znaczenia mają cyfrowe technologie. Przenikają one do życia społecznego, stają się ważnymi formami służącymi w pracy artystycznej, są także narzędziami społecznej inżynierii i zmiany. Mindware znaczy w tym kontekście tyle, co struktury myślenia, wyobraźni i wrażliwości kulturowej, w które wyposaża się przez kontakt i używanie nowych technologii każdy ich użytkownik. Mindware to „oprogramowanie” wyobraźni, system operacyjny kultury. Logika myślenia o kulturze cyfrowej i sobie samym w niej[60].

Powróćmy do rozważań na temat medialnej wyobraźni. To nie tylko instancja konstytuująca indywidualne doświadczenie postmedialnego świata i pozwalająca na poruszanie się w nim. To również kategoria kulturowa, która obejmuje wrażliwość i kompetencje komunikacyjne w skali zbiorowej – synergiczna suma wyobraźni jednostkowych. Zaproponowane przeze mnie rozumienie postmediów i kondycji postmedialnej wspiera się w zasadniczy sposób właśnie na wartości analitycznej obecnego w gruncie rzeczy od niedawna w dyskursie humanistycznym pojęcia imaginariów społecznych. Tę specyficzną kategorię poznawczą ugruntowali we wspomnianych naukach Benedict Anderson, wykorzystując ją w studium poświęconym problemowi nacjonalizmu z początku lat dziewięćdziesiątych zatytułowanym Imagined Communities [61], oraz Charles Taylor w głośnej diagnozie społecznej, wydanej dekadę później, zatytułowanej Modern Social Imaginaries [62]. Sens tego pojęcia poszerzył także włoski filozof-marksista Paolo Virno za sprawą ukutego przez siebie terminu ogólnego intelektu [63]. Zbiór wspólnych desygnatów dla obu tych kategorii odwołuje do instynktów rządzących myśleniem i zachowaniem zbiorowości, posiadanych przez ich członków kompetencji, modeli symbolicznych i kodów, przy użyciu których postrzegają, rozumieją i kształtują swoje otoczenie. Dla przywołanych teoretyków status wyobraźni potwierdzają choćby takie elementy, jak wyobraźnia tworząca projekt moderny, wyobraźnia emancypacji, czy wcześniej wyobraźnia religijna. W warunkach nowoczesnego, tj. wyemancypowanego, zurbanizowanego, urynkowionego i posługującego się zaawansowanymi technologiami zbiorowej komunikacji społeczeństwa to właśnie element zbiorowej wrażliwości i wyobrażeń/wyobraźni staje się jednym z kluczowych konstytuantów życia społecznego. Jego ważnym podsystemem jest wyobraźnia medialna i komunikacyjna, która w obliczu epoki cyfrowej i elektrycznej staje się w związku z tym jednym z najważniejszych rezerwuarów sterujących postawami i działaniami komunikacyjnymi.

Bezpośredni link pomiędzy technologiami cyfrowymi a wyobraźnią ich użytkownika/użytkowników to powód, dla którego sytuację postmedialną można opisać za pomocą pojęcia mediów wyobrażonych. Społeczeństwa, kultury, narody obcujące z cyfrową i sieciową zmianą powoli uczą się mówić językiem mediów, wykorzystywać je jako aparat komunikacji z systemami władzy (wikileaks), ekonomii (open source) i samych hierarchicznych mediów (dziennikarstwo obywatelskie). W tym ogólnym sprzężeniu dostępne są formy mniej lub bardziej radykalnego połączenia, z których chyba najbardziej jaskrawą jest projekt rzeczywistości wirtualnej – wirtualności, dla którego modus operandi jest wyobraźnia starająca się na bazie niedoskonałych technologicznie reprezentacji świata zbudować pełnowymiarowy model świata przeżywanego.

Pierwsze słownikowe wyjaśnienia terminu wirtualny odwoływały się do czegoś, co jest wytworem wyobraźni i powstaje w mózgu. Dopiero potem semantyka tego terminu ewoluowała w kierunku światów istniejących dzięki maszynom cyfrowym, powoływanym za ich pomocą do życia. Wciąż jednak pojęcie to odnosi się przede wszystkim do sprzężenia pomiędzy tym, co wyobrażone na poziomie biologicznym i egzystencjalnym, a tym, co jest tego cyfrową reprezentacją i medialnym modelem [64]. Według Jeana Baudrillarda, jednego z najważniejszych znawców relacji pomiędzy rzeczywistością a jej medialnymi modelami/kopiami, wirtualne jest to, co jest bezpośrednią projekcją rzeczywistych doświadczeń do wewnątrz języka technologii medialnych. Wirtualność to cyfrowy projekt, którego wczesną charakterystykę (tj. w okresie kiedy miała ona status osobnego medium) można dziś (w fazie kiedy przeważająca większość cyfrowych systemów i protokołów poddana została wirtualizacji) uznać za kondycję właściwą mediom cyfrowym w ogóle. Wraz z ich wirtualizowaniem dystans pomiędzy medialnym doświadczeniem a medialną wyobraźnią został radykalnie zredukowany. Do poziomu, który, jak wspomniałem, w kontaktach z poprzednimi gramatykami mediacji był nieosiągalny.

Permanentne wpięcie w medialny ekosystem potencjału wyobraźni kulturowej i możliwość jednoczesnego czytania/pisania mediów/mediami to sytuacja, która z jednej strony powoduje nieustanne testowanie i weryfikowanie form mediów i ich bieżącą rekonstrukcję/programowanie prowadzące do ich remiksowania i zanikania. Z drugiej strony sprzyja zacieraniu się w kulturze konceptu mediów jako takich. W ten sposób niezależnie od kontekstu społecznego i technologicznych scenariuszy również w obszarze wyobraźni kulturowej media rozpływają się i znikają, wypełniając w ten sposób warunki kondycji postmedialnej. W miejscach wyraźnych materialnych medialnych kształtów i gramatyk ostają się tylko ich pojedyncze elementy składowe, które wchodzą w różne reakcje pomiędzy sobą.

W tajemniczym co do formy i odważnym merytorycznie tomie Book of Imaginary Media jego autorzy, teoretycy mediów, skupili się na poszukiwaniu medialnych konstrukcji i gramatyk mediów różnych od tych, które dotąd udało się naszej cywilizacji wypracować. Są przekonani, że bogata historia form medialnych była, jest i pozostanie niepełna – podobnie jak społeczności, tak i media są zawsze jedynie w części realne/ukończone, a w dużej części wyobrażone/imaginacyjne. Nie brak w pracy świadectw medialnych konfliktów, które, wielokroć przypadkowo, pozycjonowały w kulturze technologie mniej ciekawe i obiecujące kosztem tych doskonalszych (np. konflikt VHS kontra BETA)[65]. Ich zdaniem możliwa jest w konsekwencji alternatywna historia mediów, a zatem i ich krytyczna, transtechnologiczna i transmedialna archeologia. Zadaniem jej byłoby odsłanianie alternatywnych medialnych kultur zarówno tych opartych na istniejących formach technologicznych, jak i mediów niezmaterializowanych kulturowo, które zniknęły w mrokach przeszłości, zanim jeszcze na dobre wypłynęły na powierzchnię komunikacyjnej historii. Technologiczny świat mediów poddany rządom społecznej wyobraźni jawi się w analizach tego typu jako konstrukcja płynna, której kształty i losy dyktują nie tylko same technologie, odgórnie przypisane do nich polityki i estetyki, ale także społeczno-kulturowe odczytania i wynikające z nich reguły mocujące te media w systemie społecznym, ostatecznie formatujące ich oblicza i trajektorie.

W podobnym duchu na historię mediów spogląda Bruce Sterling, twórca jednego z najbardziej ciekawych projektów sytuujących się na pograniczu archeologii mediów, ich teorii i sztuki, o nazwie Dead media project[66]. Sterling kolekcjonuje media upadłe/niezrealizowane, które z różnych przyczyn wyskoczyły z kulturowych torów, zostały porzucone przez swoich twórców/promotorów czy po prostu zastąpione nowszymi wersjami/interfejsami. Zbiorowym kustoszem tego projektu, obok samego Sterlinga, są wszyscy zainteresowani, dla których została przewidziana rola polegająca na opisywaniu (forma notek tekstowych) i wspólnym katalogowaniu wybranych mediów. Realizowany w ten sposób alternatywny i wyobrażony „skansen” technologii medialnych ma nie tylko znaczenie muzealne, polegające na utrwaleniu niemainstreamowej historii form i gatunków medialnych. To także archeologia, która odsłania niespełnione, wyciszone czy zbyt śmiałe pomysły i wyobraźnie komunikacyjne wraz z kryjącymi się za nimi „interfejsami”, „software” i „hardware” historycznych prawideł, wrażliwości, wiedzy i możliwości. To podróż pomiędzy medialnymi światami utraconymi, wymarzonymi i odzyskanymi; pomiędzy formami, językami i kształtami istniejącymi nieraz tylko w wyobraźni, a czasem przez tę wyobraźnie odrzucanymi, niemieszczącymi się w jej ówczesnych strukturach i kodach. To także doskonały trening uszczegóławiania, kompilowania, remiksowania i loopowania medialnych form, który służy jako poligon doświadczalny dla wszelkich prób myślenia mediami i odnajdywania się w warunkach kondycji postmedialnej. Tu wszystkie media są potencjalnie możliwe, a jednocześnie każde z nich próbuje ustawić się ponad innymi, zawłaszczyć istniejące. Umarłe media dzięki Sterlingowi stały się zapowiedzią i przedmiotem nieustannej de- i re-konstrukcji właściwej postmediacjom.

Taka archeologia i paleontologia mediów odsłania medialne i komunikacyjne imaginaria towarzyszące pojawiającym się technologiom. Tym tropem wyraźnie podąża w swojej teorii/archeologii mediów Siegfried Zielinski. Niemiecki filozof poszukuje płynności i kontynuacji ich form i reguł, sięgając do historycznych zdarzeń, sił i procesów, w które technologie komunikacyjne bywały i wciąż pozostają uwikłane. W myśl tej historycznej perspektywy medialne technologie i ich społeczne otoczenie zawsze były i wciąż są funkcją zbiorowych imaginariów komunikacyjnych. Ich ostateczna kulturowa postać zależna jest od wrażliwości, kompetencji i potrzeb komunikacyjnych w danych okolicznościach kulturowospołecznych. Jednak im bardziej widoczne samo medium, im trudniejszy jego język, tym bardziej owa wyobraźnia bezbronna i powolna w działaniu i zderzeniu z nim. Choć to oczywiście teoria dalece bardziej złożona i przenikliwa, to w kontekście moich rozważań nad wyobraźnią medialną ograniczę się do stwierdzenia, że im bardziej medium angażuje swojego użytkownika, tym większa rola samej wyobraźni [67]. Można również uznać, że archeologia mediów jest w dużej mierze archeologią społecznej wyobraźni – a zatem i archeologią kultury/komunikacji.

W sytuacji postmedialnej, powtórzę, wszystkie potencjalne media są możliwe i dostępne za sprawą wywołania ich form w środowisku cyfrowym, tj. programistycznego odwzorowania czy zaprojektowania ich języka na bazie nieskończonych możliwości kombinatorycznych kodu zer i jedynek, oraz przypisania tak powstałym formom software’owym odpowiednich interfejsów wywoławczych, ubrania ich w zrozumiałe, swojskie szaty użytkowe. To kolejny element medialnego sprzężenia technologicznych form mediów z kulturową wyobraźnią. W ekosystemie cyfrowym wyobraźnia staje się jednym z niewielu metazasobów (zasobników) kulturowych gotowych do natychmiastowego wykorzystania i programowania zarówno w skali indywidualnej, jak i zbiorowej. To magazyn kulturowej pamięci. Kształt i szybkość/sens działania mediów cyfrowych pozostają w coraz większym stopniu funkcją sprzężenia z tą wyobraźnią.

Medialne wyobraźnie i wrażliwości komunikacyjne oraz mające w nich źródła imaginaria, czyli pojedyncze, utrwalone w czasie, miejscu i formach medialnych wyobrażenia, przekładają się na zespół kompetencji i reguł komunikacyjnych, kształtują medialną wrażliwość i budują dystans wobec mediacji w ogóle. W literaturze anglosaskiej obszar ten zwykło się określać mianem literacies, natomiast najbardziej chyba zasadnym polskim ich odpowiednikiem jest, według mnie, kategoria alfabetyzmów. Pojęcia te opisują sposób rozumienia technologii medialnych i posługiwania się nimi, towarzyszącą im wrażliwość i wyobraźnię medialną. Być alfabetą, posługiwać się alfabetyzmem, to tyle, co potrafić komunikować się za pośrednictwem technologii medialnej i rozumieć jej kulturowy i społeczny sens, osadzenie, ograniczenia. Być zdolnym do porównywania ich z innymi.

Kategoria alfabetyzmu odnosi się także do kompetencji związanych z porządkami medialnymi zawierającymi w sobie poszczególne formy medialne. To reakcje wrażliwości i wyobraźni komunikacyjnej na najbardziej ogólne, strukturalne i dziejowe reguły mediacji. Odpowiedzi udzielone przez rozwój techniki i kultury na pytania stawiane na bazie naszego naturalnego sensorium, przy którego pomocy poznajemy i konstruujemy rzeczywistość. Na tym poziomie szczególne znaczenie mają konkurujące ze sobą od dawno w polu kultury alfabetyzmy mowy i pisma oraz wizualny, związany z porządkiem obrazów. Organizacja języka i ewoluującej z niego piśmienności, mówiąc najbardziej ogólnie, opiera się na sekwencyjnej logice czasu, odwołuje się do kategorii początku, końca i przebiegu, implikuje potrzebę związków przyczynowo-skutkowych, wynikania i strukturyzowania. Tymczasem logika alfabetyzmu wizualnego bierze się z doświadczenia przestrzeni i inspiruje zupełnie inne postrzeganie porządku świata. Pierwszy z alfabetyzmów konstruuje świat jako opowieść (narrację, historię, tekst), drugi zaś wywołuje światoobraz (pogląd, krajobraz, symbol). Do opisu obu tych ogólnych medialnych porządków i wywołanych przez nie kompetencji komunikacyjnych będę jeszcze wracać w kolejnych rozdziałach. Makro i mikroalfabetyzmy, tj. te dotyczące ogólnych porządków medialnych, takich jak pismo-obraz, analogowe, cyfrowe, hierarchiczne-sieciowe, oraz dotyczące poszczególnych gramatyk medialnych, takich jak druk, telewizja, itd., przecinają się i wchodzą w różne reakcje ze sobą. Z wymieszania różnych ich elementów biorą się dające się uchwycić w czasie alfabetyzmy związane z konkretnymi formami medialnymi, z kulturami poszczególnych mediów [68].

Postmedialne okoliczności powodują, że alfabetyzm staje się kategorią bezpośrednio istotną w indywidualnym kontakcie z mediami. Obejmuje on szereg predyspozycji, zasobów wiedzy i kompetencji, które okazują się kluczowymi wytycznymi współczesnego bycia w świecie i rozumienia go. Nie ma bowiem medialnej wyobraźni ani medialnych działań z wyłączeniem języka, kompetencji wizualnych, zmysłu pracy z techniką, tekstem, designem. Pozostaje alfabetyzm także w cyfrowych okolicznościach najważniejszym z dostępnych człowiekowi kulturowych narzędzi poznawczych i służących konstruowaniu świata. Bliskość medialnych procesów i wyobraźni przekłada się na budowane „w locie” medialne kodeksy, czyli zbiory reguł dotyczących posługiwania się mediami. Dla człowieka współczesnego, przynajmniej w obszarze rozwiniętej technologicznie cywilizacji zachodniej, postrzeganie świata i komunikowanie się z/w nim za pośrednictwem technologii komunikacyjnych jest jednym z najważniejszych wymiarów bycia. Medialne pośrednictwo przeniknęło tak głęboko w tkankę kultury, że w zasadzie trudno sobie wyobrazić jego brak. W konsekwencji także i medialne kompetencje, wrażliwość i zdolności stają się jednymi z najbardziej znaczących regulatorów kulturowych. Analfabetyzm medialny jest w tych okolicznościach niczym innym, jak tylko rozszerzoną wersją dobrze kulturze znanego zjawiska analfabetyzmu, który jest najważniejszą z trosk systemów edukacji i kultury i wciąż jednym z niepodważalnych wyznaczników rozwoju cywilizacyjnego.

Doświadczenie sytuacji postmedialnej wykracza poza granicę wytyczoną przez media w ogóle i, na powrót, okazuje się bardzo bliskie posługiwaniu się językiem. Polega na uznaniu pełni barw medialnego spektrum form i interfejsów i wymieszaniu ich technokulturowych cech. Tym samym, zataczając historyczną pętlę, sytuacja ta upodabnia się do kondycji premedialnej (przedtechnologicznej), za jaką uznajemy zjawisko mowy i regulujące je zasady języka. Samego języka nie sposób uznać za technologię medialną, choć taki status przypisany został w dyskursie medioznawczym piśmienności, alfabetowi i wszystkim kolejnym, wynikającym z nich, mowo- i pismopochodnym technologiom mediacji (radiu, telefonii). Język ma naturę poprzedzającą wszelkie technologie pośredniczące w komunikacji – jest najbardziej zinternalizowanym, intymnym i symbolicznie pierwszym, referencyjnym pomostem pomiędzy osobą a światem i innymi osobami, najważniejszym naturalnym „interfejsem” homo communicans. Nie da się go odseparować od mówiącego, jest przymiotem osoby, a nie (nie tylko) stworzoną przezeń formą/technologią, choć wpływom technologii, różnego rodzaju remediacjom poddaje się nieustannie. Różni się także od pozostałych naturalnych form postrzegania świata, w które człowiek został wyposażony. Pozwala nie tylko „widzieć”, ale i projektuje/kreśli „obrazy”, nie tylko „słyszy”, ale i wzbudza dźwięk. W tym sensie jest nie tylko pośrednikiem w postrzeganiu i rozumieniu rzeczywistości, ale i taktylnym narzędziem jej konstrukcji – wielkie religie pouczają, że świat zaczyna się od wypowiedzianych przez Boga słów, a powszechnie wierzymy, że niczym nie można dotknąć bardziej, do żywego, niż słowem.

Jeszcze inaczej formować się będzie świadomość kondycji postmedialnej. W alfabetyzmie postmedialnym rozmyje się/zniknie powszechna świadomość mediacji – podobnie jak w czasach przedmedialnych nieobecna była świadomość języka, dystans wobec niego, który umożliwiają konkurencyjne formy komunikacyjne. Ostatecznym etapem tego recyklingu i stapiania się medialnych form oraz zanikania formuły i świadomości medium może okazać się, przypomnę, zrównanie ról języka i uniwersum technologii komunikacyjnych, zniesienie kulturowych i organicznych barier między naturalnym sensorium i jego technologicznymi alternatywami (mediami). Obawa o taki rozwój wydarzeń towarzyszy refleksji kulturowej od dawna (McLuhan, Postman), jednak kumuluje się ona głównie w nawiązaniach do twardych rozwiązań technologicznych, maszynowych i elektronicznych protez, które zastąpić mają ludzkie organy i inteligencję. Sądzę, że w obliczu zmiany postmedialnej poprzedzą je rekonstrukcje w zakresie kulturowego języka mediów, ich semiotyczna i techniczna antropomorfizacja. Jednocześnie, tak jak ma to miejsce w porządku ontycznym cyfrowego świata, problemy hardware przesłoni software. To ta sfera może spełnić funkcję społecznie dostępnego i dającego się kształtować (programować) języka nowych mediów i to ona, za sprawą swojej multi- i transmedialności, stać się może w pierwszej kolei alterjęzykiem kultury i najważniejszym uniwersalnym kodem żyjących w niej homo communicans.

Przejdę teraz do wstępnego szkicu postaw, do których przyjmowania i internalizowania mogą ośmielać swoich użytkowników cyfrowe media, nowy alfabetyzm i cyberkulturowe otoczenie. Odwołam się w tym celu w pierwszej kolejności do H. Arendt, przypominając jej filozoficzne rozpoznania kondycji ludzkiej. Filozofka zdefiniowała przemysłową, odtwórczą pracę jednostki jako zniewolenie, przeciwieństwo pełnego życia opartego na nieskrępowanym, kreatywnym działaniu i tworzeniu. Śladem Arendt można uznać, przypomnę, iż animal laborans to figura bliska kształtom medialnego konsumenta, bezmyślnego i manipulowanego elementu masowej publiczności mediów analogowych. Można też powiedzieć, że to postać posługująca się biernym alfabetyzmem czytelnika medialnego tekstu, który nie ma możliwości go zwrotnie mówić/pisać. Przeciwieństwem tej figury jest dla filozofki homo faber. To robotnik emancypujący się z niewoli powtarzalnej, mechanicznej i odtwórczej pracy. Arendt dowartościowuje w nim sferę działania (vita acitva), która w tradycji filozofii i kultury zachodniej została – także na skutek masowej produkcji przemysłowej, fordyzmu i mediatyzacji kultury – zdewaluowana na korzyść refleksyjnego i intelektualnego vita contemplativa [74]. W rezultacie przestrzeń rozciągniętą pomiędzy wyrobnikiem w technopolu a oddającym się jedynie myśleniu intelektualiście zagospodarowuje i odczarowuje świadomy swej roli i kompetentny rzemieślnik. W jego oglądzie i rozumieniu świata nie ma sztywnych, systemowych granic pomiędzy tym, co pomyślane, a tym, co stworzone z materii rzeczywistości, pomiędzy ideą i wyobraźnią a ich materializacją. Homo faber splata refleksyjność i działanie, czyniąc z nich, na powrót, nierozłączny w praktyce codziennego praktykowania życia monolit. Przy okazji neutralizuje homo faber także upolitycznione relacje pomiędzy sferą prywatną i publiczną, tworząc za sprawą swoich holistycznych działań sferę publiczną, bez której kategorie komunikacji społecznej czy mediów społecznych mają ograniczony sens.

Figura homo faber wydaje się modelowym przykładem aktywności inspirowanych w cyfrowym świecie i w dużej mierze już dziś widocznych w jego praktyce. Tę figurę podjęli jako pierwsi artyści pracujący z mediami, dla których łączenie wrażliwości estetycznej i artystycznej z wiedzą inżynierską i matematyczną okazało się zarówno naturalną ścieżką pracy, jak i koniecznością w kontakcie z coraz bardziej skomplikowanymi formalnie technologiami medialnymi, wybranymi przez nich artystycznym tworzywem. Miejsce artysty-romantyka wychowanego w oparach nowoczesności w obszarze sztuki nowych mediów zająć musiał sprawny technicznie artysta-rzemieślnik, osławiony przez mitologię cyfrowej rewolucji programista, inżynier, technolog wyposażony w krytyczną wrażliwość i wyobraźnię estetyczną. Homo faber to historyczna figura porzucona w okresie medialnej konsumpcji i medialnego fordyzmu, którą na nowo wywołuje stan postmedialny. Postmedialność ustawia medialny krajobraz przez wycofanie podmiotu z upolitycznionej i zawłaszczonej ekonomicznie sfery konsumpcji mediów i ich systemowego współtworzenia w ramach projektu mediów społecznościowych, interaktywnych i okoliczności transmedialności. Prowokuje w to miejsce restytucję postaci medialnego rzemieślnika, który łącząc praktyki postprzemysłowe i prosumpcyjne zarówno sensie materialnym (hardware – vita activa) jak i symbolicznym (software – vita contemplativa) struga, lutuje, projektuje, muruje, skręca, zdobi, sieciuje: konstruuje i rekonstruuje medialny świat, na nowo dekolonizując go mimowolnie/świadomie spod wpływu medialnego systemu kultury masowej. Dla homo faber nie mają znaczenia odsłonięte przez C. P. Snowa granice i różnice pomiędzy odseparowanymi przestrzeniami nauki i kultury [75]. Świat mediów cyfrowych to przestrzeń zaludniona przez emancypującego się z podziałów i reguł analogowej epoki technologii i politycznych/ideologicznych systemów medialnych cyfrowego homo faber. Współcześni geekowie, hackerzy, designerzy, programiści nie czynią sztucznych podziałów pomiędzy działaniem twórczym, pracą i kontemplacją życia. Rozłączone dotąd sfery nowoczesnego życia sklejają w codziennej pragmatyce swojego medialnego działania.

W ten sposób po epoce oświeconych specjalizacji i obiektywnych, scjentystycznie wyprowadzanych praw przypisanych do różnych dyskursów, dziedzin życia i dyscyplin naukowych powraca holistyczna wizja działania kulturalnego, której historycznie zawdzięczamy np. wspaniały rozkwit kultury renesansowej. W pierwszych słowach Traktatu o malarstwie Leonardo da Vinci, dziś uznawany za najbardziej emblematyczną i modelową z osobowych ikon renesansu, zalecał młodym adeptom sztuki malarskiej, by rozpoczynali swoją karierę od porządnych i wszechstronnych studiów zasad geometrycznych i praw natury. Jedynie wyposażeni w taką wiedzę i wynikającą z niej wyobraźnię będą w stanie oddać idee i kształty w formie obrazów [76]. Florencki mistrz wyraził na kartach swojego podręcznika ówczesne przekonanie dotyczące charakteru pracy artystycznej i zakresu kompetencji i umiejętności, którymi artysta powinien się cechować. Artysta nie może sobie pozwolić na niestaranną i niepełną wiedzę z zakresu matematyki, fizyki, filozofii, chemii, astronomii – wszystkie te zasoby potrzebne mu są do tego, aby był w stanie wypowiedzieć się kompetentnie w obszarze sztuk wizualnych, ale także architektury, rzeźby, muzyki.

W ten sposób sztukę, kulturę i pracę pojmowali także inni renesansowi wielcy mistrzowie, którzy równie twórczo i kompetentnie realizowali się jako inżynierowie, artyści i naukowcy. Tak działali i żyli Filip Brunelleschi, Rafael Santi czy Michał Anioł Buonarotti. W renesansowej praktyce rozmyty został w ten sposób tradycyjny, antyczny podział na techné i episteme, czyli obszar umiejętności związanych z mechaniką, a zatem i materią, oraz wiedzą, którą dziś określamy najczęściej jako teoretyczną. Zarówno w greckiej, jak i rzymskiej hierarchii wiedza i umiejętności związane z materią i jej mechaniką, czyli rzemieślnicze, oceniane były najniżej. Postrzegano je jako najmniej godne człowieka wolnego. Artyści cinquecento byli jednak z wyboru zarówno filozofami, jak i rzemieślnikami, równie sprawnie pracowali w obszarze idei, jak z materią. Da Vinci i jemu współcześni postawili sprawę jednoznacznie: sztuka to nauka, dzieło artysty jest zarówno ideą do wiedzy dzięki nauce się odnoszącą, jak i jej materialnym przejawem. Sam Leonardo u schyłku życia jednoznacznie definiował siebie samego jako człowieka nauki, niechętnie posługując się w kontekście kategorią „artysta” [77].

Za sprawą sztuki mediów i jej twórców wiedza i nauka na nowo trafiają do świata sztuki. Trudno przecież w obliczu niezwykłego zaawansowania technologicznego mediów uprawiać ich sztukę, kiedy nie dysponuje się wiedzą z zakresu programowania, optyki, fizyki, inżynierii, typografii, itd. Artyści pracujący w tym obszarze są z tego powodu współczesną awangardą sztuki w ogóle. Model artystycznej pracy z mediami powiela się w pracy programistów i inżynierów medialnych, którzy nie posiadając wiedzy z zakresu projektowania graficznego, typografii, psychologii kolorów, antropologii interakcji, nie są w stanie ani przemyśleć, ani realizacyjnie doprowadzić swoich projektów samodzielnie do końca. Homo faber pracujący z nowymi mediami uwikłany/skazany jest na nieustanne odnoszenie się do różnych gałęzi rozproszonej po dyscyplinach wiedzy i jej integrowanie w ramach realizowanych z mediami działań. To rzemieślnik technologicznej, medialnej materii (hardware) i filozof, teolog medialnych idei (software) – artysta, który w swoich dziełach integruje te sfery i nadaje im kulturową, tj. estetyczną twarz. Peter Weibel, jeden z najważniejszych współcześnie artystów medialnych oraz kurator sztuki mediów i jej organizator, podsumowuje, wyrażając przekonanie wielu przedstawicieli tego środowiska, tę bliskość parafrazując znane słowa Erazma z Rotterdamu: artysta mediów nie może być głupi – musi być naukowcem! [78] W tym holistycznym i renesansowym duchu sens projektu cyfrowego postrzega także polski badacz nowych mediów i ich sztuki Piotr Zawojski, który definiując cyberkulturę podkreśla syntopijny związek sztuki, nauki i technologii na nią się składających [79].

Pierwsza ze zmian, której należy dokonać na drodze ku nowej komputeryzacji – sugeruje amerykański wizjoner – to dekonstrukcja tej maszynocentrycznej fazy. Ma ona polegać na przesunięciu inżynierskiego, technokratycznego punktu ciężkości w rozwoju cybernetycznego świata, opierającego się wyłącznie na „racjonalnych” parametrach, w kierunku potencjału człowieka. Nowa komputeryzacja winna odwoływać się do logiki ich docelowych użytkowników, ich wrażliwości, potrzeb, wartości, zdolności i ograniczeń. Druga, paralelna, transformacja miałaby polegać na przejściu od maszynocentrycznych czynności automatycznych do skupionych na użytkowniku modeli dostarczania usług i zasobów – to wizja tzw. universal usability, czyli uniwersalnej użyteczności cyfrowych maszyn. Na potrzeby tego porządku pojawią się już niebawem komputery kwantowe, które zastąpią komputery elektroniczne i dotychczasowe kulturowe kody cyfrowości. W miejsce modelu: 1 plik, 1 odbiorca, 1 przestrzeń, 1 czas pojawi się alternatywa w postaci: x plików, x odbiorców, x przestrzeni i x czasów. Każdy, wszędzie, o każdej porze – oto formuła przyszłości cyfrowej, w której dotychczasowy user zyskuje zdolność do permanentnego zanurzenia w cyfrowych sieciach. Użytkownik przyszłości staje się interfejsem pomiędzy sztucznym światem wirtualnym i realnym. Tym samym, za sprawą usera, światy wirtualny i realny będą się ze sobą przeplatać na tysiące różnych sposobów i będą od siebie nierozerwalnie zależne, a cyfrowe technologie z opartych na elektronach ewoluują do form opartych na fotonach.

Trudno ten paradygmatyczny zwrot postulowany przez Shneidermana rozumieć inaczej, jak tylko na zasadzie odwrócenia procesów zaobserwowanych przez Arendt. Tak jak niegdyś nowoczesny animal laborens zastąpił w medialnym świecie homo faber, tak dziś, w cyfrowych okolicznościach, dochodzi do emancypacji konsumenta/odbiorcy podejmującego na nowo rolę medialnego rzemieślnika: twórcy i wytwórcy. Laptop Leonarda – taki tytuł dał swojej książce Shneiderman – to komputeryzacja w rękach człowieka renesansu, będącego zarazem artystą i programistą, architektem i elektronikiem, znawcą anatomii i specjalistą od baz danych i wyszukiwarek. Medialny homo faber holistycznie obejmuje praktykowanie technologii cyfrowych i sieciowych jako zarazem artystyczną i techniczną, materialną i ideową, komunikacyjną i poznawczą aktywność. Na obecnym etapie rozwoju sztuki, technologii i kultury mediów cyfrowych najbliżej do tego modelu artystom mediów. Znacznie trudniej w takiej praktyce działania odnaleźć się technologom i technokratom przekonanym o wyższości oświeceniowej wizji techniki i wiedzy. To wyzwanie dla obu postaw, aby w cyberkulturowym pędzie współczesności uzgodnić wzajemne relacje i na nowo zdefiniować kompetencje kulturowe związane z tworzeniem wiedzy i jej relacjami z rozwojem technologicznym i jego cyfrowymi formami. Pozostaje pytaniem otwartym, o ile unikalne rozumienie i konstruowanie świata ludzi renesansu okaże się wartościowe i pożądane dla stymulowanych przez cyfrowe maszyny medialne współczesnych modeli i strategii życia [82].

Postrzeganie postmedialnych okoliczności i doświadczeń w duchu renesansowym wypada zbalansować skrajnie przeciwną tendencją, której wpływ na kształt współczesnego dyskursu humanistyki jest znacznie bardziej uchwytny i zauważalny. Ogniskuje się ona wokół sfery biologicznej i stara się dyskursywnie poszerzyć rozważania na temat człowieka i kultury o obszar biologii, genetyki i ekologii. Chodzi o wywołany równolegle z pojawieniem się technologii cyfrowych, za sprawą odkrycia DNA i badań jego struktury/właściwości, dyskurs poświęcony ontycznej naturze życia i biologicznej, genetycznej charakterystyce człowieka jako gatunku oraz naukowemu definiowaniu życia. W rezultacie coraz większej popularności rozważań o świecie, człowieku i kulturze, dokonujących się w kontekście biologicznej natury życia, wykształcił się dyskurs posthumanizmu (inaczej nazywanego również transhumanizmem, choć to określenie odnosi się bardziej do możliwości technologicznego poszerzania definicji organizmu i jego zdolności [83]). Wraz z nim pojawiły się takie kategorie, jak biomedia, a semiocentryczny (uznający kulturę za komunikację) i cybernetyczny (uznający za komunikację wymianę napięć elektrycznych) model komunikacji uzupełniono o dyskursywne (w polu sciences) konceptualizacje poświęcone problematyce komunikacji genetycznej oraz zachodzącej pomiędzy ludźmi na poziomie niekulturowym (feromony, fale, zapachy), a także komunikacji transgatunkowej: pomiędzy ludźmi a innymi organizmami żywymi (DNA uznany został za kod – do konsekwencji tej decyzji wrócę w kolejnym rozdziale) i wreszcie pomiędzy nimi samymi. Jednocześnie twórców technologii cyfrowych niemal do białości rozpalała wizja sztucznej inteligencji, czyli możliwości stworzenia komputerowych systemów zdolnych do naśladowania ludzkiego myślenia, jego usprawnienie i uniezależnienie, w konsekwencji, od funkcjonowania mózgu, organizmu i człowieka. Systemy te powstać mają jako efekt zaawansowanych badań nad poznaniem ludzkiego genomu oraz tworzenia kognitywistycznych i behawioralnych modeli działania ludzkiego mózgu i systemu nerwowego w ogóle. Zbliżenie projektu cyfrowego z dokonaniami i wiedzą z zakresu biologii zaowocowało syntetycznymi teoriami ojców-założycieli cybernetycznego świata: Turinga, Wienera i wielu innych postępowych cybernetyków.

Sięgnijmy teraz do propozycji teoretycznych tego dyskursu. Definicję podstaw posthumanizmu oferuje na przykład teoretyczka mediów Katherine Hayles w książce How We Became Posthuman z roku 1999. Autorka wskazuje na cztery założenia, na których wspiera się ten dyskurs. Po pierwsze, sygnały komunikacyjne postrzega on jako bardziej istotne od swoich materialnych nośników, w tym także ludzkiego ciała i jego sensorium. Pojedyncze ich uosobienia to tylko epizody w historycznej logice komunikacji kodu genetycznego. Po drugie, posthumanizm rozumie świadomość inaczej, niż to ma miejsce w tradycji kultury zachodniej, dla której jest ona początkiem i centrum życia ludzkiego. W dyskursie posthumanizmu jest ona raczej epifenomenem, jednym z wtórnych elementów, które składają się na całokształt podmiotu i jego kultury, natomiast niematerialny duch w niej nie istnieje. Po trzecie, posthumaniści postrzegają ciało jako pierwotną protezę, którą z biegiem ewolucji człowiek oswoił i nauczył się w ograniczonym stopniu wykorzystywać. Nic nie stoi na przeszkodzie, aby uzupełniać/poszerzać jej możliwości za pomocą innych stworzonych przez ludzki gatunek protez, głównie tych techologicznych. Czwarte założenie posthumanizmu to przekonanie, iż egzystencję da się osadzić wewnątrz maszyn cyfrowych. Dla ludzkiej rozumności i duchowości nie powinno stanowić problemu wyrażanie siebie za ich pośrednictwem. Nie ma w konsekwencji znaczących różnic pomiędzy egzystencją człowieka w biologicznym ciele oraz w domenie cyfrowej, jako projektu cyborgicznej inteligencji. Zamiast poszukiwać i analizować różnice pomiędzy człowiekiem a robotem, materią a kodem, cielesnością a symulacją komputerową, należy skupić się na odnajdywaniu podobieństw pomiędzy nimi – oto przewodnie hasło posthumanizmu [84].

Dekadę później ten dyskurs jest już jednak na innym etapie swojej ewolucji. Z jednej strony posthumaniści upewnili się co do swojego przypuszczenia, iż rodzaj ludzki w swej obecnej formie jest dopiero w początkowej fazie rozwoju, zaś szansą dla całego gatunku jest rozwój technologiczny i możliwa dzięki niemu cyborgizacja natury ludzkiej. Z drugiej strony, współcześni posthumaniści coraz śmielej przyglądają się komunikacji transgatunkowej, której rozpoznania i konceptualizacje prowadzą do wniosków, że człowiek nie jest jedynym gatunkiem zdolnym do komunikowania się. Tym samym znaczenie czynnika technologicznego w praktyce tego dyskursu osłabło. Został uznany za jeden z wielu mających wpływ na nową sytuację kultury. W ten sposób z idei i teorii posthumanistycznych wyrósł także transhumanistyczny model komunikacji. Cary Wolfe, amerykański literaturoznawca i kulturoznawca, badacz dyskursu posthumanistycznego, sądzi, że punktem ciężkości transhumanizmu jest podważenie obowiązującego dotychczas w kulturze i nauce antropocentryzmu. Kulturowym wyzwaniem jest dzisiaj tworzenie etyki uniwersalnej, której zasięg obejmie poza ludzkimi zwierzętami także inne gatunki (non-human animals), dzięki niej możliwy ma być demontaż partykularnej, antropocentrycznej etyki tradycyjnej i nowy pluralizm jej form [85]. Wolfe fundamenty swojej teorii lokuje w krytyce derridiańskiej dekonstrukcji, która na długie lata zawładnęła studiami kulturowymi. Kultura i wszelkie jej wytwory są nie tylko tekstem, który można i należy dekonstruować poszukując ukrytych wymiarów, struktur i znaczeń, ale także, a może przede wszystkim, przestrzenią życia biologicznego, którego złożoność wciąż nie jest dobrze rozpoznana i która została w humanistyce przesłonięta przez zwrot lingwistyczny. Miejsce tekstocentrycznego antropocentryzmu winien zająć uniwersalny dyskurs poświęcony uznaniu podmiotowości, która obejmować będzie już nie tylko człowieka, ale i gatunki ujarzmione w jego swojego panowania [86].

Posthumanistyczna retoryka, choć skupiona coraz bardziej na elementach biologicznych i kierująca się w stronę propozycji transhumanistycznych, ma wciąż dużo wspólnego z dyskursem cybernetycznym i innymi związanymi z rozwijaniem i upowszechnianiem projektu cyfrowego. Wiele z posthumanistycznych wizji i hipotez zostało przejętych do powszechnej narracji związanej z rozwojem cyfrowości, co dodatkowo sprawia, że również z tej perspektywy stają się one przedmiotem ogólnokulturowej debaty. Pojawienie się wspomnianych tu pojęć i żywiołowa, budząca kontrowersje debata wokół nich prowadzi do pytań, na które odpowiedzi mogą zmienić nie tylko medioznawczy i humanistyczny stosunek do takich pojęć, jak nadawca, odbiorca, komunikat, kod, medium, ale prowadzić mogą również do redefiniowania uznanej wiedzy o podmiotach działań komunikacyjnych/kulturowych oraz radykalnie przekształcić kulturową przestrzeń mediacji/komunikacji [87]. 7 lipca 2012 roku grupa neurologów, neurofarmakologów, neurofizjologów i neuroanatomów związanych z Uniwersytetem w Cambridge podpisała deklarację potwierdzającą istnienie świadomości u zwierząt i postulującą w związku z tym zmianę podejścia nauki do świata organizmów żywych [88]. Choć to tylko jeden z epizodów, które wyznaczają koloryt tego dyskursu, to można na jego podstawie łatwo zorientować się co do ciężaru gatunkowego całej debaty. Podejście posthumanistyczne rezonuje wzrastaniem pojęć, które stają się także coraz bardziej istotnymi elementami konstytuującymi dyskurs cyberkulturowy i opisującymi dynamikę współczesnego świata w ogóle.

Kategorią, która bodaj najlepiej i najbardziej holistycznie łączy oba te dyskursy jest pojęcie biomediacji i wywołujących ją biomediów. Eugene Thacker, teoretyk mediów zajmujący się biomediacjami, sytuuje je w kulturowym i biologicznym zarazem polu, w którym spotykają się i reagują ze sobą kody życia, czyli zakodowane w genomach „informacje” i instrukcje, z kulturowymi kodami technologii. Biomediacje biorą się z faktu odkodowania informacji zapisanych w genomie, ale jednocześnie z faktu, iż takie odkodowanie interferuje z procesami i zjawiskami kulturowymi. Stają się nową modalnością kultury współczesnej, nowym punktem referencyjnego odniesienia dla takich form kulturowych, jak komunikacja, technologie, polityka [89]. Biomedia to pojęcie, którego semantyka wskazuje w rezultacie na możliwość cybernetycznej manipulacji kodem DNA oraz konstruowania cybernetycznego świata na podstawie matryc i modeli, które odsłaniają badania natury DNA i mechanizmów naturalnego życia. Tworzą informacyjną rekontekstualizację biologicznych zjawisk i procesów, która ma nie tylko znaczenie medyczne, ale wpisuje się także w kulturowe, społeczne, polityczne i naukowe dyskursy i praktyki [90]. To, inaczej mówiąc, postrzeganie biologicznego „kodu” jako bazy danych, którą można zarządzać za sprawą odpowiednio przygotowanego software oraz posługiwanie się wzorami, regułami, „Interfejsami” zawartymi w różnych formach biologicznego życia jako wzornikami form technologicznych, modelami mediacji i komunikacji, ekologii kultury.

Bardziej ogólne rozpoznanie biomediacji i jej kulturowych oraz technologicznych uwarunkowań znajdziemy w filozoficznej antropologii techniki Bernarda Stieglera. Jego zdaniem antropogeneza implikuje technogenezę, co oznacza, że historię technologii medialnych można interpretować jako doskonalenie form technicznych, które naśladują naturę i stanowią protezy wytyczające kształt życia w świecie. Stiegler pisze:

Łapy stają się rękami, kiedy zaczynają posługiwać się instrumentami i narzędziami. Dłoń pozostaje sobą dopóty pośredniczy w dostępie do sztuki, do sztucznego i do tekhné. Stopy mają wymiar ludzki dokąd niosą samodzielnie ciężar człowieka, a jego ręce wypełniają ich przeznaczenie, oferują możliwości manipulowania światem, nowe relacje pomiędzy dłonią i twarzą, mową i gestem… [91]

Oba procesy przebiegają równolegle, a w rezultacie technika i człowiek są ze sobą nierozerwalnie sprzężeni. Człowiek wynajduje technikę, a technika stwarza człowieka. W tej sytuacji trudno pominąć biologiczny aspekt tego zapętlenia i doniosłość sfery organicznej dla kształtu komunikacji. Biomediacje to jeden z naturalnych stanów kultury, a w nowomedialnym języku związek pomiędzy biologią a kulturą można porównać do hybrydy: hardware (biologia) i software (kultura), dla których człowiek jest referencyjnym, naturalnym interfejsem i systemem operacyjnym.

Jeszcze inny tag, który od niedawna funkcjonuje w cyberkulturowym dyskursie, wskazuje na potencjał nowych technologii w zakresie redefiniowania znaczenia i postaci życia we współczesnej kulturze popularnej. Tym terminem jest dopełnienie ontycznego dualizmu software/hardware o element wetware lub mindware. Oba wywodzą się z dyskursu cyberpunkowego i futurystycznego i wskazują na pomijany/lekceważony dotąd w projekcie cyfrowym element ludzki, zarówno w sensie biologicznym, kognitywistycznym jak i duchowym. Posługujący się nim używają go, aby zrównoważyć znaczenie technologii cyfrowych, zmiękczyć ich twardą, technologiczną siłę elementami wrażliwości ludzkiej i biologią ludzkiego organizmu. Wetware to kategoria bio-hakerów, czyli społeczności, która za pomocą rozwiązań technologicznych testuje i weryfikuje możliwości ludzkiego organizmu i poszukuje technicznych rozwiązań mających ulepszyć istotę człowieka i przenieść ją w nowy wymiar kulturowy i biologiczny [94]. Jak widać biomedia są także przestrzenią strategii hakingu, które przecież dla projektu cyfrowego mają zasadnicze znaczenie. Mindware to zaś eksperymentalne pojęcie, za którego pomocą badacze, artyści i animatorzy kultury w ramach projektu Mindware. Technologie dialogu[95] starali się objaśniać sprzężenie zwrotne pomiędzy maszynami obliczeniowymi i człowiekiem, ich użytkownikiem. To sprzężenie ma również charakter biotechnologiczny, ale dotyczy przede wszystkim wyobraźni kulturowej i medialnej. Osadzona wewnątrz projektu cyfrowego wyobraźnia zaczyna na niego reagować, przetwarzając cyberkulturowe mitologie, kształty i struktury. W ten sposób konstruowany jest język, którym mówimy w cyfrowym świecie, stąd bierze się przekładanie technologicznym ram na kulturowe oblicza życia – często mówimy o mózgu jako jednostce centralnej, dysku twardym, itd. Jednocześnie wraz z impetem technologii cyfrowych i sieci powstaje zapotrzebowanie na odpowiednie mechanizmy i struktury poznawcze, percepcyjne, logiczne, itd., których zadaniem ma być oswajanie technologii cyfrowych dla ich użytkownika i dla kultury, podporządkowywanie ich już dostępnym mentalnym wzorcom i regułom. Temat ten sytuuje się na granicy kultury i biologii, percepcji i komunikacji, zarówno w obszarze działań komunikacyjnych jak i towarzyszących im refleksji i dyskursów. Dotyka także kategorii miejsca i przestrzeni – można by tu jedynie wskazać na postmedialny charakter trzeciej przestrzeni (kategoria autorstwa Homi Bhabha) [96].

W poprzednim rozdziale naszkicowałem ogólną topografię sytuacji postmedialnej. Rozciągnąłem w niej na obszar komunikacji medialnej diagnozy krytyków i teoretyków sztuki mediów, przekonanych co do faktu, iż w dobie powszechnej cyfryzacji technik medialnych dawne pojęcie medium i zespół desygnatów z nim związanych ulegają dekompozycji. Rzeczywistość zapełniona cyfrowymi mediami uznałem za przestrzeń, w której dotychczas znane kulturze idee, estetyki i gramatyki medialnych form stapiają się i stają się najpierw nierozróżnialne, a z czasem niewidzialne – wypierane są przez strukturę cyfrowego kodu, software i interfejsów.

Cyfrowy kod to zjawisko fundujące hybrydyczne stany. Jego specyfika bierze się z technokulturowego sprzężenia pomiędzy jednym z najbardziej niezwykłych, wciąż jeszcze nie do końca rozpoznanych zjawisk natury, jakim jest elektryczność, oraz esencją wiedzy naukowej, zakodowanej w postaci praw matematyki. Dzięki pośredniczeniu pomiędzy tymi dwoma budulcami współczesnych mediacji możliwe było pomyślenie i zrealizowanie projektu cyfrowego, który należy uznać za kontynuację ewolucji wiedzy i nauki oraz rozwoju technologicznego. To dzięki takiemu układowi sił i biegowi wydarzeń współcześni medioznawcy coraz chętniej i z coraz większym przekonaniem formułują tezy o mediacjach i kulturze poddanych software, wchłoniętych za jego pośrednictwem w cyfrową rzeczywistość. Hybrydyczne własności i kluczowa rola kodu w cyfrowym uniwersum owocują stapianiem się, konwergencją i płynnością medialnych form i przekładają się na ich software’owy egalitaryzm. Cyfrowy kod funkcjonuje w konsekwencji jako uniwersalny język cyfrowego świata, a wiele wskazuje także na to, że systematycznie staje się uniwersalnym, wchłaniającym wszystkie wcześniejsze i alternatywne, kodem kultury.

Rozważania dotyczące cyfrowego kodu i jego kulturowej sytuacji należy rozpocząć od przywołania historii liczb, matematyki i uznania ich za uniwersalny kod świata. Już starożytni filozofowie, artyści i teologowie rozumieli rzeczywistość jako konstrukcję matematyczną, w której kształty I formy materii regulują wpisane w nie prawidła logiczne, wynikające z zależności liczb i algorytmów odkrywanych później przez matematykę/kulturę. Ta matematyczna wyobraźnia przetrwała i rozwijała się do czasów współczesnych i, za sprawą rozwoju matematyki i pojawienia się technologii, które matematyczność obsługują/wykorzystują, dziś jest jednym z najważniejszych elementów konstytuujących generalny kształt wyobraźni kulturowej i technologicznej. Bez matematycznej wizji świata nie powstałaby nowoczesność: jej racjonalne nauki i ich nadbudowa, technika. Niemożliwy byłby, w konsekwencji, rozwój projektu cyfrowego, a w szczególności zawiadującego nim kodu binarnego i wyrastających zeń języków i systemów programistycznych, software i interfejsów – technicznego i kulturowego spoiwa współczesności.

W starożytności Pitagoras, a za nim Platon jako pierwsi dostrzegli, że cyfry konstytuują każdy istniejący fenomenem i każdą strukturę, odpowiadają za harmonię i symetrię świata. Święty Augustyn w swojej teologicznej teorii świata widział go jako konstrukcję matematyczną, zaś Boga jako wielkiego dysponenta liczb. Pisał:

Przypatrz się niebu i ziemi, i morzu, i temu wszystkiemu, co w ich granicach jaśnieje w górze, pełza na dole, lata lub pływa. To wszystko ma kształty, ponieważ ma liczbowe wymiary. Odbierz je, a nic nie pozostanie z tych rzeczy. […] I ludzie artyści, którzy tworzą przedmioty materialne o wszelkich kształtach, posługują się w pracy liczbami. I tak długo podczas pracy wykonują ruchy ręką i narzędziem, dopóki zewnętrzny kształt dzieła, porównywalny z blaskiem liczb, który jaśnieje wewnątrz, nie osiągnie dostępnej dla siebie doskonałości i nie spodoba się za pośrednictwem zmysłów wewnętrznemu sędziemu, wpatrzonemu w zaziemskie proporcje. Poszukaj następnie siły, która porusza ręce artystów. Będzie nią liczba. [98]

Zrozumienie natury i odkrywanie reguł matematyki oznacza dla tego klasycznego dla kultury europejskiej filozofa zdobycie mądrości, która pozwala na odsłanianie śladów doskonałości boskiego planu. To tradycją filozoficzna, astrologiczna, muzyczna i architektoniczna, którą stworzyli tacy wielcy intelektualiści, jak poza już przywołanymi: Johannes Kepler z matematyczną teorią budowy kosmosu czy Kartezjusz, który cyfry i matematykę uczynił podstawą myślenia naukowego. W siedemnastym stuleciu te liczbowe i matematyczne intuicje dobitnie potwierdził filozof Gottfried Wilhelm Leibniz, formułując swoje słynne zdanie: Cum deus calculat et cogitationem exercet, fit mundur (Gdy Bóg liczy i przemyśliwa, świat powstaje) [99] . W swojej pokartezjańskiej filozofii ugruntował w ten sposób pozycję matematyki i przekonanie o matematycznej naturze świata, wytyczając nowoczesną drogę dla teorii cybernetycznych i towarzyszących im maszyn kalkulujących w postaci teorii mathesis universalis, czyli uniwersalnej metody poznawczej i nauki, za których pomocą da się poznawać (przeliczać) rzeczywistość według reguł matematycznych [100]. Wiarę w uniwersalną matematyczność świata, jak nazywa tę jego cechę współczesny kosmolog i filozof nauki Michał Heller, potwierdzają nie tylko filozoficzne teksty różnych epok, ale i wiele innych kulturowych śladów minionych czasów, takich jak proporcje architektoniczne zawarte w egipskich piramidach czy gotyckich katedrach. Także i współcześnie zadziwia i inspiruje doskonałość matematycznych proporcji wpisana w strukturę bryły Cathédrale Notre-Dame de Chartres czy renesansowych, stosowanych w druku, malarstwie i architekturze poszukiwaniach i interpretacjach złotego podziału (łac. divina proportio). Inaczej mówiąc, wprost lub pośrednio, totalnie lub we fragmentach kultura i świat postrzegane bywają od momentu wynalezienie liczb i matematyki jako ich aplikacja, wcielenie. Wspomniana matematyczność to, obok racjonalności cechy świata pozwalające na jego badanie przy pomocy metody matematyczno-empirycznej, której kultura zawdzięcza oświecenie, nowoczesność i konstytucję współczesnych nauk i techniki.

Teza o boskiej/kosmicznej/pierwotnej/transcendentnej roli liczb i matematyki towarzyszy, jak widzimy, rozwojowi kultury, wiedzy i nauki od dawna i zdążyła na dobre przeniknąć większość znanych nam sposobów myślenia i konstruowania dyskursów i praktyk kultury. Wyrażone w postaci tych różnych form przekonanie o genetycznej i uniwersalnej w zasięgu matematyczności świata – to najbardziej doniosłe dla przedmiotu moich zainteresowań w tej książce przeświadczenie – stało się gruntem, na którym możliwe było uprawianie projektu cyfrowego. Jego fundamentem jest przecież, po pierwsze, przekonanie co do tego, że świat da się zakodować po postaci matematycznego kodu oraz, po drugie, że wartości tego kodu można poddawać matematycznym przeliczeniom, aby w ten sposób odsłaniać i zmieniać rzeczywistość. Projekt cyfrowy przejął w linii prostej ideową i formalną spuściznę tradycji filozoficznej, teologicznej, następnie technologicznej i nowoczesnej, które matematyczność świata uznały za jego referencyjną racjonalność i logikę.

Skoro tak wielka jest rola matematyki i matematyczności, to warto się zastanowić nad ich ontycznym charakterem. Zbadam teraz znaczenie matematycznego kodu oraz jego znaczenie dla rozwoju projektu cyfrowego. Pomimo generalnej dominacji nauk empiryczno-matematycznych i ich niepodważalnej siły eksplanacyjnej, która przyczyniła się do rozbłysku projektu nowoczesnego i wywołała rewolucję przemysłową, natura matematyki i sens liczb wciąż jednak pozostają problemem dla kultury i niektórych dziedzin nauki. Ich interpretacje okazują się skrajnie różne wśród analizujących ten fenomen badaczy. Można mówić o co najmniej trzech stanowiskach w zakresie filozofii matematyki i cyfr. Pierwsze z nich, dominujące i charakterystyczne dla dyskursu nauk wywodzących się z nurtu oświeceniowego (dzisiejsze nauki i metody ścisłe – sciences), precyzyjnie wyraża w swojej kosmologicznej teorii Heller wywodząc z racjonalnej i matematycznej natury świata także obiektywny charakter matematyki jako metareguły nim rządzącej i kształtującej go, wpisanej weń i będącej nim [101]. Drugie stanowisko zawdzięczamy ukształtowanym w wyniku zwrotu lingwistycznego dyscyplinom zaliczanym do ogólnego zbioru studiów kulturowych (nauk humanistycznych – humanities) i polega ono, najogólniej rzecz ujmując, na konstruktywistycznym przekonaniu, że liczby i matematyka są jedynie jednym z wielu języków/kodów, za pomocą których opisujemy świat i rozumiemy go. Jak każdy kod, tak i ten jest, ze swej natury, podatny na dokonujące się w czasie i przestrzeni (kontekst geograficzno-kulturowy) rekonstrukcje semantyczne, strukturalne, przybiera różne oblicza kulturowe pomimo wielu genetycznych podobieństw – jest społeczną konstrukcją, nawet jeśli uznać go za najbardziej abstrakcyjny z języków, za zasadniczy język wiedzy i nauki [102]. Z semiotycznym rozumieniem liczb i matematyki jako kodu kulturowego wiążą się także – to trzecie stanowisko – teorie kognitywistyczne, powstające na styku m.in. psychologii, neurobiologii, antropologii i lingwistyki, które definiują matematyczność jako twór ludzkiego mózgu, czyli strukturalną właściwość procesów myślenia i naturalną skłonność do porządkowania percypowanego świata właściwą gatunkowi, a być może także innym żyjącym gatunkom [103].

Przywołane idee i wydarzenia związane są z historią konstruowania i pozycjonowania matematyki jako dziedziny/dyskursu kultury. Z biegiem lat została ona uznana, jak to przedstawiłem, za uniwersalny kod, w którym został zapisany wszechświat i którego dekodowanie prowadzi do rozpoznania i zrozumienia jego istoty i podporządkowania jej cywilizacji. Taki stan rzeczy stał się najpierw jednym z aksjomatów przyjętych w ramach projektu oświeceniowego oraz w ramach napędzanej osiągnięciami empiryczno-matematycznej nauki rewolucji przemysłowej, a jednocześnie, jak wspomniałem, okazał się polem wywoławczym dla projektu cyfrowego. Na dobre od czasów Kartezjusza, Newtona (Matematyczne zasady filozofii przyrody [104]) i Leibniza kulturze towarzyszą idee i pomysły związane z wykorzystaniem matematycznej własności świata i przekształceniem jej, tu w sukurs przychodzi nabierająca tempa równolegle z projektem cyfrowym rewolucja przemysłowa, w narzędzie służące już nie tylko do czytania struktury wszechświata, ale i do jej konstruowania/pisania.

Taka rola cyfrowego kodu stała się właśnie fundamentalną podstawą maszyn liczących, których powołaniem miało być oparte na uniwersalnych zasadach matematycznych równie uniwersalne przeliczanie zawartości poszczególnych struktur – danych. Najpierw analogowe, a potem cyfrowe: wszystkie operowały na cyfrowym kodzie, mechanicznie kalkulując zadawane w tym „języku” zapytania. Konkurencyjne teorie matematyczności sugerują jednak, iż nie dla wszystkich taki status matematyczności jest akceptowalny. Szczególnie studia kulturowe i wiele dyscyplin bliższych współczesnej humanistyce (nie mylić z humanistyką w rozumieniu historycznym, dla której matematyka i liczby były fragmentami elementarnej filozofii) postrzegają matematykę zgoła inaczej. Niezależnie jednak od sporów o ontyczny, aksjologiczny i w zasadzie jakikolwiek inny wymiar matematyczności projekt cyfrowy możliwy był, jak to już mówiłem, dzięki systematycznemu wcielaniu w życie przekonania o tożsamości struktury świata i reguł odkrywanych przez matematykę. Uznającym wyższość tej teorii nie przeszkodziły nawet tak fundamentalne ustalenia co do charakteru matematyczności, jak to, które zawdzięczamy austriackiemu matematykowi Kurtowi Gödelowi. Austriak ten ostatecznie udowodnił w latach 30. ubiegłego wieku w postaci swojego równie znanego, co kontrowersyjnego, twierdzenia o niezupełności (incompleteness theorem), iż matematyka jest systemem otwartym, którego nie da się sformalizować/ograniczyć żadnymi aksjomatami ani regułami, ani zamknąć pod postacią danego systemu twierdzeń. Z tej reguły wynika dla cyberkultury jedno z najbardziej znaczących ograniczeń: nie można myśleć o doskonałej maszynie obliczeniowej, która byłaby w stanie skalkulować/przeliczyć model świata, całą rzeczywistość [105]. Niemożliwa jest również w związku z tym uniwersalna matematyczna wykładnia wszystkiego, swoisty digitalny „wzór na wszechświat”, ani odpowiadająca jej uniwersalna maszyna zdolna do realizacji uniwersalnego, totalnego zadania matematycznego. Istnieje za to wiele możliwych matematyk i wiele matematycznych prawd częściowych, podobnie jak i pracujących w oparciu o nie maszyn obliczeniowych. Podobnie z cyfrowymi kulturami – możliwe są różne ich odmiany, interpretacje, nieoczekiwane w nich zwroty i paradygmatyczne zmiany. Projekt cyberkulturowy pozostaje zatem otwarty, nigdy nie zakodowany ostatecznie, niesformułowany do końca [106].

Matematyczna wyobraźnia i jej cybernetyczna translacja do wewnątrz maszyn i automatów tworzą wspólnie zręby projektu cyfrowego w jego obecnej postaci. Zdolność do zarządzania pracą maszyn za pośrednictwem szyfrowanych cyfrowo poleceń to fundament leżący u podstaw całej cywilizacji informacyjnej późnego kapitalizmu.

Sformułowana przez Stockera teza to jedna z wielu podobnych konstatacji i deklaracji, które w ostatnich kilkunastu latach podnoszone są w obszarze sztuki, inżynierii, edukacji – kultury w ogóle. Tymi tropami myślenia do obiegu kultury popularnej przeniknęły intuicje, które pojawiać się zaczęły wraz z niezwykłym impetem rozwoju projektu cyfrowego w owym czasie. Festiwal jako pierwszy spośród dyskursów w obrębie sztuki, teorii mediów i analiz socjologicznych wyniósł cyfrowy kod i software na szczyt medialnej piramidy form i postrzegł je jako najważniejsze historycznie medialne narzędzie. Diagnozę tę dobitnie potwierdził pięć lat później Lev Manovich, deklarując, iż software, który na tym etapie rozważań można uznać za interfejsy kodu, przejmuje kontrolę nad kulturą mediów (Software Takes Command). Amerykanin poszedł jeszcze dalej, wysnuwając z zaobserwowanego stanu rzeczy radykalne wnioski dla statusu wiedzy o mediach: zasugerował konieczność przejścia od tradycyjnych metod i paradygmatów stosowanych w ich badaniach do nowej formuły software studies. Software nie tylko rządzi światem mediów; świat mediów poza software odchodzi do analogowego lamusa. Hardware jako centrum wydarzeń w historii komunikacji musi podzielić się władzą z domeną kodu i jego wewnętrznej gramatyki: składni, semantyki, ontologii i aksjologii.

Ducha debaty, która wciąż jeszcze nie zdobyła właściwego miejsca w dyskursie humanistyki, mogę bez ryzyka wykorzystać we własnej narracji dotyczącej sytuacji postmedialnej. To właśnie natura cyfrowego kodu i jego centralna pozycja w przestrzeni cyfrowych bytów i aktów medialnych powoduje, że postmedialność można innymi słowami określić jako stan, w którym wszystkie dotychczasowe formy i języki medialne poddają się cyfrowemu kodowaniu i jego wymogom. Tym samym (medioznawcy mają na to wiele określeń – cyfryzacja mediów, konwergencja, remediacje, mediamorfozy) stają się emanacjami, wersjami cyfrowej gramatyki, powielają jej reguły wcześniej dopasowując się do nich. Taki stan rzeczy oznaczać może rzeczywiste unieważnienie medialnego stanu rozplenienia medialnych języków, gramatyk i form, który jest technologicznym echem mitycznej sytuacji wieży Babel. Przekonanie co do tego jest oczywistością pośród twórców nowych mediów, dla których poszukiwanie uniwersalnej formuły kodu i programowania maszyn jest czymś w rodzaju poszukiwania świętego Graala, czyli zestandaryzowanego, zdolnego do wyrażenia wszelkich możliwych idei, wyobraźni i wrażliwości kulturowych na wszelkich dostępnych poziomach kodowania maszyn obliczeniowych. Idąc tropem tych rozważań automatycznie napotkamy pytanie o to, jak sytuacja postmedialnego ujednolicania języków i gramatyk medialnych wpłynie na kształt ich premedialnych pierwowzorów, czyli jakie są i jak się zmieniają relacje pomiędzy kodem cyfrowym a kodami lingwistycznymi? Jak ma się uniwersalny i wielowarstwowy kod komunikacyjny, tj. kod binarny i wszystkie zrealizowane w oparciu o niego warstwy software, do języków, i jego medialnych wcieleń, a pośród nich przede wszystkim pisma, którymi się na co dzień posługujemy? Skoro rozwój cyfrowości powtarza etapy ewolucji kultury, choćby te, które opowiada historia wieży Babel, to czy kod cyfrowy można uznać za budową nowej, technologicznej wieży Babel i czy taki projekt ma szansę powodzenia oraz czy karą za jego kontynuację będzie ponowne pomieszanie języków? [112]

Programowanie można porównać do pisania powieści: pomimo iż język, w którym powstaje jest skończonym systemem (na przkład niemiecki, francuski czy angielski), to kreatywność jego wykorzystania zależy od wyobraźni autora [113].

Z ich doświadczenia, które można uznać za miarodajne w praktykowaniu cyfrowego kodowania, wynika, iż posługiwanie się kodem bliskie jest mówieniu językiem naturalnym. To, oczywiście, założenie natury ogólnej, które należy obostrzyć dodatkowymi warunkami z zakresu teorii lingwistycznych, antropologicznych i kulturowych. Jednak już z tak ogólnej perspektywy widać, że w grę wchodzą tu podobne do tych warunkujących posługiwanie się językiem czynniki sprawcze i regulacyjne, jak emocje, wyobraźnia kulturowa, wrażliwość sensomotoryczna i estetyczna, kontekst kulturowy. Ich obecność sugeruje, iż sprawne programowanie za pomocą cybernetycznego kodu nosić może znamiona holistycznej ekspresji bliskiej innym, już antropologicznie i kulturowo oswojonym formom ekspresji i komunikacji, jak muzyka, język, dotyk (do tego wątku w szczegółach wrócę w ostatnim rozdziale) [114].

W obliczu rozplenienia języków, dialektów i gwar w software’owej praktyce kodu cyfrowego, której wciąż daleko do uniwersalności i totalności cyfrowego lingua franca, można postawić także pytanie ile syntagma tego kodu układa się w formę tekstu, o ile bliska jest pierwszemu medium/medializacji komunikacji, za jaką należy uznać pismo. To pytanie o ile ciągi cyfrowego kodu można pisać i czytać jak tekst kultury, o ile emanują typograficznie, w obszarze designu (estetycznie) i poetycko? Czy ciągi kodu są tekstem w dosłownym tego pojęcia znaczeniu, czy są jedynie gruntem/alfabetem, na którym piszą się cyfrowe „teksty” kultury, takie jak software’owe interfejsy, interakcje, narracje i bazy danych? Wyrazicielem pozytywnej odpowiedzi na te pytania jest, dla przykładu, Loss Pequeno Glazier, który w artykule pod sugestywnym tytułem Code as Language dowodzi, że kod cyfrowy jest technologiczną formą ekspresji, za którą stoją czynniki podobne do stanowiących o formie języka i pisma. Kod jest w tym podobny do pisma i języka, że powstaje na skutek działania wzorców i wyobrażeń komunikacyjnych, które wykorzystujemy w konstruowaniu wypowiedzi i komunikowaniu się. Kod i kodowanie, podobnie jak alfabet i jego pisanie, wykorzystują płaską przestrzeń ekranu (odpowiednik analogowego nośnika – tabliczek kamiennych, pergaminu, papieru), na której w czasie pisania utrwalane są znaczenia nadawane kombinacjom znaków. Usytuowana w takich warunkach antropologiczna zasada cyfrowości wydaje się czymś bliskim tradycyjnym gestom i poetyce pisma [116].

John Cayley, amerykański badacz tekstualności i poeta, ma jednak odmienne zdanie na temat tekstualności i piśmienności cyfrowego kodu. Uważa takie rozpoznanie za jedną z wielu cybernetycznych utopii charakterystycznych dla wczesnych faz zjawisk kulturowych wywołanych przez pojawienie się maszyn obliczeniowych w kulturze. Format kodu został bezpodstawnie uznany, również w dyskursie medioznawczym, za element nadający się do czytania, jego wartości za posiadające semantykę znaki, a matematyczne algorytmy i zbiory reguł w nich zakodowane za tekst, który podlega zasadom pisania i czytania charakterystycznym dla świata pisma. Zamiast tego postrzega ciągi cyfrowego kodu jako paratekst, który jest nowym formatem medialnym – interfejsem, noszącym w sobie jedynie echa piśmienności i tekstualności. Te ostatnie poddane zostały bowiem daleko idącej formalizacji i dekontekstualizacji w środowisku kodu, stały się jego obliczem wywoławczym, ale już syntagma cyfrowego kodu nie ma wiele wspólnego z rzeczywistą gramatyką mowy i jej piśmiennego interfejsu. To zbiór instrukcji/poleceń/wywołań dla cyfrowych maszyn, kod operacyjny zawiadujący przepływem energii i danych wewnątrz procesorów, dysków i ekranów, który ma być zrozumiały dla hardware tych urządzeń. Jego tekstualne korzenie mają jedynie znaczenie dla programistów, którzy myślą tekstualnością i programują według jej zasad i systemów znakowych. Tekstualna forma cyfrowego kodu jest tylko zewnętrznym ornamentem kodu, jednym z możliwych jego interfejsowych outputów [117].

W podobny sposób tekstualne cechy kodu postrzega niemiecki filozof mediów Friedrich Kittler. Definiując kod ostrzega przed mitologizowaniem i uniwersalizowaniem jego cyfrowej postaci. Jego zdaniem pojęcie kodu jest w dyskursie kultury cyfrowej tyleż niebezpiecznie nadużywane, co wątpliwe. Poszukując właściwej semantyki dla tego pojęcia w odniesieniu do jego wykorzystania w dyskursie cyfrowości, Kittler wskazuje na kod jako codex, czyli usystematyzowane w formie księgi, a wcześniej prawo glinianych tabliczek regulujące jakąś sferę życia. W tym sensie kodeks powołany został do życia jako medium zdalnej, pokonującej dystans przestrzeni geograficznej i politycznej, kontroli i regulacji życia społecznego i kultury. Dzisiaj funkcjonuje w podobnej formie jako zbiór reguł stanowiących o wykorzystaniu energii elektrycznej wewnątrz uniwersum cyfrowych maszyn. Śledząc historyczne losy kategorii kodu Kittler dochodzi do momentu, kiedy kodeks i kody stają się tożsame z szyframi. Ta tajemnicza formuła obcowania z cyfrowym kodem jest dla niego jedną z metafor, która tworzy różnicę uniemożliwiającą nazywanie kodu binarnego i programowania pismem. W pierwszym przypadku mamy do czynienia z komunikacją otwartą, w drugim zaś z ukrytym przed nieuzbrojonym obserwatorem cieniem tekstualności, paratekstem [118].

W odczytaniu Kittlera kod ma nie tylko znaczenie „językowe”, związane z szyfrowaniem informacji. Chodzi mu przede wszystkim o zwrócenie uwagi na kulturowe kody/języki samych mediów, a zatem ich wpływ na sposób postrzegania rzeczywistości, konstruowanie komunikacji i zdarzeń medialnych przy udziale konkretnych medialnych maszyn. Wszystkie one narzucają kulturze własne gramatyki, przekształcają rzeczywistość według własnego „kodu” (programu). To właśnie na tym poziomie, na którym rozważania Kittlera wpisują się w deterministyczny styl myślenia uprawiany wcześniej przez McLuhana (medium is the message) czy Flussera (filozofia aparatu), kod staje się zjawiskiem wykraczającym poza matematyczną formułę szyfru. Ich regułą jest nie tylko bycie interfejsem pomiędzy wyobraźnią i kulturą a maszynami, ale i działanie przeciwne polegające na szyfrowaniu według określonych założeń także rzeczywistości poza zamkniętym układem twórca-kod-maszyna. W przypadku kodu cyfrowego chodzi o unifikację kodów wcześniej istniejących mediów w ramach uniwersalnego języka cyfrowości. Różnice pomiędzy tym, co wizualne, audialne czy posiadające postać pisaną, istnieją w domenie cyfrowej tylko dla nienadążających za rozwojem technologii potrzeb kulturowych ludzi, mają znaczenie operacyjne i wynikają z natury naszych zmysłów, sposobów rozumienia świata i tradycji kulturowych. W rzeczywistości technologia nie mówi językiem ludzkim, kieruje się swoją własną, wewnętrzną logiką, której przejawy coraz silniej oddziaływają na świat kultury i jego tradycyjne języki. Powstają w ten sposób sieci dyskursów (discourse network), które umożliwiają na danym etapie rozwoju kultury i życia społecznego budować systemy, instytucje, reguły prawne, by w pożądany sposób kodować, przechowywać i wykorzystywać określone zasoby (Kittler 1990: 369). Jeśli uznać, że cyfrowy kod ma zdolność do wchłonięcia wszystkiego, co jest kulturą, transmisji wszystkich danych w ramach uniwersalnego języka/kodu komunikacyjnego, to w konsekwencji uznać należy także, że kultura zatoczyła koło. Antyczne systemy komunikacyjne, czyli systemy znaków, reguły pisma oraz transmitujące je/poddane im instrumenty (interfejsy), takie jak lira, usystematyzowały wedle zasad matematycznych i alfabetycznych wiedzę o muzyce, a sposoby jej wykonywania i percepcji z czasem stały się funkcjami tej systematyzacji. Dziś podobnie uniwersalną i totalna rolę odgrywa matematyczny kod i jego emanacje, czyli wszelkie projekty software. Kittler przeciwny jest jednak optymistycznej antropocentryczności mediów w wydaniu McLuhana, uważa ją za iluzję. Technologie nie są zwykłym przedłużeniem, protezą człowieka, ale prowadzą jego systematyczne wymazywanie i rozmywanie. Wszystko, co pozostaje po człowieku myślącym w kategoriach cyfrowych i posługującym się cyfrowymi maszynami, to abstrakcyjne kody i materialne zasoby medialnej pamięci zakodowanej w postaci danych i formy ich wykorzystywania – interfejsy i software [119].

Różnice w pojmowaniu natury cyfrowego kodu lapidarnie podsumować można w sposób następujący: kod cyfrowy można postrzegać jako specyficzny język, który przekłada się na w bezpośredni sposób na działania. Żadna inna forma językowych opisów, gramatyk, pojęć czy semantyk nie jest w stanie poruszyć świata materii [120].

Dążenie do matematycznej i logicznej spójności, prostoty i efektywności zdań wypowiadanych za pomocą digitalnego kodu to idee, które, choć powszechnie uznane i stanowiące centralny z rzemieślniczego punktu widzenia punkt odniesienia w software’owym etosie pracy, nie są jedynymi drogowskazami dla kodujących, podobnie jak nie stanowią jedynego odniesienia dla funkcjonowania różnych wcieleń software. W obliczu bloatware i poetyki mediów taktycznych, a także wszelkich innych kulturowych gier z kodem cyfrowym, dokonujących się za pomocą różnych interfejsów i zadań bazodanowych, sens matematycznej doskonałości kodu staje wobec konkurencyjnych paradygmatów.

Najważniejszym z nich jest dziś domena biomediów i związany z nią dyskurs poszukujący w prawidłach ewolucji materii ożywionej, a także w kształtach i regułach dających się zaobserwować w naturalnym rytmie i formach życia, odpowiedzi na zasadnicze pytania związane z technologią, komunikacją i kulturą. Jednym z najbardziej fundamentalnych założeń tego nurtu, które jest jednocześnie jego najbardziej kontrowersyjną tezą, jest uznanie za kod sekwencji informacji genetycznych DNA i postrzeganie ich w duchu teorii cybernetycznych i praktyk inżynierskich. Uznanie DNA za kod w takim rozumieniu oznacza dopuszczenie wszelkich jego software’owych, protokołowych i algorytmicznych modyfikacji, których działanie wobec żywej materii trudno nawet wstępnie oszacować. Spotkanie digitalnej inżynierii i jej matematycznej poprawności już jest, a w przyszłości z pewnością będzie coraz bardziej kontrowersyjne, będzie domagać się renegocjacji podstawowych ustaleń aksjologicznych, ontologicznych, prawnych i politycznych. Rozdzielone za sprawą Kartezjusza i oświeceniowej logiki myślenia nowoczesnego ciało i duch, myśl i materia zyskują w postaci inżynierii kodu genetycznego swoją najbardziej wyrafinowaną formę. Nie będę jednak wchodził szczegółowo w tę tematykę, jest zbyt pojemna i wejście takie wymagałoby zupełnie innego rozłożenia akcentów. Skupię się natomiast na jednym z wątków, który sytuuje się nieco na uboczu cywilizacyjnych rozważań o biomediachbiomediacji, a dotyczy bezpośrednio biologicznych inspiracji kodowania cyfrowego i sztuki mediów cyfrowych.

Studia biologii życia, rezultaty analizy reguł i postępów ewolucji stają się – na skutek uznania tajemnicy rozwoju życia za kod – referencyjną matrycą dla cyfrowego świata. Problemy, które napotkało przez miliony lat życie, i sposoby radzenia sobie z nimi są dla podejmujących ten wątek myślenia o cyfrowym świecie otwartą księgą wypełnioną samoistnie zaszyfrowaną wiedzą, której charakter nie sposób przecenić. Odpowiednio przygotowane wejrzenie w genetykę i jej procesy przypominać może zastosowanie się do reguł podręczników stylu i gramatyki. Czytanie genetyki to sięganie po gotowe, sprawdzone już w najlepszych/najtrudniejszych warunkach testowych rozwiązania strategiczne i taktyczne. Tak jak kosmos/Bóg napisał kod genetyczny, tak i my, dzisiejsi koderzy cyfrowego świata, możemy pisać swoją cyfrową rzeczywistość. CTRL+C i CTRL+V z kodu absolutu – oto jest wyzwanie rzucone przez biomediabiomediacje w obszarze cyfrowego świata! Stan natury jest przecież czymś dalece bardziej złożonym i inspirującym niż poziom zaawansowania matematycznego, technicznego i kulturowego cywilizacji ludzi. Natura jest ponad zdefiniowane w tych dyskursach kategorie piękna, wyobraźni, racjonalności, logiki, kreatywności, adekwatności, itd.

Trzymając się tej biomedialnej metaforyki kodu pójdźmy jeszcze dalej w nasączaniu nią cyfrowego myślenia. Podejmując się takiego poetyckiego i jednocześnie racjonalnego zadania P. J. Bentley, artysta mediów cyfrowych i ich krytyk, tak te dwa światy zestawia:

Ewolucja to główny programista systemów naturalnych. Geny są kodem wykorzystywanym w tym programowaniu. Ewolucja samosteruje się przez dobór najlepszych wersji software, które na bazie tego kodu udaje jej się wygenerować. […] Te najlepsze wersje poddaje nieustannym adaptacjom i poprawkom […] To, co działa, zostaje na stałe zaszyfrowane w genetycznym kodzie życia, a co nie, zostaje odrzucone. […] W taki brutalny sposób kod pilnuje swojej życiodajnej wydolności i zabezpiecza przetrwanie wszystkiego, co żyje. […] Natura jest systemem autoprogramującym i samodesignującym się [122].

W takiej pozycji dodatkowo utwierdza matematyczność jej związek ze zjawiskiem elektryczności. To za sprawą matematycznego zakodowania elektryczności, czyli cyfrowego regulowania jej stanów: 1 = prąd, 0 = brak prądu, udało się tę naturalną właściwość świata w wyrafinowany sposób podporządkować potrzebom rozwijającej się technicznie cywilizacji w postaci projektu digitalnego i sieciowego. Matematyczność dzięki elektryczności rozpoznajemy współcześnie, w związku z tym jako cechę świata (w tym sensie podobna jest elektryczności a w zakresie maszyn cyfrowych niemal z nią tożsama), a nie jego kulturową interpretację (Heller). Elektryczności zaś przypisujemy właściwości i role kulturowych kodów (stąd, to uwaga na marginesie, koncept rzeczywistości wirtualnej jako zjawiska symbolicznego, kulturowego – to różnica budująca wiele treści dyskursu jej poświęconych). Relacje matematycznego kodu i zjawiska naturalnego elektryczności tworzą matrycę, w której zakotwiczony został projekt cyfrowy. Przenikając przez poziom wizualnych, intuicyjnych interfejsów przeznaczonych dla użytkownika – takich jak GUI w systemach operacyjnych, przy dużym zbliżeniu zobaczymy w cyfrowych mediach zmiany napięcia elektrycznego, którymi w procesorach sterują tranzystory posłuszne matematycznym komendom 0 i 1.

Niewidzialna elektryczność projektu cyfrowego to zagadnienie, które można rozważać w kontekście teorii mediów. Francuski filozof techniki, Bernard Stiegler, mówiąc o przezroczystości i znikaniu technologii, posługuje się terminem mętności (deep opacity). Nie jesteśmy w stanie w prosty sposób i szybko zrozumieć, na czym polega właściwy sens technik, którymi się posługujemy w naszym życiu – twierdzi. Nie rozumiemy zarówno tego, w jaki sposób działają one same, jak i tego, jaki mają wpływ na to, jak działamy my, pomimo iż nieustannie podejmujemy ważne decyzje odnoszące się bezpośrednio do działania techniki jak i w oparciu o jej kulturowego ducha. Powstające w ten sposób kulturowe niezrozumienie powoduje, że techniki definiujemy jedynie w zarysie, w sposób przybliżony. Bardziej za sprawą naszych intuicji i odczuć niż racjonalnych przesłanek [126].

W podobnym duchu ten mglisty sens techniki analizuje Friedrich Kittler. Niemiecki teoretyk skupia się na przesłanianiu za pomocą warstw kodowych kolejnych poziomów software zawierających się pomiędzy kodem binarnym a interfejsami użytkowymi. Według Kittlera tworzy się w ten sposób system sekretny (system of secrecy). Pokryta nieprzezroczystymi warstwami kodu maszyna znika z pola percepcji swoich użytkowników, a jednocześnie za sprawą „zabezpieczającego” software i protokołów chroni się przed „pozbawionymi zaufania” programami i użytkownikami. W ten sposób szczelnym kordonem otacza jądro systemu operacyjnego i zamyka wiele potencjalnie możliwych wejść i wyjść z i do niego. Taki stan rzeczy świadczy o niezwykle istotnej kulturowej konsekwencji braku przezroczystości technologii cyfrowych. To trudność w przeniknięciu i opanowaniu cyfrowych systemów, których wielokrotne złożenia i warstwy stawiają niezwykle wysoko poprzeczkę kompetencyjną dla mających z nimi kontakt użytkowników. Cyfrowe systemy są dodatkowo coraz bardziej rozciągane różnymi wewnętrznymi regulacjami, które zwiększają z biegiem czasu dystans pomiędzy bezpośrednią manipulacją elektrycznością i matematycznością a finalnym tych systemów użytkownikiem [127].

Poddanie cyfrowego świata elektryczności, translacja kultury do jej fizycznego „języka”, ma daleko posunięte konsekwencje. Cyfrowy świat odnajduje w elektryczności swój uniwersalny i totalny zarazem nośnik, dopasowuje do niej swój kod. Ma tu miejsce jednocześnie jeden z najważniejszych dla postmedialności procederów, który na poziomie materialnym inicjuje wymieszanie dotychczasowych mediów, ich języków i form. To zjawisko polega na elektrycznej dekonstrukcji informacji, która w formie digitalnej traci tradycyjną nierozerwalność z formą (to zasada medialności) i nomadycznie wędruje pomiędzy różnymi wywołaniami, interfejsami i remiksami oczekując na ponowną materializację. Zelektryfikowana informacja redukuje się do postaci danych. Uwolnione od tradycyjnej tożsamości z nośnikami dane cyrkulują pomiędzy już dostępnymi interfejsami, algorytmami i protokołami. Pozostają w stanie nieustannej gotowości do bycia na różne sposoby wywołanymi i zinterpretowanymi za pomocą wszystkich możliwych metod, przyjęcia dowolnej medialnej formy i dowolnego statusu. Napięcie elektryczne „ożywiające” martwe krzemowe i metalowe obwody i układy scalone cyfrowego świata nie zna tradycyjnych kulturowych kodów, które stanowiły o jakości informacji, o jej ciężarze gatunkowym, kontekście społecznym, itd. Gotowe jest równie dobrze odtworzyć w abstrakcyjny sposób wszelkie wcześniejsze języki, formy i media, jak i powoływać do istnienia wszelkie inne, będące częściowo remediacjami już istniejących, jak choćby interaktywna telewizja czy prasa, jak i zupełnie nowe, takie jak interaktywne wizualizacje baz danych. Różnicujące się formalnie z wyraźnym przyspieszeniem w okresie nasilenia się rewolucji przemysłowej środowisko technologiczne mediów wystawia na ciężką próbę dotychczasowy monopol mediacji gutenbergowskiej. Wraz z pojawieniem się radia, fotografii, potem filmu, telefonu, rodzi się nowa sytuacja ontologiczna, w której komunikat można odseparować od transmitującego go medium. Wtedy to właśnie pojawia się informacja jako taka. Jako tekst, który wymyka się literaturze; przekaz, który konkurencyjnie podejmują i próbują zawłaszczyć inne technologiczne formy nowoczesnych mediacji. W ten sposób informacja przestaje być materialna i powoli przekształca się w to, czym jest dzisiaj – potencją/energią komunikacyjną szukającą najlepszego wcielenia technologicznego (interfejsu). To technologiczne zróżnicowanie medialnych form dowodzi zasadniczej różnicy pomiędzy materią a informacją, pomiędzy rzeczywistym a symbolicznym w komunikacyjnym uniwersum [128].

Zmianę statusu informacji, którą wywołuje elektryczność operująca w obszarze cyfrowego kodu, amerykańska badaczka nowych mediów, Katherine Hayles, nazywa odcieleśnieniem informacji. Według Hayles zanurzeni coraz głębiej w świat kodu i danych, którymi elektrycznie manipulujemy, na nowo konstruujemy naszą tożsamość i wyobraźnię, rozpoczynamy kondycję postludzką[129]. Dla tej kondycji najważniejsze są procesy, które od czasów kartezjańskich kultura Zachodu postrzega jako właściwości rozumu i rozumności zachodzące w coraz większym dystansie od ciała [130]. Hayles nie stara się, oczywiście, wspierać i uzasadniać teorii dotyczących fizycznego znikania cielesności. Autorce chodzi tu o malejące jej znaczenie w obliczu cyfrowych przemian, o narodziny nowych wyobraźni i scen działania, które do cielesności odwołują się w coraz bardziej ograniczonym stopniu z pominięciem tradycyjnych dyskursów i etosów. Obu sfer, cielesności i informacji, dotyczy podobnie rekonstrukcja: kiedy przyznajemy informacji niezależność od jej materialnych nośników – mediów, to jest kiedy transformujemy/redukujemy ją do postaci cyfrowych danych, wówczas opuszczamy galaktykę, którą definiują obecność i jej brak. Wchodzimy za to w porządek, w którym panują jedynie binarne przeciwieństwa sygnału i jego braku, matrycy i przygodności oraz rezonujące na kulturę dystanse pomiędzy nimi, dla których naturalnym krajobrazem stają się pikselowe ekrany i matryce zastępujące euklidesową czasoprzestrzeń. Odpowiadają im coraz częściej binarne opozycje cielesność/tożsamość, działanie/myślenie, które realizują się przez bliskość z cyfrowymi technologiami. To, że informacja straciła cielesność, nie oznacza, że ludzie i świat stracili swoje – konkluduje ostatecznie Hayles[131]. Powstaną natomiast różne nowe typy świadomości, które z dotychczasowymi, analogowymi i materialnymi zarazem, będą miały coraz mniej wspólnego. Naturalnym dla nich matecznikiem będzie elektryczność i napędzany przez nią hardware oraz sieci danych.

Zachowawcza optyka Hayles trafia na bardziej radykalne myślenie wielu teoretyków cyberkultury i nowych mediów. Elektryczne losy informacji i cielesności okazują się jednym z lejtmotywów dyskursu trans- i posthumanistycznego (stosowane są tu obie formy zamiennie)[132]. Dla takich jego moderatorów, jak Hans Moravec czy Ray Kurzweil, najbardziej interesujący w obszarze oddziaływania cyfrowych technologii i elektryczności okazuje się kontekst technologicznej transgresji i biopolityczności cielesności i podmiotowości. Wspomniany Hans Moravec już pod koniec lat 80. ubiegłego wieku propagował pogląd, w myśl którego na zasadzie podobieństw pomiędzy neuronalnymi wzorcami myślenia i konstrukcji mózgu oraz zaawansowanymi sieciami komputerowymi możliwy będzie z czasem „upload” intelektu/ducha w bardziej trwałe, lepiej pracujące i zapewniające większe możliwości – w gruncie rzeczy nieśmiertelne, środowisko hardware[133]. Dekadę później Kurzweil posunął projekt przeniesienia ludzkiej podmiotowości do wewnątrz krzemowo-elektrycznego „organizmu”, przepowiadając, że przejście to dokona się raczej do wewnątrz software niż hardware. Staniemy się software, a nie hardware. Esencją naszej tożsamości stanie się permanentne trwanie i autoewolucja (w) software[134].

Pomimo centralnej lokacji wewnątrz projektu cyfrowego elektryczność nie stała się dotąd przedmiotem pogłębionych studiów kulturowych, dyskurs jej poświęcony skonstruowały i podtrzymują nauki ścisłe i coraz częściej społeczności domorosłych i profesjonalnych inżynierów pracujących z maszynami cyfrowymi i elektroniką [135]. Pora najwyższa, aby elektryczności i energii w ogóle dedykować szeroko zakrojone studia humanistyczne i kulturowospołeczne. W połowie XIX wieku, a więc w okresie, kiedy dopiero odkrywano użytkowy potencjał elektryczności, Michael Angelo Garvey w futurystycznej książce zatytułowanej The Silent Revolution. Or, the Future Effects of Steam and Electricity upon the Condition of Mankind wyrokował: elektryczność stanie się najważniejszym kanałem, po którym będziemy transmitować i komunikować naszą inteligencję. Elektryczny telegraf dysponuje w tym zakresie wspaniałymi właściwościami: pomija czas i miejsce[136]. I choć tę intuicję potwierdziła współczesna kultura, to krytyczna wiedza o elektryczności wciąż sięga niewiele głębiej niż do wyobraźni Garveya czy Morse’a. Chyba tylko McLuhan pisząc o globalnej wiosce, w której elektroniczne media zastępują kulturę wizualną i gutenbergowską kulturą wtórnej oralności tworząc kolektywną inteligencję, docenił wagę elektryczności w medialnym pejzażu współczesnego świata. Po nim elektryczność zamknięta w szczelnych obiegach krzemowych płytek i tranzystorów stała się tak naturalna, że nazbyt oczywista. McLuhan pisał:

Człowiek elektroniczny, podobnie jak człowiek sprzed epoki alfabetu, postrzega i ujmuje świat w całości. Jego informacyjne środowisko to w gruncie rzeczy jego własny centralny system nerwowy [137].

Celem nauki, sztuki i edukacji w ciągu najbliższych lat powinno być nie tylko odszyfrowanie kodu genetycznego, ale przede wszystkim kodów ludzkiej percepcji. W globalnym środowisku informacyjnym stary model edukacji oparty na poszukiwaniu odpowiedzi jest nieadekwatny: jesteśmy otoczeni przez miliony odpowiedzi poruszających się i zmieniających z prędkością elektryczności. Przetrwanie i kontrola nad światem będą zależeć od zdolności zadawania właściwych pytań we właściwym czasie i miejscu. W sytuacji, gdy środowisko informacyjne znajduje się w nieustannym ruchu, potrzeba nie tyle gotowych scenariuszy i rozwiązań,ile raczej starych umiejętności odczytywania wielkiej księgi świata, nawigowania w mało przyjaznej i nierozpoznanej we właściwym stopniu przestrzeni informacyjnej. W innym wypadku będziemy mieli nad tym środowiskiem technologicznym mniej kontroli niż mamy nad wiatrem i ruchami wody [138].

Mimowolne rozpoznawanie kontroli nad zjawiskami naturalnymi jako kodów kultury stawia przed analitykami cyfrowej komunikacji i pośredniczących w niej maszyn problem, który określiłbym mianem potrzeby „humanistycznej teorii elektryczności”. Poddanie tego zjawiska kulturowej analizie, konstruowanie jego teorii, jawi się jako jedno z najważniejszych – obok teorii hardware, kulturowej teorii matematyki, badań nad HCI (Human-Computer Interfaces) czy software studies – zadań badawczych dla współczesnej komunikologii i medioznawstwa. Potrzebę taką umacnia dodatkowo istnienie rozbudowanej teoriopoznawczej tradycji cybernetycznej, która rości sobie prawa do wchłonięcia/zastąpienia teorii kulturoznawczych.

Nawarstwianie kodowych dialektów i struktur ustawia świat cyfrowy w zakresie zjawiska, które w swojej teorii komunikacji Vilém Flusser określa mianem transkodowania (transcodify). Stan ten oznacza skomplikowane i niejednolite relacje pomiędzy nakładającymi się na siebie kodami. Bywają one od siebie zupełnie niezależne, ale i pokrywają się w zakresie szyfrowania rzeczywistości. Niektóre z łatwością komunikują inne, pozostałe są tak od nich różne, że przekładanie jednego na drugi prowadzi do całkowitej utraty przekazywanej w ten sposób wiadomości, która rozpływa się w procesie trudnej translacji. Flusser podejrzewa wyłanianie się wraz z rosnącą ilością różnych kodów (a dodajmy, że w cyfrowym świecie ich liczba przyrasta niezwykle szybko), rodzin kodów i różnych gałęzi ich rozwoju[141]. Takie namnożenie kodów wydaje się szczególnie istotne, kiedy rosnące zbiory „analogowych” i „cyfrowych” w większości dublują się i w codzienności doświadczeń kultury komunikacyjnej nakładają się na siebie i konkurują ze sobą. Według Flussera istnieją trzy podstawowe typy kodów kultury, których różnice wynikają z właściwości naturalnego sensorium człowieka: to kody wizualne (alfabet), audialne (język mówiony, muzyka) i mieszane (teatr, media elektroniczne)[142]. Cyfrowy świat doskonale wszystkie te typy imituje według własnej, wewnętrznej gramatyki kodu binarnego oraz towarzyszącego mu hardware i emituje w otwartej konkurencji wobec istniejących w przestrzeni pozamedialnej i analogowej pierwowzorów.

Wielość kodów i ich zapadanie się w siebie nawzajem, ich niejasność i odległość od pierwotnych, długo im towarzyszących kontekstów kulturowych – tak jak to ma miejsce w przypadku pisma, które cyfrowość sprowadza do roli kodeksu regulującego działania maszyn medialnych – to przejaw sytuacji postmedialnej lub, jak można by ją określić w kontekście rozważań nad kodem cyfrowym, postkodowej. Istniejące kody odchodzą do historii komunikacji, tak jak niegdyś istniejące egipskie hieroglify, węzły na indiańskich rzemykach czy inne zapomniane już systemy znaków. Friedrich Kittler ocenia te historyczne następstwa jednoznacznie. Jest przekonany, że wraz z nadejściem cyfrowego wymieszania w obliczu procesorów, języków programistycznych przestajemy być piśmienni. Cyfrowy kod, a precyzyjnie mówiąc narosłe na nim współczesne języki programowania, które posługują się już nie tylko fizycznym językiem włącz/wyłącz, matematycznymi wartościami 0 i 1, ale także syntagmą i semantyką alfabetu i języka mówionego, unieważniają naturalny kontekst ich występowania i podważają ich tradycyjna semiotykę. W postmedialnych okolicznościach cyfrowy kod wchłania istniejące kody i skutecznie pasożytuje na ich kulturowej energii, wszystkie przed nim istniejące kody czyniąc już tylko atrakcyjnym przedmiotem badań dla historii i geologii mediów [143].

W swojej gramatologii dysku twardego Matthew Kirschenbuam wskazuje na reguły postępowania z danymi wpisane we współczesne oprzyrządowanie cyfrowych maszyn. Te reguły stanowią jeden z przykładów kodeksów wmontowanych w architekturę cyfrowych maszyn i sprawnie nią zarządzających poniżej widocznego dla użytkownika poziomu software i interfejsów. Są to: przypadkowy dostęp, czyli natychmiastowy dostęp do dowolnego elementu bazy danych, co w kontekście rozważań postmedialnych oznacza możliwość wywołania dowolnego fragmentu dowolnego zdigitalizowanego medium; cyfrowo-analogowe przetwarzanie sygnału, czyli nieustanne tłumaczenie cyfrowego na analogowe i odwrotnie; różnicowość, czyli odczytywanie przez głowice czytające/zapisujące danych z talerzy dysków według zasad mechaniki, a nie wartości merytorycznej danych; trójwymiarowość zapisu danych na współczesnych nośnikach; racjonalizacja zapisu, czyli sterowanie pracą dysku przez protokoły podporządkowujące ich pracę zdolności do mapowania zawartości dysku (według sektorów, tracków, headów); zależność od prędkości odczytu; sterylność i precyzja samego nośnika; wreszcie także wariacyjność zapisu na terytorium bazy danych, w której rządzą zasady pierwszeństwa dla danych najczęściej wykorzystywanych przez maszynę, nieustanne nadpisywanie wersji różnych danych, pamięci podręcznych, itd [145].

Szczególnym, wystawionym na oddziaływanie polityczne, przykładem funkcjonowania cyfrowych technologii według reguł wytyczanych przez protokoły jest sieć. Spotykają się w niej autonomiczne maszyny cyfrowe, które wyposażone są przez protokoły ITC IP we własną „podmiotowość” i dzięki niej zdolne są do nawoływania się (ping, przydzielanie adresów w sieci), nawiązywania połączeń między sobą oraz konstruowania trwałych relacji sieciowych, a pośród nich także i hierarchii zależności i władzy odzwierciedlających istniejące kształty analogowego społeczeństwa i sposoby zarządzania nim z poziomu władzy politycznej. Protokoły są matrycami (Thacker), diagramami (Deleuze) istniejącymi zarówno na poziomie rozwiązań kodowych, jak i materialnymi koordynatorami elektryczności zasilającej cyfrowe maszyny.

Sieci i przede wszystkim sieć sieci – Internet, właśnie przez pryzmat polityki i ideologii realizowanej za pomocą protokołów postrzegają w swojej teorii sieci amerykańscy teoretycy Galloway i Thacker [146]. Internet, szczególnie po wydarzeniach terrorystycznych z roku 2001, jest dla nich areną dynamicznego utrwalania relacji władzy i przestrzenią nasilającej się kontroli. Odwołując się do Foucaultowskiej, biopolitycznej koncepcji władzy i obserwacji Deleuze na temat społeczeństwa kontroli, definiują protokoły wychodząc daleko poza ich technologiczne desygnaty. Widzą w nich zarówno aparaturę, za pomocą której fizycznie spinana są węzły sieci, ale i polityczne narracje (programy, kody), które wpisane są w hardware’owe formy umożliwiające protokołom działanie [147].

Postrzegany w kontekście protokołowych regulacji kod jest domeną w pełni kontrolowaną przez polityczno-technokratyczne i militarno-ekonomiczne mechanizmy działające w społeczeństwach liberalnych – ich strategie, by powiedzieć to za pomocą klasycznego pojęcia studiów kulturowych autorstwa Michela de Certeau. Strukturalna siła oddziaływania protokołów jest tak znacząca, że cyfrowy kod sam w sobie jak i we wszystkich swoich aplikacjach użytkowych znaczy jedynie tyle, na ile zezwala mu kontekst sieci, w której funkcjonuje. Można wyobrażać sobie cyfrowe światy i interakcje tylko w takim zakresie, na jaki pozwalają negocjacje protokołów. Dla nasilających się działań strategicznych przeciwwagą są aktywności podejmowane w sferze mediów taktycznych. To twory software’owe, które starają się negocjować reguły i siłę protokołów i przybierają wspomnianą przez mnie już wielokrotnie formę mediów Do-It-Yourself. Są zatem mniej lub bardziej wyrafinowanymi/poprawnymi formalnie i technicznie, zrealizowanymi na różnym poziomie celowości/przypadkowości, z różną zawartością krytycyzmu i kulturowego dystansu, z odniesieniem do działania mieszczącego się w poetyce hakingu, projektami komunikacyjnymi realizowanymi przez przeciętnych użytkowników w odpowiedzi na ich różne codzienne, polityczne, kulturowe i społeczne potrzeby wedle amatorskich zasobów, wiedzy i możliwości.

Media taktyczne to media kryzysu, krytyki i opozycji […] ich typowymi bohaterami są: aktywista, nomadyczny wojownik mediów, pranxter, uliczny rapper, kamikadze podręcznej kamery wiecznie działający na ulicy, nieustannie szukający wroga [148].

Jak stwierdziłem, protokoły są także, poza ich natywną funkcją zarządzania relacji software/hardware/Network, technologicznymi wcieleniami/przedłużeniami władzy politycznej i towarzyszącej jej ideologii, szyfrem i mechanizmem przenoszącym analogowe struktury i hierarchie do cyfrowego świata. Spełniają rolę regulacji prawnych wszytych na stałe w technologiczną postać cyberprzestrzeni. Prawa te tworzą, implantują do wewnątrz maszyn i kulturowych przestrzeni cyfrowych technokratyczni specjaliści, którzy ustanowili swoją społeczną pozycję i zabezpieczyli wpływy dzięki wiedzy na temat logiki funkcjonalnej techniki oraz kontroli nad sposobami jej wykorzystania. W połowie lat 90. Arthur Kroker, jeden z najgłośniejszych krytyków cyberkultury i jej technologii, w książce Data Trash: The Theory of the Virtual Class wystąpił z kulturoznawczą krytyką rozwoju technologicznego uwikłanego w tego typu rynkowe, ekonomiczne, polityczne i związane z globalnymi grami gospodarczymi mechanizmy i struktury [150]. Sugerował wówczas narodziny „klasy wirtualnej” towarzyszącej coraz bardziej powszechnej obecności cyfrowych maszyn w życiu publicznym. Władza tej nowej klasy rządzącej polegać miała na realizowanej za sprawą standardowych mechanizmów ekonomicznych i politycznych (Kroker odwołuje się do klasycznych diagnoz krytycznej teorii kultury jako ideologii) kontroli nad społecznym sensem cyfrowej rewolucji. „Klasa wirtualna” w przestrzeni cyfrowej szuka kolejnego terytorium kulturowej kolonizacji według starych, dobrze już w życiu społecznym rozpoznanych mechanizmów przemysłu kulturowego. Wirtualna klasa zyskała społeczną i kulturową władzę dzięki regulowaniu rozwoju sfery high-tech i ustanawianiu dla niej stosownych kontekstów społecznych uwikłanych w mechanizmy kontroli własności intelektualnej (debaty wokół redefinicji praw własności intelektualnej i praw autorskich), sposoby tworzenia i cyrkulacji cyfrowych zasobów (polityki digitalizacji), reguły konstruowania i podtrzymywania interakcji i wymiany w sieciach (protokoły, infrastruktura przesyłowa). Władza także i w cyfrowym świecie pilnuje, aby narzucane przez nią autorytarnie reguły technologicznego bycia pozostały skuteczne i trwałe – zabiega o to, aby użytkownicy technologii informacyjnych nie stali się świadomi i krytyczni wobec dostępnych dla nich cyfrowych maszyn, a pozostawali jedynie ich nieświadomymi, biernymi konsumentami. Wirtualne zasady dotyczą np. bezkrytycznego zanurzenia ciała w cyfrowy świat oraz dokonującej się przy tej okazji dekompozycji podmiotowości. Wydaje się, że protokoły – choć to tylko czubek góry lodowej kryjącej pod powierzchnią oceanu technologicznego podobne mechanizmy – to najbardziej radykalne dziś reguły wpisane w konstytucję cyfrowego świata. To kulturowy kodeks pisany przez technokratyczną klasę wirtualną.

Bliskoznacznie a nawet wymiennie pojawiają się w dyskursie studiów nad nowymi mediami, cyfryzacją i sieciami kategorie pojęciowe kodu i software oraz wszelkie ich pochodne, takie jak kodowanie, oprogramowanie, aplikacje, programowanie, itd. Także w niniejszym tekście czytelnik wielokrotnie stawał wobec wymienności obu rodzin pojęć – pisząc o kodowaniu odnosiłem się do programowania, analizując warstwy kodu zwracałem się ku strukturom i reżimom oprogramowania. Kod binarny to alfabet, w którym napisane jest oprogramowanie – software rozumieć należy jako reguły gramatyczne cyfrowego kodu i ich emanacje na bazie określonego hardware i interfejsów. Takie relacje pomiędzy wymienionymi pojęciami i ich semantykami uznać można za zupełnie naturalne dla większości ich aktualnych wywołań, także tych związanych z budowaniem humanistycznych i społecznych teorii poświęconych specyfice cyfrowego świata. Jednakże nieuchronnie, wraz z rozwojem miękkich mediów – czyli software i wszelkich jego wcieleń i zastosowań – oraz powiększającym się dystansem pomiędzy pierwotną formułą binarnego kodowania elektryczności a software oddalającym się od tego poziomu ku antropomorficznym i kulturowo pożądanym wcieleniom, dzisiejsza bliskość tych kategorii będzie musiała ulec erozji. Już teraz tę rosnącą przestrzeń pomiędzy kodem a software funkcjonują protokoły, architektury obliczeniowe czy języki programowania.

Pozostawiam tu kategorię software bez precyzyjnej definicji. Uznaję ją za częściowo wyjaśnioną przy okazji moich rozważań, a jednocześnie za zbyt obszerną, aby możliwe było tu rzetelne konstruowanie wielowymiarowej semantyki tego jakże pojemnego pojęcia. Nie wchodzę także w różne spory dotyczące tego zasięgu ani różnice zdań co do zasadności jej rozciągania na kolejne obszary mające miejsce w dyskursie studiów medialnych. Wrócę natomiast do przywołanych już przeze mnie stanowisk wpływowych konstruktorów nowomedialnego dyskursu, którzy wskazują na dokonującą się obecnie ewolucję tego typu studiów zmierzającą w kierunku zunifikowanej i transdyscyplinarnej formuły software studies. Radykalny postulat koncentracji aktywności poznawczej nauk humanistycznych na sferze software i jego kultury zaproponowali fundatorzy nowej dyscypliny Matthew Fuller i Lev Manovich. Podobnie wypowiadają się tacy autorzy, jak David Berry, Douglas Rushkoff czy Adrian McKenzie [154]. Wszyscy oni, jaki i wielu innych, także u nas, widzą w nowej formule szansę na update studiów kulturowych, nowy program dla studiów nad mediami i komunikacją, których powinnością ma być tworzenie teorii software jako teorii kultury i wielowymiarowa analiza soft­ware jako kultury.

W tym kontekście powtórzę prowokacyjną tezę Kittlera: there is no software. Software jest kategorią metaforyczną, bowiem opisuje jedynie kulturowe, przyjazne użytkownikowi operacje dokonywane na płynącym wewnątrz cyfrowych maszyn napięciu elektrycznemu. Software to kod kultury służący do wydawania poleceń i kontroli ich wykonania przez cyfrowe i sieciowe maszyny. Niejako na przekór tej radykalnej tezie, której uzasadnienie jest zarówno techniczne – software to nic więcej ponad system poleceń dla elektryczności w maszynach, oraz kulturowe – to jedynie kod kulturowy, który nigdy nie osiągnie statusu języka, to właśnie sfera otwierająca się pomiędzy tymi ograniczeniami powinna stanowić najważniejszy problem studiów kulturowych, związanych z mediami i komunikacją, kulturą wizualną, językoznawstwem i wielu innymi podobnymi. Software uobecnia sens mojej tezy o sytuacji postmedialnej – to przestrzeń działań transmedialnych, hybrydycznie łącząca materialność elektryczności z abstrakcją/wirtualnością kodu matematycznego, sieci z aktorami w nich funkcjonującymi oraz medialne materie z reżimami semantycznymi kultury. Podobnie jak przywołani badacze tak i ja uznaję ten kierunek działania za właściwy i zasadny. Uznaję, że zarówno medialny świata, jak i wszelkie dyskursy i teorie, sposoby nazywania i analizowania go, stoją dzisiaj u progu software turn. W tym tekście jedynie wskazuję na ten ogólny problem i związany z jego pojawieniem się i siłą kierunek poznawczy dla studiów komunikacyjnych, uznając jednocześnie, że krokiem poprzedzającym jego podjęcie jest konieczność weryfikacji sytuacji medialnej (zarówno na poziomie technologicznym społecznym, jak i dyskursywnym). Stąd w moich rozważaniach software postrzegam jako stan późniejszy, docelowy, przed którym należy rozliczyć się z sytuacją medialną i wejść w poprzedzającą software culture sytuację postmedialną.

Najbardziej istotnym dla moich rozważań problemem obecnym w przedstawionej rekonstrukcji namysłu nad mediami i kulturą jest interferencja cyfrowego kodu, który przecież na bazowym poziomie dysponuje tylko dwiema wartościami: 01, onoff, jestnie ma, z praktyką software, która stworzyła wiele różnych języków i systemów w oparciu o te dwie zasadnicze wartości. Czy i jaką kulturową semantykę i systematykę przypisać do cyfrowego kodowania w ogóle i jak się ona zmienia w różnych obliczach software? Jakie skutki kulturowe ma powiększający się dystans pomiędzy kodem a software? To problemy, które optyka software studies wnosi do teorii postmediów i postmediacji.

Z wyrafinowaną propozycją sytuującą się w przestrzeni odpowiedzi na te pytania wystąpił dekadę temu Scott Lash w książce zatytułowanej tak jak jego program teoretyczny: Information Critique [155]. Według Lasha kluczem do zrozumienia nowej ontologii medialnej jest kategoria informacji i jej krytyka, które czerpią z sytuacji danych, kodu i software. Lash podobnie jak wcześniej wymienieni propagatorzy jest przekonany, że nauki humanistyczne i społeczne wyczerpały swój potencjał wyjaśniający wobec zmieniającego się pod wpływem rewolucji informacyjnej świata. Opierają się one przede wszystkim na filarach teorii krytycznej, która najpierw przyjęła postać niemieckiej „Ideologiekritik” w odczytaniach Adorna, Habermasa i innych marksistów, a następnie oparła się o diagnozy wynikającą z rozwijanej w perspektywie europejskiej i amerykańskiej teorii krytycznej. Nie są one w takiej postaci zdolne do miarodajnego oglądu i reakcji w sytuacji, kiedy to, co symboliczne (a zatem ideologiczne, związane z dyskursem, władzą, manipulacją), staje się jedynie informacyjne, staje się zjawiskiem jednocześnie fizycznym (elektryczność) i cybernetycznym (matematyką regulującą działanie elektryczności)? Krytyka ideologii winna ustąpić miejsca „Informationkritik”, czyli krytycznej teorii informacji oraz towarzyszącej jej kulturowej krytyce kodu cyfrowego, która może i powinna przybierać postać software studies, ale także mierzyć się z wyzwaniami praw fizyki dotyczących elektryczności oraz na powrót zająć się kulturowym „dekodowaniem” matematyki rozumianej jako system informacyjny, komunikacyjny. Chodzi w gruncie rzeczy o ustanowienie mostu łączącego tradycję krytycznego badania kultury medialnej ze sferą kultury nowych mediów. Krytyczny namysł nad światem cyfrowej informacji miałby za zadanie czytanie go jako tekstu kultury, wynajdowanie i obnażanie w nim, przede wszystkim, semantyk różniących informacyjność od dezinformacji i mis informacji, które powstają, kiedy perspektywie semantycznej (ideologicznej) teorii kultury i mediów przyjrzeć się na bazie myśli cybernetycznej komunikacji cyfrowej. Według Lasha informacja i dezinformacja to naturalne, dopełniające się stany cyfrowego uniwersum, a popadanie jednego w drugi jest wielokrotnie niezauważalne. Można traktować je jako kategorie przeciwstawne jedynie z punktu widzenia kulturowej, semiotycznej krytyki systemu komunikacyjnego działającego w oparciu o cybernetyczny system technologii komunikacyjnych.

Niemożliwe jest już spojrzenie na rzeczywistość kultury z krytycznego dystansu oferowanego w ramach teorii krytycznej. Globalny porządek informacyjny wymazał wszelką transcendencję, stając się systemem autoreferencyjnym – nie ma już innej przestrzeni niż przestrzeń informacyjna, a czas uległ radykalnej kompresji. Ze względu na te przetasowania konieczne jest przyglądanie się informacji z wewnątrz jej samej, wejście w świat kodu i przyglądanie mu się od środka. Klasycznie pojęte i krytykowane w ramach perspektywy teorii krytycznej ideologie są tworami uniwersalnymi, rozciągającymi się w czasie i przestrzeni, dążą ku metanarracyjności. Tymczasem informacja jest skompresowana w czasie i przestrzeni, immediuje, czyli oferuje bezpośredniość i natychmiastowość. W porządku informacyjnym wszelkie narracje sprowadzone są do postaci punktu, linie zamieniają się w punkty. Zdaniem Lasha ten informacyjny porządek różni się radykalnie od takich konstrukcji kulturowych, jak Chrześcijaństwo czy nawet Oświecenie. Poprzez swoją natychmiastowość (przekazu, reakcji, generowania danych) stwarza kondycję dyktatu chwili – natychmiastowej percepcji, adaptacji, reakcji, ograniczając/wyłączając możliwość zdystansowanej refleksji. Krytyka informacji musi, reasumując, spełniając założenia teoriopoznawcze krytyki kultury jako krytyki ideologii i semantyki, zasadzać się wewnątrz cybernetycznej natury cyfrowego kodu i jego cyberkulturowych implementacji. Lash przedstawia to zwięźle następującymi słowami: Information critique must come from inside the information itself [156].

Bardzo podobne stanowisko co do zmian paradygmatycznych i metodologicznych w zakresie badania kultury mediów cyfrowych i ich samych prezentują analitycy cyfrowego kodu i jego software’owych implementacji. Proponują oni nową medioznawczą formułę Critical Code Studies, w której centralnym punktem odniesienia ma być ontologia cyfrowego kodu[157]. Zdaniem jednego z propagatorów tego stanowiska badawczego, M. C. Marino, jego formuła miałaby odsuwać na drugi plan myślenie o kodzie jako metaforycznej, poetyckiej i estetycznej paraformie tekstu i tekstualności. Trzeba zacząć analizować go jako tekst w sensie dosłownym, jako system znaków wyposażony we własną syntagmę, retorykę oraz funkcjonalność wybiegającą poza stricte maszynową użyteczność jako kodyfikację instrukcji wykonawczych. Takie studia nad kodem to praca dla nauk humanistycznych, których podejście różni się od cybernetycznych perspektyw i analiz. Humaniści mają niezbędny bagaż doświadczeń i odpowiednie narzędzia, aby na bazie ustaleń cybernetyków i inżynierów, skupiających się na technologicznych i scjentystycznych analizach, rozpocząć kreślenie semantycznej geografii kodu, czytając/dekodując go przez osadzenie w kontekście kulturowym, społecznym, ideologicznym. Marino proponuje, aby krytyczne studia kodu stały się nowym, hermeneutycznym językoznawstwem, literaturoznawstwem i krytyczną teorią kultury.

Taka krytyka kodu i informacji to wstęp do kulturowej krytyki software. Oba nurty współczesnego medioznawstwa i studiów kulturowych odwołują się do historycznej debaty o naturze informacji, którą już wcześniej streszczałem, oraz do informacyjnych mitologii, które na przestrzeni historii cyfrowych mediów i ich społecznych zastosowań stawały się powszechnymi narracjami im towarzyszącymi. O mitach związanych z informacją i jej politycznym wykorzystaniem pisali już ojcowie-założyciele projekt cyfrowego, tacy jak np. Langdon Winner [158]. Amerykański cybernetyk krytykował najpopularniejsze we wczesnej fazie zachwytu nad możliwościami technologii mity o informacyjnym wyzwoleniu. Mit o liberalizującej sile rewolucji cyfrowej, demokratyzacji życia społecznego i wzroście kreatywności i innowacyjności za sprawą dostępu do technologii cyfrowych opiera się na następujących fałszywych przesłankach: ludzie są uzależnieni od informacji; informacja to wiedza; wiedza to władza; upowszechniający się dostęp do informacji sprzyja rozwojowi demokracji, wyrównuje społeczną strukturę władzy. Pierwsze z tych założeń autor obala na podstawie analizy systemu dystrybucji wiedzy i edukacji w społeczeństwach. Nie jest on idealny, ponieważ wciąż poza jego oddziaływaniem pozostaje wiele środowisk, grup społecznych i innych wykluczonych z powodów ekonomicznych, geograficznych, kulturowych, cywilizacyjnych. Co do drugiego to nie ma żadnego dowodu na to, że wiedza oznacza automatycznie wynikającą z niej władzę. Kolejna sprawa to mitologizowanie cyfrowej informacji – nie jest ona oczywiście wiedzą w tradycyjnym znaczeniu, domaga się intelektualnej obróbki, translacji z postaci danych binarnych do formy kulturowo czytelnej informacji.

Potwierdzenie wagi tego zwrotu ku kodowi i software znaleźć można także u historyków cyfrowości, którzy pisząc jej dzieje coraz częściej rezygnują z maszynocentryzmu, w ramach którego to wytwarzanie hardware i wszelkie związane z tym okoliczności polityczne, militarne, ekonomiczne, itd. miałyby odgrywać w powszechnej historii mediów cyfrowych decydującą rolę [159]. W tych dyskursywnych i teoriopoznawczych figurach – krytycznej teorii protokołów, kodu i soft­ware, widać przesunięcia, które dokonują się analogicznie w tkance samego ich przedmiotu, czyli cyfrowego świata technologii. To, co określiłem jako sytuację postmedialną w obszarze zmieniającego się krajobrazu technokulturowego, w praktykach i teoriach naukowych przybiera postać zwrotu ku software i jego krytycznej kulturowej teorii jako uniwersalnym wyjaśnieniom medialnej kultury współczesności.

Cyfrowemu kodowi, pomimo wielu podobieństw, nie udaje jak na razie przejąć funkcji języka i daleko mu do centralnej pozycji w uniwersum komunikacyjnym. Nie osiągnął także jeszcze kulturowej roli porównywalnej z przypisaną mitycznej wieży Babel: uniwersalnego, totalizującego sposobu komunikacji. Obecna pozycja postrzegana w ramach różnych porządków kultury pozwala jednak przypuszczać, że taki kierunek jego kulturowego pozycjonowania należy uznać za wiodący. Jego potwierdzeniem, poza przywołanymi już przykładami szczegółowymi, są także zjawiska o charakterze bardziej ogólnym. Pierwsze z nich dotyczy wewnętrznej dynamiki rozwoju uniwersum technologii medialnych, które w medioznawczym dyskursie kryje się pod pojęciem konwergencji. Nie będę tu wchodził w znaczenie tego pojęcia szczegółowo, bowiem już na dobre zagościło ono w medioznawczym słowniku. Chciałbym natomiast zwrócić uwagę na fakt, że to właśnie natura kodu cyfrowego umożliwiła radykalne przyspieszenie tego procederu w okresie cyfrowym. Konwergencja to stapianie się już istniejących form mediów, wchłanianie jednych przez drugie. Telewizja powstała jako konwergencja radia i kina, telefon komórkowy jako połączenie telefonii kablowej z radiem, itd. Obecność cyfrowego kodu – to właśnie okoliczność postmedialna – sprowadza wszystkie istniejące gramatyki mediów i ich formy do wspólnego mianownika. Wszystkie one, o ile chcą być obecne w cyfrowym świecie, muszą dać się przekonwertować do postaci digitalnego alter-ego. Tracą w ten sposób wiele swoich fizycznych przymiotów, ale zyskują miejsce i szansę na przetrwanie wewnątrz cyfrowego uniwersum. Telewizja w wersji cyfrowej godzi się na ograniczenie jej (to geny kina) linearności i masowości, ale w zamian zyskuje na interaktywności i otwarciu. Książka traci papierowy format (który dorobił się już w kulturze własnej mitologii), a zyskuje elektroniczną intertekstualność i nawigowalność/bazodanowość. Podczas translacji na wartości binarne wszystkie dotychczas istniejące media odrzucają swój tradycyjny hardware, by stać się bazami danych z przypisanymi sobie, naśladującymi starszych krewnych, interfejsami. Jednocześnie ta adaptacja wprowadza je w środowisko egalitarne, w którym potencjalnie wszystkie są sobie równe w formie zapisów kodu. Dzięki temu otwierają się na kulturę i świat: stają się programowalne, mogą być na różne sposoby wywoływane i przetwarzane. Ich technologiczne i kulturowe dziedzictwo staje się przedmiotem oddziaływania wszelkich możliwych algorytmów, protokołów i hardware’ów. Wystarczy spojrzeć na losy filmu, który w cyfrowych okolicznościach zyskał tak wiele niestosowanych czy stosowanych w ograniczonym zakresie w jego analogowej wersji sposobów wyrazu, estetyk, takich jak time-lapse, slow-motion, remiks (piszę o tym więcej przy okazji bazodanowej analizy kina w następnym rozdziale). Podobny los spotyka techniczne reprodukcje i formaty audialne, tekstualne, wizualne.

Zjawisko drugie można zaobserwować wśród artystów i teoretyków sztuki mediów, a także wśród badaczy obu tych sfer, dla których – pod naporem cyfrowości – prześwietlanie i odsłanianie cyfrowego kodu stało się zwieńczeniem tradycji krytycznej pracy z mediami w ogóle. Obecność cyfrowego kodu w domenie cyfrowej, w której spełnia funkcję kodeksu operacjonalizującego działanie medium, stała się powszechnie łatwo namacalnym dowodem na obecność unikalnych kodeksów i gramatyk wewnątrz technologii komunikacyjnych. Co prawda już od McLuhana mamy świadomość, że the medium is the message, ale dopiero strukturalne wyodrębnienie kodu binarnego i nakładanych na niego warstw wyższego rzędu, czyli software, obnaża taki układ mediacji. Cyfrowy kod stał się w oczach sztuki mediów i wiedzy o nich elementem, który domaga się krytycznej analizy oraz estetycznego obnażania. W związku z tą jego autonomią jednym z najbardziej frapujących kierunków rozwoju krytycznej wiedzy o mediach, jak i sztuki mediów cyfrowych stało się podglądanie i obnażanie kodu mediów tej sztuki. Chodzi tu o działanie podwójne, które, z jednej strony, ma na celu objaśnianie, odszyfrowanie unikalnej gramatyki kulturowej medium, jego specyficznego języka, który decyduje o tym, jak wygląda komunikacja za jego pośrednictwem, oraz, z drugiej strony, zestawienie tego „języka” zasadami kodu binarnego, który ten „język” wchłonął. Na skutek konwergencji technologicznej wszelkie wcześniejsze formy artystyczne, które zostały zdigitalizowane, dostały się we władanie software, stały się programowalnym kodem i weszły w reakcje z logiką hardware, interfejsów, baz danych, sieciowych przesyłów i interaktywnych wywołań. Ta samo prawidło cechuje perspektywę teorii mediów, które w cyfrowości odnajdują ślady dawnych mediów. Tym samym krytyka kodu to zarazem krytyka tożsamości medialnych „języków” i technik jak i ich matematyczno-elektrycznego alter-ego, ich binarnych szyfrów i kodyfikacji [160]. Zarówno sztuka, jak i nauka stają przed sytuacją, w której to kod i jego reguły (protokoły, systemy operacyjne, software) dyktują dalsze warunki ich uprawiania, stają się przestrzenią dla ich uprawiania i odniesienia [161]. Można powiedzieć, że cyfrowy kod stał się w ten sposób metakodem medialnego uniwersum, a jego zasady prawem medialnego świata w domenie cyfrowej.

Dotychczas rozważałem matematyczność jako wyrafinowaną, abstrakcyjną zasadę myślenia o świecie, porządkującą go wedle logicznych zasad i ich liczbowego kodowania. Przywołałem także, za Michałem Hellerem, wynikające z tego faktu postrzeganie i rozumienie rzeczywistości na kształt konstrukcji matematycznej – matematyczność świata. W tym podwójnym sensie matematyczności osadziłem kod cyfrowy, który uznałem za uniwersalną dla kultury współczesnej, zanurzonej w cyfrowe technologii i sieci, gramatykę komunikacji i konstruktora modeli świata. Idąc dalej tym tropem, przyjrzę się teraz kulturowej implementacji kodowania matematycznego – dającej się „programować” i „kodować” wyobraźni kulturowej i wyrastającym z niej kompetencjom komunikacyjnym. Iloczyn obu pojęć daje w rezultacie terminy, które w dyskursie krajowej humanistyki nie zadomowiły się jeszcze. Chodzi o „nowy alfabetyzm” (new literacy) i „media wyobrażone” (imaginary media)[162]. To właśnie kod cyfrowy, ze względu na swoją bliskość wobec tradycyjnego kodu kultury, języka, jest dla form tej nowej wyobraźni najważniejszym z budulców, a dla medialnego krajobrazu przez nią inspirowanego naturalnym medium wypowiedzi i konstruowania świata za jego pomocą. W definiowaniu nowego alfabetyzmu i mediów wyobrażonych skojarzenia z wyobraźnią i wyobrażeniami są i dla mnie niezwykle istotne. Zaproponowane tu czytelnikowi rozumienie postmediów i kondycji postmedialnej wspiera się w zasadniczy sposób na wartości analitycznej obecnego od niedawna w dyskursie humanistycznym pojęcia imaginariów społecznych. Tę specyficzną kategorię poznawczą ugruntowali w dyskursie wspomnianych nauk Benedict Anderson wraz ze swoją głośną pracą Imagined Communities oraz Charles Taylor w swojej równie głośnej Modern Social Imaginaries [163]. Ja kategorię tę w oparciu o możliwości dwukierunkowego posługiwania się kodem cyfrowym, służącym zarówno do swobodnego czytania jak i pisania medialnych kształtów i treści, dopasowuję do warunków światów medialnych, w których przybiera ona postać medialnych i komunikacyjnych wyobraźni [164] .

Związek efemerycznego pojęcia „alfabetyzmu” z cyfrowym kodem polega na konstruktywistycznym uznaniu kulturotwórczej siły technologii medialnych, które funkcjonują w powszechnym obiegu. Ta współzależność kodu i kultury polega, ogólnie rzecz ujmując, na dwóch przeciwważnych procesach. Najpierw kultura preparuje technologie i pisze dla nich kody i kodeksy (to historia kilku tysiącleci cywilizacji i tworzenia kodów abstrakcyjnego myślenia – matematyki), by równolegle za ich pośrednictwem zmieniać samą siebie. Kultura tworzy narzędzia, techniki i ich kody/konteksty/wyobraźnie, poddając się jednocześnie ich potencjałowi, wrażliwościom, wyobraźniom i dyskursom, które wzbudzają.

Cyfrowa konfiguracja kultury to jednak zjawisko szersze i głębsze niż trajektorie poszczególnych narzędzi i technik epoki analogowej, takich jak pismo, obrazy, dźwięki i poszczególne ich medialne technologie. Cyfrowość – odwołam się po raz kolejny do mojej ogólnej tezy o sytuacji postmedialnej – sprowadza wszystkie dotychczasowe języki mediów, ich kulturowe gramatyki i konteksty do wspólnego mianownika. Wchłania je, digitalizuje i zamienia na układ, w którym rozparcelowane są pomiędzy software, bazy danych i interfejsy użytkowe. W ten sposób obok wielu dostępnych języków/kultur medialnych, które wspólnie składają się na „alfabetyzm” epoki analogowej, pojawia się także nowy, cyfrowy alfabetyzm. Powstaje on na zasadzie kulturowych negocjacji już istniejących obyczajów i wyobrażeń komunikacyjnych zderzonych z nowym środowiskiem technologicznym, w którym funkcjonują. Przejawia się jako nowy zbiór komunikacyjnych zasad i mitów, takich jak usieciowienie, programowalność, remiks i transmedialność. Nie będę wchodzić głębiej w definiowanie samego alfabetyzmu ani też rozważać wszystkich jego cech. Skupię się jedynie na tych jego aspektach, które wynikają z obecności cyfrowego zakodowania komunikacji i logiki działania software. Są nimi programowalnośćwyobraźnia sztucznego.

Najważniejszą z cech nowej medialnej wyobraźni, związaną z kodem i software, jest odczucie programowalności (programmability). Bierze się ono z uznania software’owej płynności cyfrowego świata i ekstrapolacji jej sensu na inne komunikacyjne wyobrażenia i działania, które podejmują zanurzeni w cyfrowy świat. Tę cechę cyberkulturowej wyobraźni podkreśla Wendy Hui Kyong Chun, autorka książki Programmed Visions: Software and Memory, rozszerzając ją na obszar życia społecznego i politycznego zachodnich społeczeństw [165]. Programowalność to, w tym ogólnym sensie, przeświadczenie o dającej się w racjonalny sposób projektować i zarządzać neoliberalnej infrastrukturze społecznej charakterystycznej dla rozwiniętych rynkowo, gospodarczo, technologicznie i politycznie państw zachodnich. Społeczeństwo i kulturę postrzegać można w tym duchu jako sieci, w których obok różnych aktorów i różnych ”hardware” (infrastruktury technicznej, instytucji, itd.) istnieją także logiki pozwalające na wieloraką, wielopoziomową aktywność i połączenia w ramach sieciowej struktury. Programowalność to, z jednej strony, wykształcona przez kulturę reguła technologiczna odpowiadająca na zapotrzebowanie liberalnych społeczeństw, oraz, z drugiej, stan technologiczny, który tę potrzebę uosabia i utrwala za sprawą praktykowania używania i pisania rozwiązań software’owych.

Nowy alfabetyzm, a zatem społeczne praktyki i wyobrażenia dotyczące pisania i czytania [166], czy inaczej mówiąc kulturę komunikacji, komunikacyjną wrażliwość, kompetencje i wyobraźnię, można zdefiniować także w relacji do społecznego konstruowania praktyk dyskursywnych, budowania i podtrzymywania dyskursów [167]. W tym nowym alfabetyzmie obecność kodu cyfrowego i jego form matematycznych, ale także jego społecznych praktyk, takich jak digitalizacja zasobów kultury czy dyskurs programistyczny (języki, instytucje, formy działania) wprowadza alternatywę dla jednowładztwa najważniejszego z analogowych kodów – tekstu. Otwierający się na nową wyobraźnię nie tylko zyskuje wejście w świat tekstu i jego kultury – tekstualności, epoki Gutenberga, i stosowny wobec nich dystans poznawczy ale i – tu objawia się programowalność – dopuszcza programowalność/płynność tekstualności. Tym samym wchodzi w dyskurs rozpoczęty już w obszarze literatury i liberatury, kontynuowany w cyfrowości jako dyskurs hipertekstu i cybertekstu, i podejmuje wyzwanie bycia współtwórcą, programistą, operatorem i współkonstruktorem jego formy i treści. Linearność tekstualną, która stała się także linearnością kultury analogowej, poddaje w cyfrowej wyobraźni różnego rodzaju remiksom, personalizacjom, update’om, wariacyjności. Czytając i pisząc kulturę-tekst posługuje się innymi, oderwanymi od gutenbergowskich, narzędziami i sterującymi nimi wyobrażeniami, bardziej ją programując, budując skojarzenia i konstruując mentalne modele i reprezentacje świata w oparciu o znane mu aplikacje i interfejsy software.

Niemiecki teoretyk software Florian Cramer jest wręcz przekonany, że znacznie większa część desygnatów pojęć kod i software w kontekście ich cyfrowych wcieleń odnosi się do przestrzeni wyobraźni kulturowej i alfabetyzmów. Definiowanie software i kodu w obszarze kulturowej teorii mediów należy oprzeć na kulturowych praktykach a) algorytmów, w powiązaniu z b) istniejącymi lub imaginacyjnymi maszynami, które je w kulturowym otoczeniu implementują, z c) powiązanymi z nimi na różne sposoby ludzkimi interakcjami w najszerszym możliwym sensie, oraz d) fundującą je i spinającą wyobraźnią. Historia software, kalkulatywności (matematyczności) i cyfrowego kodu to zatem przede wszystkim historia kulturowego rozwoju intelektu i form (kulturowych interfejsów), które przybierał/generował [168]. Trzeba przyznać, że takie ujęcie kodu i software wybiega nie tylko poza ogólnie przyjęte inżynierskie, technologiczne i matematyczne definicje. To także wyjście poza utarte tropy studiów kulturowych i teorii mediów, które postrzegają wyobraźnie i kompetencje komunikacyjne jako efekt (determiniści) i/lub przyczynę (instrumentaliści) technologicznych formuł tych cyfrowych bytów. Cramer widzi ten obszar niezwykle szeroko, stawiając znak ontycznej równości i rysując sieci sprzężeń i zależności pomiędzy kulturą a formami techniki. Nie ma software bez wyobraźni kulturowej, ale i wyobraźnia kulturowa staje się w takim układzie software’owa, otwarta na programowalność. Posługuje się nią jako prymarną metodą czytania i pisania świata. Softwarem, kodami można nazwać także obecne w historii literatury, malarstwa czy kultury w ogóle „algorytmy” przetwarzające istniejące gramatyki, formy, stylistyki [169]. Biorąc pod uwagę tak szeroko nakreślone pole definicyjne, trzeba uznać, że kulturowa historia kodów i „software” z nich wynikających dopiero czeka na napisanie. Jej początki oferują dzisiaj teorie mediów ektronicznych i cyberkultury, archeologia medialnych form. Historia kodowania kultury, obecności w niej wyobrażonych i wcielonych algorytmów, ich różnych relacji ze środowiskiem tekstualności, wizualności i audialności dopiero zaczyna się tworzyć. Będzie ona musiał uwzględnić język jako kulturowy kod, a za podobny/równoważny uznać status matematyki, tekstualności. Reguła tego sprzężenia wydaje się oczywista: niemożliwe są żadne kody technologiczne, które nie są zakorzenione w kodach kulturowych, w historii semantyk i ich społecznych systemów/interfejsów. Dlatego software, podobnie hardware, istnieją o tyle, o ile osadzone są w kontekście kultury. Nie byłyby możliwe, gdyby nie ich osadzenie w języku, symbolach wizualnych (alfabecie), matematyczności.

Drugą z najważniejszych cech nowego alfabetyzmu, reagującego na obecność kodu i programowalności, jest wpływ wyobraźni sztucznego (the imaginary of artificial). Pomimo iż komputer jako projekt cywilizacyjny (interfejs kultury) został pomyślany w taki sposób, aby swymi funkcjami naśladować działanie człowieka, powstał na jego obraz, to jednak obcowanie z nim i programowanie go prowadzi w innym kierunku. Jest nim poszukiwanie tradycyjnych przymiotów ludzkiego intelektu, takich jak kreatywność, zdolność do budowania skomplikowanych, złożonych skojarzeń i dedukcji, w czynności struktur sztucznych (sztuczna inteligencja), które działają automatycznie i mechanicznie w logice rewolucji informacyjnej. Radykalne założenia wczesnej cybernetyki (ujmę to szerzej: wyobraźni w duchu pokartezjańskiego dualizmu) polegające na konstruowaniu matematycznej paraleli pomiędzy komputerem a człowiekiem sugerowały, że możliwe jest osiągnięcie przez maszyny obliczeniowe stanu autoświadomości, maszynowej autokreacji i samodzielności w definiowaniu własnego rozwoju, nieustannym autoremodelowaniu i poddawaniu się działaniom algorytmów. Miałaby ona polegać na zdolności do prowadzenia takich kalkulacji, które wygenerują kolejne kalkulacje oraz ich poziomy i przejmą kontrolę nad procesami wykonywanymi przez maszynę, co w rezultacie doprowadzi do powstania maszynowej, automatycznej auto-wyobraźni. Z zetknięcia wyobraźni kultury, obejmującej projekt maszyny kalkulującej sztuczną rzeczywistość i nieustannie go projektującej/programującej/renderującej, oraz rozrastającej się i zarazem emancypującej tożsamości tego projektu bierze się daleko posunięta we współczesności (nie tylko w dyskursach cyberkultury) fetyszyzacja zdolności maszynowych/automatycznych. Wyobraźnia sztucznego wycenia nieustanny, samozwrotny remiks i loop algorytmów, bardzo wysoko dopatrując się (projekcja odwrócona) w takiej obietnicy konstytuowania się siły, którą wykorzysta we własnej kulturowej, społecznej i antropologicznej emancypacji [170].

Inne cechy nowego alfabetyzmu biorą się z wyobraźni kulturowych, które za sprawą technologii cyfrowych przesuwają akcenty z porządku, totalności, linearności i centralnie zarządzanej dystrybucji ku fragmentacji i rizomatyczności – od linearnej tekstualności ku bazom danych; z uporządkowanej odgórnie totalności ku syntezowaniu dostępnych elementów; ku logice analitycznej z pozycji dekodowania; z jednolitości form i treści medialnego świata ku postmedialnej regule hardware + software + interfejs; z regulowanej syntagmy ku semantyce i semantyzowaniu [171].

Wyobraźnia sztucznegoprogramowalności przekłada się na formy technologiczne cyfrowych mediów, takie jak choćby te, które powstają w ramach projektów DIY, działań medialabowych, czy wszelkich na różną skalę zakrojonych przedsięwzięć o charakterze ekonomicznym – mam tu na myśli olbrzymi ruch start-up’ów wsparty za sprawą propagandy „dot com”, działalność NGO’s na polu edukacji medialnej (media laby) i szeregu innych medialnych i kulturalno-społecznych akcji niemieszczących się w obszarze zarezerwowanym dotąd dla tradycyjnych praktyk i instytucji medialnych, systemów politycznych i prawnych, itd. Można generalnie powiedzieć, że na skutek wcielania w życie elementów tej wyobraźni dotychczasowa jednokierunkowa logika „download”, obowiązująca w domenie mediów analogowych (głównie masowych, zinstytucjonalizowanych), ustępuje pod naporem nowej logiki „upload”, która obok czytania i konsumowania mediów obejmuje pisanie ich scenariuszy i wykorzystanie ich potencjału niemieszczące się w dotychczasowych opowieściach kulturowych. Trwająca sekretna wojna uploaddownload (to metafora Petera Lunenfelda) i przejście od medialnej epoki konsumpcji do nowej rzeczywistości medialnie zapośredniczonej komunikacji zwrotnej zupełnie zmienia medialny i komunikacyjny krajobraz społeczeństw i kultur rozwiniętych technologicznie i dysponujących zaawansowaną, specjalistyczną wiedzą inżynierską [172]. Sekretny wymiar tej wojny polega na kształtowaniu i upowszechnianiu się właśnie wyobrażeniowych przesunięć i rewolucji, których fizyczne formy dopiero zaczynają się materializować. Pisanie mediów i za ich pośrednictwem nowej kultury to taktyka, która dokonuje się dzisiaj przede wszystkim w medialnej wyobraźni objawiającej się w postaci zapisów cyfrowego kodu. Trzeba będzie więcej czasu i zmian w materialnych systemach i logikach kultury, aby stosowne dla nich mechanizmy komunikacyjne mogły zaistnieć. Pisany w wyobraźni kulturowej medialny software wyprzedza swoją hardware’ową bazę.

W tej części książki zajmę się zmieniającym się w duchu opisanego przez Bachmana bazodanowego zwrotu ekosystemem cyfrowego świata i jego kulturowego otoczenia. Będę się wywołanym wraz z obecnością baz danych zmianom i zależnościom przyglądać szeroko, osadzając je w kontekście ogólnych zmian społeczno-kulturowych, diagnozujących je dyskursów i mitologii, jak i starać się zrozumieć kulturową energię, którą ta technologia emanuje zmieniając naszą codzienność i nasze o niej wyobrażenia. Sądzę, że opisany przez Bachmana zwrot wewnątrz cyfrowego uniwersum jest tożsamy z najważniejszymi kulturowymi przemianami dokonującymi się w kulturze współczesnej. Bazy danych wpisują się w klimat decentralizacji, stawania się kultury mniej opresyjną, homogeniczną, a za to oddaną we władanie przeciętnym użytkownikom/twórcom, otwartą formalnie i semiotycznie na ich potrzeby i zależną od podejmowanych przez nich działań. Bazodanowe środowisko sprzyja rozumieniu świata i kultury jako zbiorów elementów podatnych na przeróżne scenariusze zarządzania i porządkowania. Wchodzącemu weń/z nim w kontakt oferuje pozycję rzemieślnika i artysty, który projektuje układy architektoniczne, zarządza relacjami pomiędzy poszczególnymi elementami, reguluje przepływy znaczeń i ładunków elektrycznych pomiędzy nimi. To reguły bazy danych umożliwiły kulturę uczestnictwa, kulturę użytkownika czy Web 2.0.

Tak jak i pozostałe elementy ekosystemu [174] technologii cyfrowych, tak i bazy danych uznaję za fenomen zarówno technologiczny, jak i kulturowy. Stąd tak szeroka perspektywa patrzenia na ich społeczno-kulturowe osadzenie. Przyjmuję założenie konstruktywistyczne: technologie medialne nasiąkają kulturową energią, by potem kulturę wedle zakodowanych w sobie reguł zmieniać. Nie jest moim zamiarem orzekanie, o ile technologiczna energia baz danych odmienia rzeczywistość kulturową i społeczną, a o ile jest baza danych jedynie nasączonym kulturowo instrumentem, dzięki któremu społeczeństwa wyrażają swoje wyobrażenia i wspierają wyznawane wartości. To spór, który od lat toczą między sobą przedstawiciele różnych medio- i kulturoznawczych dyscyplin w debacie na temat prymatu w relacjach technika-kultura. Jedni sekundują w niej teoretycznemu stanowisku determinizmu technologicznego inni, przeciwnie, teorii instrumentalizmu technologicznego. Wartość tego sporu jest dzisiaj według mnie głównie historyczna, odnosi się bowiem do kondycji w relacjach kultura-technika, a wytyczyło go tempo rewolucji przemysłowej i wewnętrzna prędkość funkcjonalna i ewolucyjna jej analogowych, masowych technologii. O ile w ramach tej formacji cywilizacyjnej wzajemne relacje techniki i kultury (mediów i kultury) dawało się rozważać i modelować w świetle związków przyczynowo-skutkowych, historycznych następstw i przełomów, o tyle nie jest to w ten sam sposób możliwe w odniesieniu do obecnej, digitalno-sieciowej fazy rozwoju. Cechuję ją syntopiczne, permanentne sprzężenie pomiędzy nauką, techniką i kulturą/sztuką. Cyberkulturowy konglomerat rodzi się z nieustannego sieciowania energii kulturowej i społecznej wpuszczonej w obieg cyfrowych narzędzi, zdolnych do natychmiastowej i wielowątkowej ich kalkulacji.

Dlatego temu syntopicznemu, nieustannie się zmieniającemu, wariacyjnemu i morfującemu środowisku warto przyglądać się wedle założeń wspomnianej perspektywy konstruktywistycznej. Podejmując taką decyzję pozostawiam przywołany powyżej spór bez rozstrzygających odpowiedzi, zyskuję natomiast możliwość przyjrzenia się bazom danych w sposób integralny, łączący ich technologiczne reguły z polem kultury. Tak jak nie da się w prosty sposób współcześnie rozwikłać sporu o prymat w relacjach technika-kultura, tak i nie ma sensu w bezprecedensowym progresie technologicznego uniwersum doszukiwać się tradycyjnych rozgraniczeń i podziałów. Zamiast tego zależy mi na tym, aby uchwycić i pokazać bazodanowe otoczenie w jego naturalnej kondycji: przez pryzmat powiązań kultury i techniki, przenikania technologicznych form i kulturowych wartości, logik komunikacyjnych i medialnych interfejsów.

Bazodanowa ekologia to w tym dualnym kontekście emblematyczna dla postmedialnej kondycji sytuacja: bazy danych heterogenizują medialne i technologiczne środowisko; oferują konsumentowi mediów nową poetykę, estetykę i władzę (wariacji i remiksu) przyćmiewając dotychczasowe uzurpacje autorów i tekstów (nadawców, kontrolerów, gatekeeperów i samych mediów w ich technologicznych gramatykach i instytucjonalnych i społecznych platformach). Victoria Vesna, znana nowomedialna artystka i teoretyczka, wstęp do redagowanej przez siebie antologii poświęconej sztuce danych i estetyce baz danych zatytułowała Zobaczyć świat w ziarenkach piasku. Bazodanowa estetyka wszystkiego (Seeing the world in the grain of sand: the database aesthetics of everything [175]) i myślę, że ten tytuł dobrze oddaje klimat towarzyszący kulturoznawczemu dyskursowi, który podejmuje temat wpływu elementów konstytuujących świat nowych mediów na przestrzeń kultury i życia społecznego. Rzeczywistość (kultura, natura, my sami) konstruowana w podobnych odczytaniach składa się z atomów (i odpowiadających im bitów), czyli metaforycznych ziarenek piasku. Na różne sposoby możemy nimi – zarówno w sensie fizycznym jak i przede wszystkim metaforycznym – zarządzać, tworząc mniej lub bardziej trwałe/unikalne/powtarzalne kompozycje, układy i kształty. Świat z ziarenek piasku jest elastycznym tworem gotowym przyjąć dowolny kształt, który mu nadaje ręka budowniczego.

Myśleć bazodanowo znaczy uznać atomistyczną konstrukcję wszechświata, życia i kultury jako stan naturalny, w którym dokonują się nieustanne rekonstrukcje, w którym atomy/bity są w nieustannym ruchu poddane coraz to nowym zarządzeniom, przybierają nieustannie nowy kształty, i nauczyć się w nim żyć. Myśleć bazodanowo o kulturze i komunikacji oznacza więc, że o ich składowych, czyli zasobach informacyjnych, myśleć należy w taki sam sposób, w jaki myślimy o cyfrowych bitach. Informacje, a na nie składają się przecież wszystkie kulturowe znaczenia, znaki, reguły komunikacyjne, podobnie jak atomy materii, ta wyobraźnia rozpoznaje w nieustannym ruchu – są jak ziarenka piasku w dalekowschodnich mandalach, częściami nigdy nieokrzepłej kompozycji, którą kultura ustanawia/odbudowuje/podtrzymuje wciąż na nowo.

Bazodanowa percepcja i wyobraźnia odwracają się od narracyjnego i hierarchicznego porządku epoki linearnych mediów analogowych, służących głównie zideologizowanej i jednostronnej komunikacji na skalę masową. Dopuszczają w jej miejsce przygodność, płynność, otwartość i akceptują stan permanentnej gry i wiążącego się z nią ryzyka. I taka właśnie, płynna, związana z ryzykiem, otwarta, przygodna jest współczesna kultura w ogóle, jak o tym zgodnie przekonują jej współcześni diagności [176]. Usytuowana w niej, za sprawą triumfalnej siły kolonizacji domeny cyfrowej, baza danych staje się przy naszym udziale elementem naturalnego status quo; fundamentalną regułą i referencyjnym wzorcem strukturalnym myślenia o świecie, komunikowania się w nim i postrzegania wszelkich jego fenomenów. Podchwyconą wraz z pieśnią buntu kulturowego melodią wyzwolenia z ucisku przemysłu kultury, technopolu i uprzedmiotowiającego uniwersum mediacji analogowych.

Mówiąc o postmedialnej sytuacji baz danych mam zatem na myśli technologiczne obiekty, będące zestawem reguł dotyczących postępowania z zasobami cyfrowego kodu. To jednocześnie software’owy stan otwartych, płynnych w czasie i kształcie, znajdujących się pod kontrolą użytkowników procesów wykraczających poza analogowe rozumienie medialnej materialności hardware’owych obiektów. To wreszcie także wyobrażone figury i logika działania w środowisku cyfrowym, jego symboliczne i komunikacyjne modelowanie. Ten trójwarstwowy konglomerat ma swoje kulturowe preteksty i projekcje; bazy danych narodziły się fuzją scjentystycznych i technokratycznych dokonań rewolucji przemysłowej i naukowej w ramach projektu nowoczesności, ale nie byłoby ich, gdyby nie poszukiwania artystyczne, kondycje kulturowe i społeczne inicjujące/podtrzymujące technologiczną dynamikę. Podobnie rzecz ma się w odniesieniu do pochodnych baz danych. Są nimi zarówno rozszerzenia technologiczne, jak i komunikacyjne i kulturowe reakcje, mniej lub bardziej bezpośrednie czy trwałe. Do poszczególnych z nich będę się odwoływać w trakcie niniejszej analizy.

Podróż przez bazodanowe terytoria rozpocznijmy od ustalenia, czym są dane oraz magazynujące je bazy. Etymologia słowa dane (data) odsyła do łacińskiego datum, które oznacza coś, do czego można się odnieść, na czym można się opierać podczas prowadzenia obliczeń. Dane to, w tym tradycyjnym sensie, pożywka dla działań matematycznych, surowe zasoby abstrakcyjnego świata, które matematyka wykorzystuje jako materię w swojej kalkulacyjnej/wyobrażeniowej egzystencji. Z poprzedniego rozdziału, który poświęciłem kodowi cyfrowemu, wynika, że matematyka bez danych jest tak samo niepełna/niemożliwa jak i cyfrowość, w której dla cyfrowych maszyn dane są zarazem funkcjonalnymi (materialnymi, przez fakt regulowania fal elektrycznych płynących wewnątrz kalkulującej maszyny) jak i symbolicznymi zasobami (fale są zarazem poinformowane, czyli zakodowane, jak i informują/kodują – zgodnie z zasadami fizyki i termodynamiki, które mówią o bilansie energetycznym na wejściu do systemu i na wyjściu z niego), w które zamienia się elektryczność płynąca wewnątrz hardware cyfrowych technologii i które podporządkowują elektryczność kodom semantycznym, tj kulturowym. Danymi na poziomie elektryczności są pojedyncze elementy o wartościach 0 i 1, czyli on/off, tak/nie, jest/nie ma oraz ich ciągi, które przybierają różne interfejsy i kody wyższego poziomu – pikseli, bitów, bajtów, pingów, plików, katalogów, itd.

Zrozumieć sens cyfrowych danych można tylko wówczas, kiedy weźmie się pod uwagę różnicę pomiędzy nimi a informacjami, tj. zasobami o charakterze semiotycznym, które wykorzystujemy w postrzeganiu, rozumieniu i konstruowaniu rzeczywistości. Różnica między matematycznie spreparowanym surowcem elektrycznym a informacjami jest mniej więcej taka, jak pomiędzy głoskami i literami (alfabetem) a słowami i zdaniami (językiem). Język uznać można za jeden z najdoskonalszych mechanizmów kulturowych radzenia sobie z bazą danych, czyli głoskami i literami właśnie. Na podstawie kilkudziesięciu elementów w tej bazie danych człowiek jest w stanie stworzyć tysiące możliwych ich kombinacji i sprawnie wykorzystać je w komunikacji. W oparciu o dane dopiero tworzymy informacje, choć trzeba jednocześnie pamiętać, że dane występują w wielu wymiarach funkcjonalnych, które nadają im różne właściwości informacyjne (to m.in. zagadnienie metadanych, do którego niebawem powrócę). Informacje to dane przetworzone w taki sposób, że nabierają poznawczego znaczenia. Dane informują, kiedy zostają wykorzystane semiotycznie [177].

Istnienie danych to efekt nowoczesnego kultu wiedzy ścisłej, wspierającej się na regułach matematycznej składni. Kod cyfrowy powstał jako język scjentystyczny, w którym znaki miały być domyślnie pozbawione semantyki i wartości (jaki sens w odwrotnym przypadku miałaby matematyka?) – dopiero próby jego kulturowego okiełznania, wymuszone chęcią upowszechnienia nowego porządku technologicznego, spowodowały uznanie semantyki za równoprawnego partnera w cyfrowym świecie. Dziś wciąż najbardziej fundamentalny poziom technologicznego uniwersum cyfrowego opiera się wpływom kulturowym. W cyfrowym jądrze silnie pobrzmiewają echa kartezjańskie; jest modernistyczne przez odwołanie do dziedzictwa nauk ścisłych i wiedzy; upatruje w matematycznym porządku jedynego i doskonałego kodu świata.

Co oznacza ta odwrotna kolejność cyfrowego porządku, w którym to danym trzeba przypisywać wartości kulturowe? Jej skutki są podwójne. Po pierwsze, dane i bazy danych domagają się gigantycznej pracy poznawczej i metodologicznej: refleksji kulturowej, artystycznej, perceptualnej, wynajdywania zdolnych do ich okiełznania interfejsów i form, nowych gramatyk, itd. (wrócę do tego wątku niebawem). Drugim skutkiem jest tu niekontrolowany kulturowo przyrost danych. Ich ilość rośnie w stopniu dalece wyprzedzającym co do tempa i przewyższającym co do skali wszelkie tradycyjne kulturowe możliwości ich poznawania i wykorzystywania – wszelkie kultury, estetyki i logiki wiedzy, edukacji i komunikacji. Jeszcze do niedawna wydawało się, że to tempo ewolucji technologii komputerowych jest najbardziej zaskakującą kulturową prędkością współczesności. Wzór na obliczanie tej prędkości podał jeden z inżynierów pracujących dla producenta układów scalonych – Moore. Według niego prędkość obliczeniowa i zdolności do przechowywania danych podwajają się co kilkanaście miesięcy. Dzisiaj wiemy, że to hardware’owe tempo ewolucyjne, które uznać można za życiowy parametr rozwoju cyfrowego świata, jego puls, choć tak niezwykle prędkie, nie jest w stanie równać się z równolegle pracującą szybkością przyrostu danych. Ich liczba rośnie w tak niewiarygodnym tempie, że nawet jakiekolwiek próby szacowania jej tempa okazują się, jak do tej pory, jedynie bardzo przybliżone.

Na przestrzeni ostatnich kilkudziesięciu lat technologicznego i przemysłowego rozwoju baz danych pojawiły się różne koncepcje dotyczące ich wewnętrznej struktury. Rozumiane i projektowane były m.in.: jako układy hierarchiczne, sieciowe, relacyjne, obiektowe, warstwowe i mieszane [180]. Ewolucję tych form można opisać w duchu założeń cyfrowego przewrotu kopernikańskiego, o który w latach 70. apelował Bachman. Te zmiany układają się w następującą prawidłowość: od predefiniowania i technologicznego utrwalania zależności pomiędzy danymi w ramach modeli hierarchicznych, sieciowych czy relacyjnych (CD-ROM, klasyczna strona www w html) bazy danych przeszły ewolucję w kierunku otwartości na wiele możliwych rozwiązań strukturalnych i dostępności dla większej ilości zarządzających nimi administratorów/użytkowników (tagowanie, indeksowanie, html5, playlisty, logika wiki). Jakże bliska jest linia tej formalnej ewolucji baz danych wydarzeniom, które kultura dwudziestego stulecia „zaprogramowała” wobec innych swoich form: dzieła sztuki (literackiego, malarskiego dzieła otwartego jak je nazywa Umberto Eco, a za nim cała humanistyka [181]) czy liberalnej emancypacji społecznej podmiotu oraz takim procesom jak demokratyzacja czy postkolonializm. Systematyczna ewolucja rozwiązań software’owych i hardware’owych w tym kierunku to fakt, którego kulturowe i społeczne znaczenie jest nie do przecenienia. Potwierdza, dużo szerszy w skali, proces społecznej liberalizacji i dehierarchizacji technologii komunikacyjnych oraz społecznych cyrkulacji informacji. Świadczy o uspołecznianiu technologii, podważeniu transmitowanych przez nie kodów władzy, ideologii, technokracji, otwieraniu ich na wariacyjność użytkowania/wykorzystywania. Do tych wątków powrócę w kolejnych częściach rozdziału, kiedy będę analizować społeczne praktyki indeksowania danych.

Po fali mniej lub bardziej dramatycznie brzmiących ostrzeżeń przed zalewem, potopem, smogiem danych (informacji), pojawiających się zarówno w dyskursie naukowym jak i codziennej debacie społecznej, pojawiało się wiele racjonalnych i profesjonalnych narzędzi i strategii zarządzania danymi, które pozwalają w mniej lub bardziej udany sposób żeglować po wodach i głębinach informacyjnego oceanu. Do nadmiaru danych jak i do ich samych zaczynamy podchodzić coraz bardziej świadomie, postrzegając ich zasoby jako elektroniczne surowce naturalne, w które bogate są cyberkulturowe lokalizacje. Uczymy się także systematycznie ich ekologii i ekonomii. Instytucje ekonomiczne, wojsko, biznes, rozrywka już tę dziejową zmianę zaczęły sprawnie do swoich potrzeb wykorzystywać. Biznes świetnie radzi sobie z generowaniem wiedzy handlowej na bazie ruchu sieciowego i zarządzania danymi przez użytkowników – wystarczy tu wspomnieć o sugestiach zakupowych amazon.com, podpowiedziach wyszukiwarek czy serwisów społecznościowych. Wiedza i nauka właśnie wchodzą w ten obszar, powoli zdając sobie sprawę jak wielki oferuje on potencjał poznawczy, ale jednocześnie stąd biorą się najważniejsze środowiskowe opory, jak bardzo będą się musiały zmienić sposoby budowania wiedzy, dostępu do niej i jej trwałość/adekwatność kiedy badania naukowe zaczną wyglądać dokładnie tak, jak wyglądają dzisiaj działania analityczne podejmowane na ogromną skalę przez przedsiębiorstwa, państwa, wojsko [185]. Przy okazji powstaje pytanie o wspomniane kulturowe mechanizmy radzenia sobie z nadmiarem danych i zarządzania big data. Rozmiar danowej lawy zwiastuje kryzys indywidualistycznego doświadczenia medialnego świata charakterystycznego dla dziecięcgo okresu cyberkultury i jej emancypacyjnej mitologii. Obok prywatnego charakteru nowomedialnego zaangażowania potrzebne będą także zbiorowe mechanizmy – jednostki najprawdopodobniej nie będą w stanie radzić sobie w tak obszernym świecie zasobów do przetworzenia i wykorzystania.

Jaka, w świetle tych oskarżeń wobec tradycyjnej nauki i obietnic związanych z potencjałem nauki wykorzystującej dane, może być bazodanowa wiedza i jakie naukowe reguły można w oparciu o nią budować i wykorzystywać? Do obu sfer przenikają z coraz większą efektywnością wspomniane wcześniej strategie pracy z danymi, które wykorzystywane są w biznesie i innych sektorach rynku. Nauka wchodzi w nową fazę operacyjną, który Amerykanie okrzyknęli już mianem data science [187]. W obliczu dostępnych danych działania naukowe wpisują się w praktyki takie, jak data mining (przeszukiwanie danych i ich analiza) czy wizualizowanie danych (graficzne interpretacje wielkich baz danych – data visualisations).

Zanim przejdę do omówienia tych nowych metod działania, które łączą pracę naukową z innymi sposobami generowania wiedzy dostępnymi w kulturze i pokażę ich relacje, sięgnę do pracy Bena Fry poświęconej nowym kompetencjom, potrzebnym w epoce informacji badaczom chcącym korzystać w swojej pracy z cyfrowych zasobów. Fry dowodzi jak bardzo wieloma „skilami” musi dysponować w cyfrowym świecie jego analityk, jak wiele pragmatyk, semantyk, logik musi brać pod uwagę poszukując odpowiedzi na zadawane informacyjnemu uniwersum pytania. Według Amerykanina, choć to w coraz większym stopniu także i powszechne odczucie związane ze zmieniającym się światem nauki, współczesny badacz musi mieć kompetencje w zakresie informatyki, aby sprawnie pozyskiwać i technicznie organizować dane; matematyki i statystyki, aby był w stanie tworzyć zaawansowane modele abstrakcyjne, które będą zdolne do przekładania skomplikowanych semantycznie zapytań na skomplikowane zapytania bazodanowe; projektowania graficznego i design, aby móc otrzymane wyniki badań przedstawić w prostej, zrozumiałej dla laików formie; wreszcie winien mieć także kompetencje w zakresie projektowania informacji i rozwiązań interfejsowych, aby sprawnie eksportować wyniki badań do przestrzeni naukowej i publicznej [188]. Fry w gruncie rzeczy zgłasza postulat, który i ja w tym tekście zdążyłem już sformułować – w nowych, cyfrowych okolicznościach potrzebne są kompetencje i postawa właściwe dla homo faber.

W podobnym kierunku zmierza generalnie humanistyka. W jej środowiskach coraz chętniej przebijają się głosy mówiące o konieczności cyfrowej reformy tego konglomeratu dyscyplin i metodologii, o nowej logice badawczej digital humanities [189] jako sposobie wejścia w dane i korzystania z nich na rzecz badań nad kulturą, życiem społecznym, itd. Niezależnie od tego, w jaki sposób i o ile nauka (sciencehumanities) zrozumie i wykorzysta cyfrową rewolucję i jej wpływ na sposoby i strukturę generowanej wiedzy, pewne jest już dzisiaj, że jej monopol na poznanie i społeczna status z nim związany zostaną podważony, a być może także przełamane [190]. Wciąż wpisana w genetykę nauki i wiedzy w ogóle jest przecież obawa o przedostawania się ich zasobów poza naturalny, pierwotny nośnik – ludzką pamięć. Już w starożytności swoje obawy wobec takiego kierunku jej rozwoju wyraził Platon w krytyce medium pisma [191]. Środowisko bazodanowe rozbija integralność wiedzy faktograficznej i interpretatywnej w ramach naturalnie holistycznej i hermeneutycznej pamięci.

Operatorzy i eksplorerzy gigantycznych baz danych w centrum swojej działalności sytuują generowanie i/lub pozyskiwanie metadanych. W nauce może odbywać się proces paralelny, choć obliczony na osiągnięcie innego efektu. Wiedza wynikająca z danych może mieć charakter metawiedzy. Czym są w tym kontekście naukowe metadane? Najprostsza na to pytanie odpowiedź wskazuje na dotychczasowy dorobek nauki: traktaty, artykuły, książki, dyskursy – wszelkie zapisane tekstem lub utrwalone za pomocą innych medialnych nośników (obrazy, nuty) tezy i zbiory informacji. Algorytmiczne ich indeksowanie i przeszukiwanie może wskazać na tendencje w rozwoju dyskursów naukowych, np. w humanistyce za sprawą metody wizualizowania danych można doszukiwać się występowania i fluktuacji określonych pojęć na przestrzeni dziejów. Dla nauk ścisłych analiza metadanych ma równie istotne znaczenie. Generowane w bazodanowy sposób powstawać mogą prefabrykaty służące dalszym analizom i algorytmicznej obróbce. Na tym etapie „wyścigu zbrojeń” pomiędzy sferą nauki a jej komercyjnymi konkurentami balans sił prezentuje się następująco: nauka korzysta głównie ze spreparowanych przez korporacje i rynek w ogóle półproduktów. Sama nie jest chyba w stanie posługiwać tak wyrafinowanymi narzędziami i na taką skalę, jak robią to przedsiębiorstwa wyspecjalizowane w nawigowaniu po bazodanowych morzach i regulujące je. Nauka w obliczu danowej zmiany straciła pozycję lidera w zakresie informacyjnych innowacyjności i kreatywności, brakuje jej także technologicznego zaplecza i zasięgu, którym dysponują społecznościowi gracze z Krzemowej Doliny i na dodatek daje się zauważyć w niej wewnętrzny dysonans co do konieczności i zasadności adaptacji do nowych okoliczności [193].

Jednym z graczy ekspansywnie eksplorującym pole, na którym nauka nie ma wystarczającej liczby narzędzi i zaplecza do ich wykorzystania, jest Facebook.com. Korporacja zainwestowała ostatnio spore środki w utworzenie działu badawczego, którego zadaniem jest najpierw socjologiczna ocena gromadzonych za pośrednictwem serwisu danych, a następnie opracowanie scenariuszy i narzędzi, dzięki którym zdobędzie ona zdolność do wykorzystania i kapitalizowania danych w formie tak przygotowanej wiedzy sprzedawanej innym. Blisko miliard użytkowników portalu pozostawia na nim dane dotyczące swoich codziennych działań, obyczajów, relacji ze światem i innymi. Odpowiednie analizy tych danych mogą zmienić nie tylko wiedzę o społeczeństwie, ale także skutecznie podważyć prymat nauki jako uprzywilejowanego dostawcy wiedzy i jej wiarygodnego generatora. Przykładowym, banalnym w swej merytorycznej zawartości, ale odsłaniającym potencjał tego typu działań, narzędziem, które skonstruowali socjologowie firmy, jest pomiar „narodowego współczynnika szczęśliwości”. Można go zmierzyć licząc stosunek występowania słów uznawanych za wyrażające zadowolenie wobec tych, które powszechnie uznaje się za przejaw smutku. Narzędzie miałoby pracować w oparciu o analizę wpisów użytkowników portalu w danym okresie, obserwować wzrosty częstotliwości występowania oznak zadowolenia i oznak smutku, wytyczając w ten sposób rzeczony diagram „narodowej szczęśliwości”. Tego typu kryteriów wobec tak gigantycznej i wiarygodnej bazy danych, jaką są zasoby portalu, można zastosować wiele więcej [194]. Jaki badacz, jaka inna instytucja badawcza ma szansę na pracę z taką ilością danych do analizy i w tak nieograniczony sposób? O ile, jako społeczeństwa, państwa, kultury, grupy i jednostki, gotowi jesteśmy na coraz bardziej realną i już osiągalną inżynierię społeczną w oparciu o takie bazy danych jak Facebook.com? Na te pytania nie sposób jeszcze dzisiaj odpowiedzieć. Są to jednak pytania, które wytyczą wiele kulturowych sensów bazodanowego świata i jego wpływu na kulturę – bez wątpienia ich istnienie stawia naukę przed okolicznościami, których nie sposób zbagatelizować, ani tym bardziej pominąć.

Wiadomo natomiast już teraz, że bazodanowy zwrot informacyjny z okien korporacyjnych budynków i niektórych medialnych operatorów wygląda aż nazbyt ponętnie i obiecująco. Wiele istniejących systemów instytucjonalnych znajdzie się w wyniku tego zwrotu w sytuacji podobnego zagrożenia, jakie dla tradycyjnego warsztatu i systemu nauki stanowi konkurencja ze strony operatorów big data. Danowy ekosystem zmieni dogłębnie wszelkie inne dziedziny związane z obrotem informacjami, takie jak np.: archiwistyka, bibliotekarstwo, muzealnictwo, media, i wiele innych.

Do mitycznej metafory kultury Arki Noego sięga Peter Weibel, medioznawca kierujący jednym z najważniejszych na świecie miejsc sztuki mediów – ZKM w Karlsruhe, pisząc o bazodanowych losach tradycyjnych instytucji imformacyjnych [195]. Mit arki przyłożony do rzeczywistości dzieł sztuki i ich kulturowej cyrkulacji wynika z zasady selekcji, oddzielania rzeczy wartościowych od zwykłych; tak jak Noe dbał o to, aby w ograniczonej kubaturze zbudowanej przez niego łodzi zmieściły się najbardziej wartościowe i reprezentatywne elementy świata przyrody, by ocalić je przed zagładą, tak i tradycyjny obieg kultury opiera się na zasadzie selekcji i koneserskiej pieczołowitości katalogowania. Trudno o miejsce w arce kultury – rozciągnę Wei­blowską metaforę na szerszy niż tylko współczesna sztuka obszar – bo ich ilość jest ograniczona, a podejmowane przez następców Noego decyzje pozostawiają poza jej pokładem wiele mniej lub bardziej wspaniałych gatunków i form, tekstów i obrazów. Arka jest synonimem kultury masowej, w której przez wąskie gardło elitarnych instancji znawców i specjalistów przedostają się jedynie te „dane”, które uznają oni za wartościowe i pożyteczne z określonego ideologicznie punktu widzenia. Te ich decyzje mają podłoże ekonomiczne, polityczne, światopoglądowe.

Przeciwieństwem kultury selekcji jest dla Weibla kultura Web 2.0. Pomijam w tym miejscu spory na temat zasadności i ograniczenia tego sformułowania, podzielam – podobnie jak sam Weibel – ponad nie jego olbrzymią siłę semantyczną, której sens wynika z prostej zakodowanej (zaprojektowanej designersko na poziomie samego znaku) w nim konstatacji o radykalnej zmianie w obszarze kultury medialnej. W logice 2.0 Weibel upatruje fundamentów nowego krajobrazu kultury. Rolę analogowej arki zajmują w nim dyskowe przestrzenie magazynowe, które oferują swoim użytkownikom nieograniczoną chłonność i dostępność. Pomieszczą każdą ilość cyfrowo zakodowanych opowieści o świecie, jego digitalnych reprezentacji i alterwersji (technologiczne marzenia o infinity storage). W obliczu gigantycznych baz danych otwierających swoje podwoje na wielu poziomach naszej immersji w cyberprzestrzeń, a w szczególności metabazy danych (jednocześnie bazy metadanych), jaką jest Internet (na ten temat więcej niebawem), metafora arki wyczerpuje swój dotychczasowy sens. Kultura nie jest już (wpływ tego mechanizmu jest radykalnie osłabiony i ograniczony do wybranych obszarów rynkowych, politycznych, gospodarczych, takich jak instytucje kultury, jej ministerstwa, fundacje organizujące prace artystów i wydarzenia kulturalne) zasobem poddawanym selekcji (cenzurze) elit koneserów i urzędników, limitowana przez znawców i systemy cyrkulacji. Wraz z pojawieniem się cyfrowej nakładki na rzeczywistość stała się miejscem schronienia dla wszystkich chętnych. Sceną, na której amatorzy pokazują mniej lub bardziej udane, unikalne i powielane po wielokroć dzieła (teksty). W tym nowym krajobrazie masy produkują na masową skalę sztukę (kulturę) dla samych siebie, nie dbając o jakiekolwiek uwierzytelnienia czy świadectwa jakości ze strony starego systemu elit i ich oragnzacji. Ekosystem baz danych oznacza kulturową platformę sztuki dla mas tworzonej i konsumowanej przez nie same.

Co jednak w takim razie z tradycyjnymi instytucjami, takimi jak muzeum, szkoła, uniwersytet, biblioteka, galeria, archiwum w obliczu tych przeciwieństw? Wszystkie one działają w duchu elitarnych selekcji informacji i masowej, bezzwrotnej ich transmisji. Weibel słusznie obawia się o ich motywacje i zdolność do adaptacji. Dla wielu instytucji zmiana 2.0 oznacza w perspektywie radykalny kryzys tożsamości. Wiele z nich z pewnością okaże się mało podatnych na zmiany, nie mając na nie, na dodatek, ani ochoty, ani niespecjalnie czując potrzebę adaptacji do nich. Jeśli taką zdystansowaną postawę uznamy za reprezentatywną dla oficjalnej polityki państw i poszczególnych sektorów działań kulturalnych i społecznych, to wokół sporu o oficjalną selekcję i dystrybucję informacji oraz nowe społeczne formy i cyrkulacje informacji może narastać nie tylko finansowy czy polityczny konflikt, ale także pokoleniowe, cywilizacyjne pole sporne i objawiać się mogą potencjalne przestrzenie nowego rodzaju wykluczenia kulturowego i społecznego. Do tego wątku powrócę jeszcze przy okazji rozważań na temat alternatywnych obiegów danych.

Przyjrzałem się w zarysie danym i ich bazom. Starałem się w tym wprowadzeniu naszkicować głównie ich hybrydyczną naturę: obiektowego hardware i procesualny wymiar na poziomie software. Teraz zajmę się ich kulturowym otoczeniem i społeczną absorpcją/emanacją – figurą bazy danych i wynikającymi z jej kształtu kulturami danych. Baza danych to w tym kontekście zestaw reguł, „filozofia” porządkująca informacyjny świat czy też będąc bardziej dosłownym: kulturowa logika organizująca rozproszony i sfragmentyzowany cyfrowy ekosystem informacyjny. Myślenie bazami danych, działanie bezpośrednio w bazach i za ich pośrednictwem, organizuje komunikacyjny i medialny świat, którym zarządzamy dziś tak, jak zarządzamy cyfrowymi danymi. Duch danych i zarządzania nimi na dobre zadomowił się już w takich współczesnych dyskursach cywilizacyjnych, jak genetyka, ekologia informacyjna i polityka zarządzania informacjami, literatura, muzyka i technologie jej rejestracji i reprodukcji, sztuki wizualne i wizualność w ogóle, architektura czy moda. Będę analizował przypisywaną do tej logiki semiotykę i konstruowaną nieustannie ich społeczną ekonomię. Prześwietlę wybrane elementy informacyjnego krajobrazu, zawarte w nim polityki, estetyki i mediacje, które mają związki z danymi. W ten sposób sprawdzę, jak powstaje i jak już teraz wygląda bazodanowa wyobraźnia kulturowa – do czego będzie nas skłaniać jej obecność i jakie reguły poznawcze i komunikacyjne wypracuje?

Czy istnieje i jaka jest ta mglista, bazodanowa „filozofia” świata? Wim Wenders, bodaj najważniejszy tworzący współcześnie reżyser europejski, który w swoich filmach podejmuje nieustannie pytania o kondycję kultury i sens obrazów, w jednym z wielu dawanych ostatnio wywiadów takimi słowami opisuje stan kultury:

Rzeczywistość została rozbita. Współcześni artyści zrobili z nią to samo, co dwudziestowieczni fizycy z materią. Podzielili ją na atomy. Nie tylko czas stał się w niej relatywny, również przestrzeń i dźwięk. Teraz wszystko można dowolnie skrzyżować, ustawić, zderzyć, ścieśnić ze sobą albo poddać eksperymentom, o jakich nikomu się nie śniło [196].

Te słowa, podobnie jak wiele innych formułowanych mniej lub bardziej bezpośrednio, w obszarze dyskursu sztuki, nauki i kultury ogólnie uznaję za diagnozę postmedialnej kondycji bazodanowej. Wendersowska konstatacja ma w związku z tym wielorakie odniesienia praktyczne i teoretyczne, odwołuje się do wielu różnych przemian i metafor współczesności. Te inspiracje wskazałem już na początku bieżącego rozdziału – dotyczą one przygodności doświadczenia świata, ryzyka bycia w nim, płynności jego form i rekonstrukcji kulturowych ról autora, odbiorcy, konsumenta, twórcy i właściciela. Idąc tym tropem pora odpowiedzieć na pytanie o to, jak, wychodząc poza technologiczny żargon, zrozumieć kulturowo figurę bazy danych? Do jakich znaczeń, wartości i tradycji w myśleniu i działaniu sięgać w tym celu? Odwołam się odpowiadając na te pytania zarówno do kulturowych mitów i ich symboli, jak i do teorii humanistycznych i z zakresu nauk społecznych.

Kulturowe rozpoznawanie i oswajanie logiki zakodowanej w bazie danych nie jest zjawiskiem jedynie współczesnym, odnoszącym się wyłącznie do krótkiej historii technologii cyfrowych. Bez odpowiedniego podłoża kulturowego, na które składa się zbiorowa wyobraźnia kulturowa, oddziaływanie systemów społecznych i politycznych, prawa, niemożliwe byłoby pomyślenie ani tworzenie baz danych w ich dzisiejszej, cyfrowej formie technologicznej. Wśród wielu tropów, które ku bazodanowej wyobraźni prowadzą, jeden ma znaczenie szczególne. Chodzi o mit/figurę/metaforę „drzewa życia”, który okazał się uniwersalną w historii różnych kultur, religii i systemów politycznych opowieścią o sensie życia i porządku świata. Mit ten odwołuje się do kształtu i organicznej struktury drzewa (liściastego): jego rozłożyste konary i gałęzie symbolizują wielość dróg, które schodzą się ostatecznie w jednym miejscu: hierarchiczny kształt to obraz sposobów poznania i generalny kształt wiedzy; podziemne ukorzenienie i nadziemne rozgałęzienie wskazują na przemijanie a także, w sensie szerszym, są modelami porządku komunikacyjnego, społecznego i kulturowego.

Po gałęziach tego drzewa wędruje w ciągu swojego życia człowiek-pielgrzym, starając się dotrzeć z zapisanego mu początku istnienia do miejsca pożądanego. Hierarchicznym drzewem są w konsekwencji tradycyjne systemy społeczne, religijne i polityczne z monarchą-pniem i ludem bożym-liśćmi, drzewiasta jest wiedza i edukacja w swoim rozkładzie na dyscypliny i sposobach ich transmisji do obywateli, wreszcie drzewiasty model komunikacji realizują także systemy technologiczne mediów masowych (analogowych), wypełniające wzorcowo bezzwrotny model transmisji jeden-do-wielu.

Zasadność drzewa wystawiła na dziejową próbę przede wszystkim rozpoczęta w okresie renesansu rewolucja społeczna w Europie, odkrycia geograficzne i podboje kolonialne w połowie ubiegłego tysiąclecia czy odkrycia nowoczesnych nauk i rewolucja przemysłowa. Nauka sprowadziła istnienie do poziomu pojedynczych cząstek elementarnych – wiemy, że świat wokół nas i my sami składamy się z cząstek, atomów, elektronów. Niedawno temu, biorąc pod uwagę ciągłość myślenia w duchu drzewa, potwierdziła się w powszechnym odbiorze teoria Kopernika, kiedy zobaczyliśmy na własne oczy naszą planetę spoza niej, z kosmicznego dystansu. Potwierdziły się w ten sposób obawy i nadzieje wszystkich tych, którzy sądzili, że Ziemia jest wyjątkowym miejscem – jedynym w swoim rodzaju elementem kosmosu. Zamiast tego okazała się jednym z wielu punktów na świetlnej mapie niebios, fragmentem nieogarniętej galaktycznej przestrzeni wszechświata. Wreszcie na naszą tożsamość i gatunkową ewolucję spojrzeliśmy przez pryzmat wizualizacji kodu DNA, który okazał się skomplikowanym układem kilku samodzielnych elementów. Do tego atomistycznego, zdekomponowanego pojmowania stanu rzeczy przyczyniły się także takie osiągnięcia, jak psychoanaliza, mechanika kwantowa i doświadczenia z energią jądrową, mikroskop, dokonania biologii i chemii z tablicą Mendelejewa i teorią ewolucji jako ich ikonami, kartezjański dualizm świata, teoria względności.

Współczesna kultura postrzega drzewo życia w konsekwencji tych i wielu innych zdarzeń już tylko jako jedną z możliwych porządkujących ją i objaśniających metafor. W duchu tych przemian nie zaskakuje dla przykładu skojarzenie ziaren piachu Victorii Vesny przywołane już wcześniej. Ta i podobne nowe figury, kryjące się za nimi kształty i opowieści zasilają współczesną wyobraźnię z siłą, która systematycznie wypiera okrzepłe w niej i oswojone kształty, takie jak mityczne drzewo. Jedną z najchętniej przywoływanych nowych metafor, w której jak w soczewce skupiają się nadzieje, obietnice i perspektywy związane ze zmianami społecznymi i kulturowymi, jest dzisiaj sieć. Odwołuje się ona do kształtu pajęczej lub rybackiej (dziś poszukiwanie precyzyjnych odniesień i pierwotnych kontekstów nie ma już racji bytu) sieci, której struktura składa się z przecinających się nawzajem linii tworzących siatki. Sieciowa metafora stała się ikoną globalnej w zasięgu metabazy danych (a zarazem bazą metadanych), jaką jest elektroniczna infrastruktura komunikacyjna zorganizowana i zarządzana w zdecentralizowany sposób. Na skutek popularności nowej figury elektroniczne sieci uznać trzeba również za semantyczne środowisko cyfrowych danych, w którym połączone są ze sobą generujące je, przechowujące i transmitujące maszyny cyfrowe wymieniające się nieustannie się tymi danymi przy świadomym współudziale użytkownika lub bez niego. Sieć to wirtualna przestrzeń, w której dane znajdują się w nieustannym ruchu, przekraczając tradycyjne ograniczenia kulturowe i technologiczne (czas, miejsce, kultura, geografia, hierarchie społeczne) wedle zarządzeń swoich właścicieli, administratorów czy tymczasowych dysponentów (piraci, hakerzy) po to, by na ustanawiać nowe, sieciowe związki między sobą.

Schyłek drzewa i narodziny sieci rozpalają także i popkulturowe wyobraźnie i stają się inspiracją dla tworzonych i rekonstruowanych w nich mitologicznych opowieści. Topos ten eksploatuje np. coraz częściej kino i pozostałe media masowe: weźmy choćby motyw drzewa życia obecny w mitologiach i tradycji wielu kultur, skomentowany ostatnio w głośnym Avatarze J. Camerona. W popularnych technokratycznych i popkulturowych narracjach zdehierarchizowaną antystrukturę sieci przeciwstawia się hierarchicznie uwikłanym drzewom. Powiązanych jest z nią zatem – nie wchodzę tu w źródła różnego typu ideologizacji, relacji władzy i estetyk wiążących w praktyce społecznej znaczenia z tym terminem – wiele społecznych nadziei związanych z równością, innowacyjnością, kreatywnością, sprawiedliwością, wyzwoleniem spod jarzma władzy i kontroli, nowymi możliwościami komunikacyjnymi społeczeństwa kapitalistycznego, które wybrało drogę liberalizmu, demokracji i poszanowania indywidualnych strategii życiowych. Sieć to metaforyczny lejtmotywów społeczeństwa demokratycznego, liberalnego, otwartego wobec upłynnionej nowoczesności, pogodzonego z ryzykownymi wyborami codzienności i strategiami życia, gotowego na nieustanną transformację i rekonstrukcję.

Zestawienie linearnego i hierarchicznego drzewa oraz sieci poststrukturalnie powiązanych elementów to nie jedyne figury inspirujące współczesne myślenie o komunikacyjnych zmianach. Różnicę zawierającą się pomiędzy strukturą drzewa i kłącza (to humanistyczny pierwowzór pojęciowy sieci) inaczej postrzega i nazywa francuski filozof Paul Virilio. W centrum swojej teorii kultury ustawił kategorię prędkości, której wzrost powoduje zmianę kulturowej optyki. W prędkości analogowego świata widoczne było przede wszystkim to, co bliskie oczom patrzącego – szczegóły naturalnego otoczenia dające się ogarnąć i rozpoznać nieuzbrojonym wzrokiem. Świat widziany w ten sposób to zbiór punktów, które łączą się nie tylko w widzialną całość, ale i konstruują matrycę patrzenia kulturowego. Świat postrzegany z perspektywy prędkości współczesności układa się w linie i mało wyraźne punkty na pograniczu zdolności widzenia patrzącego – wyraźne i namacalne pod jej wpływem staje się dalekie drzewo na widnokręgu, kiedy poruszamy się szybkim środkiem lokomocji, gdyż to co bliskie w takiej sytuacji, traci wyrazistość, zamienia się w plamy i linie.

Do analiz baz danych można wykorzystać także figurę roju, którą zaproponował amerykański badacz nowych technologii Richard Galloway. Podobnie jak poprzednie metafory, także i ta wywodzi się z obszaru botaniki. Rój miałby być społeczną logiką, która reguluje wewnętrzny kształt sieci. Lokalne interakcje wytwarzają w niej złożone organizacje wyższego rzędu, jednostki działając z pozoru chaotycznie tworzą zbiorowe wzorce i matryce. Dynamikę roju cechuje jednocześnie „amorficzność” i skoordynowany „porządek”, balans sił i wypadkowych wszystkich biorących w nim udział [198]. To formuła zdolna do podtrzymywania własnego status quo i regulowania wszelkich zmiennych jej dotyczących.

Szczególnie w XX stuleciu pojawiło się wewnątrz niej wiele prób przełamania tradycyjnych zasad, medialnych reguł i sposobów komunikacji – okazała się w dużej mierze autokrytyczna. Na formalny ferment w obszarze tekstualności, a w dalszej kolejności w teorii literatury, składają się dokonania i idee takich ikon współczesnej kultury, jak James Joyce, Jose Louis Borges, eksperymentatorzy z grupy Oulipo, semiotyk, filozof i teoretyk kultury Umberto Eco z jego wspomnianą już teorią dzieła otwartego, Roland Barthes wieszczący śmierć autora, czy Julio Cortazar. Ich dokonania w zakresie krytyki tekstualności i warsztatu literackiego dotyczą nie tylko wewnętrznych stanów w tej przestrzeni kultury. Okazały się także znamienną krytyką technologicznego wymiaru gutenbergowskiej kultury, dotyczyły ograniczeń zamkniętej formalnie i ograniczonej funkcjonalnie konstrukcji medium książki i jej wpływu na odbiór i kondycję tekstualności [199]. Chociaż jedynie w niewielkim stopniu można by je powiązać z rozwojem technologicznym maszyn kalkulujących, to miały one niepodważalny wpływ na ich kulturowe osadzenie na terytorium zdominowanym przez tekstualność. Doprowadziły bowiem do wykrystalizowania się idei cyber- i hipertekstu, a jednocześnie zainicjowały pozatechnologiczny (analogowy) nurt rozwoju tekstualności, który nazywany bywa liberaturą[200].

Nie będę wchodził głębiej w dokonania przywołanych twórców, bo są one powszechnie znane i dobrze już opisane także na polu medioznawczym – choćby w teorii hipertekstu. Odniosę się jedynie do konkluzji, jakie na temat zmian w tym obszarze zgłosili Eco i Barthes. W sformułowanej na początku lat 60. ubiegłego wieku koncepcji dzieła otwartego Umberto Eco zwracał uwagę na dokonującą się w kulturze zmianę ról. Relacja autor-dzieło traci na znaczeniu wobec relacji odbiorca-dzieło. Swoją władzą nad tekstami kultury ich autorzy muszą dzielić się z ich odbiorcami, którzy interpretują je, przekształcają i czytają wciąż na nowo [201]. Kilka lat później tę argumentację dobitnie wyraził Roland Barthes w słynnym eseju obwieszczającym śmierć autora jako jedynowładcy dzieła. Francuz potwierdzał w nim diagnozę Eco co do fundamentalnych zmian w obrębie literatury, rynku wydawniczego i czytelnictwa, jakie miały miejsce w XX wieku [202]. Dla obu wyśmienitych analityków obserwacje kulturowej tektoniki miały dużo większą siłę sejsmicznego rażenia niż tylko w obszarze literatury i tekstualności jako takich. W ich projekcjach stawały się one teoriami ogólnych zmian w kulturze współczesności, w której brak ciągłości, a przygodność, niejednoznaczność i nieokreśloność to stany naturalne. Otwartym dziełem nie włada już autorytarnie sam autor (ewentualnie także jego dysponent, wydawca) – staje się ono otwartym zasobem kultury, którego przeznaczeniem jest być wielokrotnie dekodowanym, dekonstruowanym. Konstatacje obu autorów mogłyby z powodzeniem znaleźć się w instrukcjach obsługi do technologicznych form baz danych. Wyrażają ich kulturowy potencjał i definiują nowy układ ról w kontakcie z uniwersum informacji, stając się w ten sposób klasycznymi tekstami cyfrowego dyskursu.

W historii dyskursu nowomedialnego wymienia się jednym ciągiem opowiadanie Borgesa o ogrodzie z tysiącami rozwidlających się ścieżek z początku lat 40. ubiegłego wieku, które odbiło się olbrzymim echem w obszarze teorii literatury, a także konceptualne prace pionierów kultury cyfrowej, takie jak koncepcja hipertekstowej maszyny przeszukującej dane i utrwalającej nielinearne skojarzenia użytkownika o nazwie MEMEX autorstwa V. Busha z połowy ubiegłego wieku jako zdarzenia fundujące kulturę i technologię danych w początkowej postaci konceptualnego hipertekstu. Hipertekst uznać można za historyczny prototyp technologii i kultury baz danych. To także pierwsze bezpośrednie rozwiązanie nowomedialne, które można uznać za fundament interfejsowy projektu komputeryzacji w ogóle. Jeszcze przed pojawieniem się baz danych w ich dzisiejszej formie hipertekst okazał się formą o wewnetrznej strukturze odpowiadającej myśleniu, które tu określam jako bazodanowe. Zdefiniowana na nowo w tej cyfrowej formie tekstualność stała się otwarta, wielowątkowa i multinarracyjna, są w niej nie tylko z góry wyznaczone ścieżki, ale i potencjał czytania na wiele nieokreślonych z góry sposobów. W cyfrowym środowisku zyskała nowe oblicze [203].

Kilkadziesiąt lat później, po kilku etapach ewolucji komputeryzacji, myślenie o alfabecie, tekście i jego literackich formach w kategoriach baz danych i zarządzania nimi nie jest niczym niezwykłym. Bazodanowa wyobraźnia poszerza i otwiera na nowe możliwości formalne całą tekstualność. Jako przykład komentujący i ilustrujący bazodanowego ducha, którego cień systematycznie kładzie się na tekstualności, wybieram jedną z prac niemieckiego designera, Borisa Müllera, zatytułowaną Fast Faust, z roku 2000. Wizualna postać tej pracy (plakat wydrukowany w formacie A1) powstała w wyniku algorytmicznych obliczeń częstotliwości występowania w oryginalnym tekście Fausta Goethego poszczególnych słów. Na plakacie występują wszystkie słowa, które znajdują się w tekście poematu. Zmienia się jednak ich kolejność i wygląd; te, które pojawiają się w tekście najczęściej, znajdują się na górze zestawienia i są wydrukowane większym i grubszym rozmiarem kroju czcionki. Im mniejsza ilość lokalizacji w tekście danego słowa, tym mniejsza jego wielkość i pozycja na wizualizacji. Powstała w ten sposób nie tylko alternatywna wizualizacja tekstowej bazy danych, za jaką może być uznane dzieło literackie w cyfrowych okolicznościach, ale także algorytmiczna analiza praktyki autorskiej, z której lektury uważny czytelnik z pewnością wyniesie wiele cennej, nieoczywistej i trudnej do pozyskania tradycyjnymi metodami wiedzy na temat kanonicznego dla światowej literatury utworu [204].

Tekstualność, na której formalnych podwalinach zasadza się projekt cyfrowy, to nie jedyny trop medialny dający się wykorzystać w poszukiwaniach kulturowych i artystycznych prototypów nowej organizacji wiedzy i informacji w formie baz danych. Tekstocentryczne analizy kondycji nowych mediów, które postrzegają hipertekstualność jako najważniejszy z kulturowych kształtów cyfrowości, wraz z rozwojem technologicznym przesunęły się na drugi plan, ustępując miejsca obrazom i ustanowionej w oparciu o ich język kulturze wizualnej. Oznacza to, że w domenie technologii cyfrowych to metafory, gramatyki i logiki wizualności odgrywają dziś decydującą rolę, definiują sens i wyznaczają porządek cyfrowego świata. Nie wchodząc na razie w szczegóły dotyczące znaczenia i historii zwrotu wizualnego w kulturze – wrócę do tego wątku niebawem – można powiedzieć, że ogólnie losy komunikacyjnej powłoki cyfrowych maszyn w ostatnich trzydziestu latach polegały na systematycznej ich emigracji z terenu tekstualności i zagnieżdżaniu się wewnątrz wizualności – potwierdza to historyczne następstwo technologii interfejsowych, które w pierwszej fazie swojego istnienia były mechaniczne, następnie tekstualne, aż wreszcie – to właśnie faza obecna – wizualne. Ten proces opowiadany z perspektywy historii technologii cyfrowych i sieciowych można rozumieć paralelnie wobec historii komunikacji w ogóle: jako przechodzenie od pisma i tekstualności (epoka Gutenberga) do fazy dominacji kultury wizualnej. Powszechna komputeryzacja możliwa dzięki interfejsom graficznym i wizualizacji środowiska cyfrowego to jedna z przestrzeni, w których doskonale widać dominację kultury wizualnej we współczesności [205].

Przeszedłem przez obszar technologicznych i kulturowych inputs i outputs związanych z bazami danych. Pora teraz na analizę ich semantycznego usytuowania i rozumienia w dyskursach teorii mediów i kultury, czyli odnalezienie i rozpoznanie potencjału bazy danych jako pojęcia w budowie. Baza danych odgrywa pierwszoplanową rolę w teorii nowych mediów. Kiedy dyskurs medioznawczy, który bacznie przyglądając się impetowi cyfrowości i jej technologii podsuwa nam myśli o cyfrowej rewolucji, nowej, otwartej kulturze czy kulturze uczestnictwa, odwołuje się przede wszystkim do figury bazy danych. Została ona przezeń ustanowiona jednym z emblematycznych, centralnych formatów nowego ekosystemu medialnego. Powoli staje się także – na skutek poznawczej atrakcyjności medioznawstwa, mody na nie – metaforą opisującą nowe obyczaje komunikacyjne i zmiany w świecie kultury i życia społecznego w ogóle. Do takiego wykorzystania pojęcia bazy danych mam i ja nadzieję się w jakimś stopniu przyczynić.

Figurę bazy danych i sam termin wprowadził do dyskursu medioznawczego Lev Manovich w wydanej przed dekadą, a dzisiaj już kanonicznej dla studiów nad cyberkulturą i nowymi mediami, pracy Język nowych mediów. Manovich wyznaczył w niej kanon definiowania i teoretycznego kontekstualizowania kultury komunikacyjnej technologii cyfrowych. Amerykański medioznawca wskazuje na bazę danych, którą w połączeniu w interfejsem umieszcza w funkcjonalnym (technologicznym) i kulturowym epicentrum mediów cyfrowych. Baza danych to według niego nowy sposób nadawania struktury naszemu doświadczeniu świata i siebie (s. 334–335), wokół którego epoka komputerów stworzyła nowy kulturowy algorytm: rzeczywistość → media → dane → baza danych (s. 341). W konsekwencji struktura niektórych obiektów medialnych stosuje się wprost do logiki bazy danych, natomiast struktura innych – nie, mimo to – w głębi – praktycznie wszystkie to bazy danych (s. 343) [212]. W odczytaniu Manovicha cyfrowy ekosystem informacyjny to środowisko bazodanowe, co znaczy, że struktura bazy danych powiela się we wszystkich jego obszarach, zaś same dane zawładnęły wszystkimi jego poziomami funkcjonalnymi. Bazy danych spełniają fundamentalną rolę: są technologicznym wcieleniem idei dotyczących struktury i organizacji wiedzy, ekologii i ekonomii jej zasobów towarzyszących dwudziestowiecznej kulturze.

W swoich analizach Manovich odnajduje połączenia pomiędzy wcześniejszymi formami medialnymi a technologiami cyfrowymi; jego teoria mediów szuka podobieństw i związków przyczynowo-skutkowych pomiędzy gramatyką istniejących mediów a regułami unikalnego języka mediów cyfrowych. Kiedy w tym duchu podejmuje temat baz danych, sięga, niemal automatycznie, do dziedzictwa kinematografii. To, według niego, medialna ontologia, której media cyfrowe zawdzięczają wiele technologicznych i semantycznych pretekstów i form. Można powiedzieć, że kino i film to dla Manovicha pre-bazodanowy język medialnej wypowiedzi. Elementy strukturalnej gry z konstrukcją kinowej narracji, język kamery i montażu filmowego, doświadczenie widza stworzyły zręby technologiczne dla formatów użytkowych maszyn cyfrowych. Kultura kina, jego estetyka i semantyka, stały się natomiast podwalinami kulturowego języka technologii cyfrowych. Zrozumienie specyfiki bazy danych (ta konstatacja odnosi się do nowych mediów w ogóle) wiązać się musi zatem z medialną archeologią, tj. odnajdywaniem i pokazywaniem znaczeń nieustannego remiksu/recyklingu medialnych form i niesionych przez nie semantyk [213].

Jak, według amerykańskiego teoretyka, baza danych wpływa na kształt języka nowych mediów? Odpowiedź Manovicha jest w tym przypadku stanowcza: współczesne media to pole rywalizacji między bazą danych a narracją (s. 353) [214]. Baza danych to format rozbijający tradycję odgórnie planowanej i dystrybuowanej narracyjności w kulturze. Narracyjne były i wciąż w dużej mierze są, mimo podjętej walki z nowymi technologiami, tradycyjne media komunikacji masowej. Ich logika zdominowana była przez funkcję bezzwrotnej transmisji zdefiniowanego (technologicznie, ideologicznie, geograficznie) komunikatu do jak największej ilości potencjalnych odbiorców. Narracyjne były również tradycyjne media epoki przedelektrycznej – pismo, obrazy, opowiadania.

Potwierdzenia manoviczowskiej diagnozy bazodanowego charakteru cyfrowego ekosystemu medialnego potwierdzają i uzupełniają diagnozy szczegółowe proponowane przez innych teoretyków mediów, kultury i komunikacji. Dla przykładu w zakresie cyberkulturowej teorii tekstualności takie potwierdzenie znajdziemy w pracach teoretyka literatury elektronicznej i cyfrowej tekstualności Espena Aarsetha, który cybertekstualność postrzega w oparciu o zanik linearności: w zakresie tworzenia tekstu, jak i jako szereg charakterystycznych dla zapośredniczenia cyfrowego strategii odbiorczych. Nielinearny tekst staje się tekstem bazodanowym, to jest takim, w którym obok autorskiej narracji możliwe są także inne układy i kompozycje jego części składowych (zarówno technicznych jak i semantycznych), staje się hipertekstualny, multimedialny i wariacyjny [215].

Zwrot ku danym i sposobom ich przetwarzania, politykę dostępu do nich zauważa w sztuce mediów jej kuratorka, teoretyk i popularyzatorka Victoria Vesna. Sztuka współczesna wykorzystując coraz częściej cyfrowe media jako narzędzia i przestrzeń twórczą odwraca się od tradycyjnego pojmowania artefaktów, materiałów, narzędzi, dzieł i estetyk ku takim problemom, jak sposoby organizacji informacji, jej pozyskiwania i dystrybucji. Zwieńczeniem tej nowej logiki działań artystycznych jest wchodzenie sztuki w obszar cyberprzestrzeni. Według Vesny istnieje wiele dowodów, w które bogata jest historia sztuki, potwierdzających tezę o tym, że artyści zawsze żywo interesowali się komunikacją, cyrkulacją informacji, ich ekologią. Pod naporem danych sztuka współczesna podejmuje te problemy w całej ich okazałości, podając w wątpliwość dotychczasowy status artysty i odbiorcy, ich wzajemne oraz pomiędzy nimi a dziełem relacje. Nowym artystycznym wyzwaniem okazuje się wchodzenie w świat danych i takie poruszanie się w nim, które prowadzi do odkrywania starych prawd o świecie, kulturze i człowieku. Artysta staje tu na równi z programistą, inżynierem i technologiem, poszukując semantycznych ścieżek w elektronicznym środowisku [216].

Dominacja narracji uprzywilejowuje autora na niekorzyść czytelnika, widza, słuchacza; nadawcę wobec odbiorcy, instytucje medialne wobec społeczeństwa i obywateli, itd. – to kondycja tradycyjnej kultury medialnej i komunikacyjnej. Manovich sprawnie skompresował szereg odnoszących się do różnych porządków i form medialnych diagnoz i teorii, obejmując je wszystkie rzeczonym konfliktem pomiędzy narratywnością i podważającym ją porządkiem bazodanowym. Poza przywołanymi współczesnymi teoretykami mediów i ich kultury tę zmieniającą się kondycję rozpoznali już wcześniej filozofowie Gilles Deleuze i Felix Guattari. W swojej teorii kultury zaproponowali figurę kłącza wydobywającą poststrukturalny świat fragmentów i niezliczonej ilości możliwych nawigacji i narracji między nimi oraz logikę nomadyczności, która w ich perspektywie oznacza nowy porządek kulturowego bycia i poruszania się w kłączastym świecie fragmentów. Dopełnieniem deleuzowsko-guattariańskiej teorii stał się obwieszczony pod koniec lat 70. przez jeszcze innego francuskiego humanistę, Jeana Francois Lyotarda, w raporcie dotyczącym kondycji społeczeństwa współczesnego upadek wielkich narracji. Za wielkimi teoriami/opowieściami kultury kryją się diagnozy, w których wielkie konstrukcje/systemy/struktury i dyskursy tracą swoją cywilizacyjną pozycję, rozpadają się stając się nieuporządkowanym skupiskiem resztek gotowych na dowolne odczytania, podatnych na rekonstrukcje, połączenia z dowolnymi innymi, czekających na wzbudzenia i utrwalenia i objawiających się w miejsce braku wielkich niezliczonych mikronarracji. Tradycyjne, hierarchiczne kultura i społeczeństwo przechodzą w ten sposób, konkluduje Lyotard, w tryb ponowoczesny.

Baza danych to technkulturowy rezonans myślenia matematycznego i abstrakcyjnego, liberalizmu, emancypacji i demokratyzacji życia społecznego, rewolucji przemysłowej i technologizacji życia. Od kiedy elementy i gramatyka cyfrowego ekosystemu stały się jednym z regulatorów kulturowych praktyk, również baza danych jest niezwykle ważnym obiektem/procesem kulturowego i kulturalnego krajobrazu. Jej kulturotwórcza energia rezonuje pośrednio i bezpośrednio w wielu sferach rzeczywistości, niektóre z nich zmieniając niezwykle radykalnie i dogłębnie, inne tylko delikatnie/niezauważalanie jeszcze zahaczając.

Obrazy powstają i są przedmiotem wielu dyskursów, na uniwersytetach i poza światem humanistyki. Niektóre dyskursy, takie jak biochemia czy astronomia, traktują je obsesyjnie; inne tylko częściowo się nimi posługują. Jak na razie visual studies interesują się głównie obrazami funkcjonującymi w polu sztuki i mediów masowych pomijając w ten sposób pozostałe, które stanowią przeważająca większość powstających w praktykach naukowych. Poza uniwersytetami tego typu obrazy naukowe pojawiają się w kolorowych magazynach, Internecie czy książkach popularnonaukowych.

Wśród większości współczesnych badaczy komunikacji, kultury i mediów, nie ma sporu co do historycznego triumfu medialnej wizualności nad pozostałymi formami komunikacyjnymi w kulturze współczesnej. Uznają ją za najważniejszą, uprzywilejowaną platformę wymiany między ludźmi i różnymi kulturami. Wizualny prymat potwierdzali już w latach osiemdziesiątych ubiegłego wieku wielcy współcześni diagności kultury, tacy jak Jean Baudrillard w swojej teorii symulacji, William J. T. Mitchell w obszarze kulturowej teorii obrazów – ikonologii, Oliver Grau w analizach historii sztuki mediów czy Hans Belting w antropologii obrazu opartej m.in. na różnicy pomiędzy tym, co widzialne (visible), a tym, co zobrazowane (visual) [219]. Przywołane teorie jednoznacznie uznają kulturowy prymat wizualności, a także definiują visual culture jako jedno z fundamentalnych dla współczesnej kultury i nauki obszarów/praktyk. Tworzą przy okazji także i nową dyscyplinę badań nad kulturą pod szyldem visual studies. Składają się na nią dokonania i perspektywy takich istniejących nauk, jak cultural studies, media studies, psychologia, antropologia, semiotyka czy historia sztuki.

Teoretyczne i metodologiczne tropy visual studies i próby ich zaszczepienia w praktyce akademickiej znajdują potwierdzenie i wzmocnienie w praktykach artystycznych i technologicznych. Na uniwersytetach coraz częściej pojawiają się katedry i kierunki skupiające się na kulturowej i społecznej roli obrazów i wizualności. W Austrii Oliver Grau ukonstytuował dedykowaną tej problematyce dyscyplinę badań i uruchomił studia wizualne – Bildwissenschaft [220]. Na podobne posunięcia decydują się także inne uniwersytety i ośrodki badawcze nie tylko w Europie. Wspomniany amerykański teoretyk obrazów i wizualności W. J. T. Mitchell w 1992 obwieścił „zwrot piktorialny” (zwrot wizualny) w dyskursie nauk i sztuk. W ten sposób nazywał dokonujące się pod naporem obrazów przesunięcia w nauce, powiadając, że nie język, a wizualność jest pryncypialną zasadą mediów {[221], i sugerując przekierowanie uwagi poznawczej na sferę wizualną, jej fenomenologię, estetykę i poetykę [222]. Potwierdzeniom prymatu wizualności w dyskursie sztuki mediów i jej teorii oraz w logice rozwoju technologiczno-gospodarczego przyjrzę się niebawem nieco szerzej. Zależy mi bowiem na podkreśleniu związków pomiędzy ewolucją kondycji wizualnej a logiką funkcjonowania baz danych.

Na obecnym etapie rozwoju cyfrowych form technologicznych (hardware i software) wizualność jest przede wszystkim praktyką nadawania surowym, matematycznym ciągom kodu baz danych bezpiecznych antropologicznie (psychologia i antropologia postrzegania) i kulturowo (semiotyka wizualności) kształtów, tj. upodabnianie do oswojonych w ramach dziedzictwa visual culture form (np. ekran monitora jako nawiązanie do ekranu telewizora, strona www jako nawiązanie do drukowanej gazety). Inaczej mówiąc: obrazy wystawiamy jako najważniejszy kulturowy kapitał/system bezpieczeństwa w kontaktach z niewidzialnym, tj. trudnym do uchwycenia (za sprawą miniaturyzacji narzędzi i spektrum widzialności elektryczności) techné, a przez to niezrozumiałymi/groźnymi elektrycznością, kodem cyfrowym i oceanem digitalnych danych. W ten sposób wizualność pełni nie tylko rolę gwaranta kulturowego bezpieczeństwa i uniwersalnej powłoki (mapy) cyfrowych wód, siłą rzeczy przekształcona została także – dopełniając historię analogowej mediatyzacji wizualności – w najpowszechniejszą praktykę użytkową nowych technologii, stając się gruntem, na którym narodziły się ich interfejsy. Najogólniej rzecz ujmując przypomnę: obrazy stały się najważniejszym kulturowym interfejsem technologii rewolucji cyfrowej.

Na przeoranym siłami rozwoju technologicznego i ewolucji kultury medialnej polu także wizualność i jej techniczne obrazy muszą w związku z powyższym stać się podwójnie kompatybilne, wciąż wpisując się w istniejące kody kultury jednocześnie poddawać się nowym technokulturowym regulacjom. Dostrajanie się do siebie technologii, kultury i obrazów jest dzisiaj bezprecedensowe co do zakresu zmian, ich tempa i zasięgu. Zmieniają się dostępność do możliwości tworzenia i publikowania (a w zasadzie upubliczniania) obrazów, software i interfejsy ich tworzenia, przekształcania, magazynowania, analizowania i emisji [224]. W obszernej antologii zatytułowanej Imagery in the 21st Century, prezentującej zasięg i skalę najnowszych estetyk, interfejsów, software cyfrowej wizualności, Oliver Grau i Thomas Veigl tak te procesy opisują:

Nigdy wcześniej świat obrazów nie zmieniał się tak szybko; nigdy wcześniej nie byliśmy wystawieni na kontakt z tak wielką ich różnorodnością; nigdy wcześniej sposoby wytwarzania i dystrybuowania obrazów nie zmieniały się tak gwałtownie [225].

Wizualizacje danych to, reasumując, nowe środowisko wizualne, które gwałtownie się rozwija i upowszechnia. To demokratyzacja społecznej ekonomii wizualnej, w której dotąd dominowały autorytarne obrazy tworzone przez instytucje medialne. To także formalne otwarcie języka wizualnego i obrazów, które stają się płynne i podatne na zmiany, konfiguracje i interpretacje swoich widzów/malarzy. To również krok w stronę technologicznego i matematycznego nowego porządku obrazów, które powstają jako barwne reakcje na fluktuujące środowisko danych, stając się jego najważniejszym kulturowym obliczem.

Najważniejsza z cech tego nowego typu nadzoru to zupełne unieważnienie różnic pomiędzy tym, co prywatne, a tym, co publiczne. Życie jednostek obserwowane przez pryzmat tworzonych/udostępnianych przez nie i/lub gromadzonych na ich temat danych staje się zupełnie przezroczyste, zlewa się w jednolity profil, który na swoje potrzeby tworzą różnego typu korporacje i organy administracyjne. Najdrobniejsze nawet nasze aktywności podejmowane w cyfrowym środowisku pozostawiają po sobie cyfrowe ślady i mogą stać się fragmentem zbiorów różnych baz danych. W razie potrzeby, to jest przez sformułowania i zadanie odpowiedniego zapytania, dane te zostaną z magazynów wywołane i staną się świadectwami tego, kim jesteśmy i z jakich aktywności składa się nasze życie, pozostawionymi przez nas świadomie lub nie w cyberświecie. Taki stan rzeczy wynika wprost z naturalnej własności danych i środowiska cyfrowego w ogóle: dla cyfrowego kodu i maszyn, które go kalkulują, nie ma znaczenia, jakie elementy rzeczywistości przetwarzają. W obliczu zer i jedynek wszystko okazuje się równe, identyczne formalnie. Alaxander Galloway w książce pod znamiennym tytułem Protocol: How Control Exists after Decentralization sugeruje wręcz, że cyfrowość i jej media zostały przez wojskowych uwolnione i stały się publicznie dostępne jedynie dlatego, że, wbrew interpretacjom cyberoptymistów, są kryjącymi się pod płaszczykiem demokratyzacji doskonałymi narzędziami monitorowania i kontroli swoich użytkowników. Fundamentem, na którym ustanowiono Internet nie jest wolność. Jest nim kontrola – alarmuje [236].

Jak wiemy od Anthony’ego Giddensa, informacja i obyczaje związane jej społeczną cyrkulacją to, ogólnie rzecz ujmując, immanentna podstawa funkcjonowania sfery politycznej. Dostęp do niej i możliwość zawiadywania nią umożliwia przede wszystkim podtrzymywanie skomplikowanej struktury społecznej i skuteczną realizację władzy politycznej. Pozwala także na wyłapywanie zachowań odstających od norm, a także monitoring życia społecznego, np. w kontekście zagrożeń zewnętrznych. Wreszcie cyrkulacja informacji to podstawowy budulec sfery publicznej i obecnej w niej kultury komunikacji publicznej. W domenie elektronicznej mamy do czynienia z bazodanowymi automatami kontrolnymi, których skuteczność jest tym większa, im mniej zdajemy sobie z tego sprawę i im mniej świadomie klikamy, generując i udostępniając dane o sobie [237].

Danowe wpływy nie pozostawiają wizualności w zastanej postaci. Sądzę, że uruchomione przez ekologię danych zmiany w kulturze wizualnej najtrafniej scharakteryzował Bernard Stiegler, francuski filozof technologii medialnych, mówiąc o gramatykalizacji widzialnego (grammaticalization of the visible) [244]. W stieglerowskim pojęciu mieszczą się zarówno matematyczne reguły przenikające bazy danych, jak i ich outputy semiotyczne, związane z kształtowaniem się płynnej, wariacyjnej i podatnej na remiks wyobraźni i wizualności bazodanowej. Bazodanowa gramatykalizacja wizualności wyglądałaby w następujący sposób: pod wpływem danych zmieniają się techniki tworzenia i postępowania z obrazami, powstają nowe formaty i języki wizualne data visualisation, information visualisation czy infoesthetics. Dotychczas, w duchu analogowego dziedzictwa, obrazy były przede wszystkim przekaźnikami oferującymi jednostronną transmisję: fotograf, malarz, reżyser, animator tworząc swoje wizualne teksty osadzał wewnątrz nich zamknięte formalnie komunikaty. Interfejsy graficzne, których charakter tworzą takie cechy, jak klikalność, interaktywność, nawigacja, personalizacja, itd., otwierają świat obrazów na potencjał interaktywności ze strony odbiorców. Można powiedzieć, że wraz z digitalizacją i cyfrową interaktywnością wizualność emancypuje się z gorsetu Galaktyki Gutenberga, przestaje być medium związanym zasadą pisma i na nowo staje się alternatywnym porządkiem kulturowym (to proces historyczny, którego początków szukać można już w sporze o naturę obrazów pomiędzy ikonoklastamiikonoklarami). Dla tego nowego porządku zasadą jest zupełna otwartość formalna i zdolność do przyjęcia różnych struktur i logik użytkowych. Różnicę między starą a nową wizualnością można zrozumieć patrząc na paralelny stan tekstualności, gdzie tekstualność linearna, gutenbergowska, ustępuje hipertekstualności i innym otwartym formom cybertekstualnym. Nowe obrazy jak nowe teksty są zbiorami ruchomych, niepowiązanych stałymi więzami elementów, łatwo poddają się rekonstrukcjom.

Inny porządek w ewolucji obrazów i wizualność dostrzega Oliver Grau [245]. Austriackiego teoretyka interesuje ich historyczna immersyjność, czyli pochłanianie przez język wizualności kolejnych idei, wyobraźni i stanów kulturowych. Chłonność obrazów wynika z potrzeby ich przyciągania: angażowania wzroku w sensie biologicznym, ale i możliwie pełnego angażowania estetycznego i politycznego spojrzenia. Technologiczne formy i kulturowe estetyki obrazów mają w rezultacie prowadzić do pierwiastka coraz głębszego, bardziej zaangażowanego, bliskiego naturalnym stanom wizualności, choć jednocześnie konkurującego z nimi o uwagę kultury. W ten sposób analogowe obrazy immersyjne przekształcają się w przestrzeni historii sztuki w obrazy immersyjne technologicznie, obrazy wirtualne. Szczególne znaczenie ma w tej historycznej prawidłowości współczesna faza obrazów cyfrowych, w której objawiły się takie stany, jak: teleobecność i telematyka, sztuczna inteligencja i obrazy samogenerujące się.

Co dla kulturowej przestrzeni komunikacji i mediów wynika z przedstawionej symbiozy obrazów i danych oraz postępującej cyfryzacji/gramatykalizacji wizualności? Na to pytanie chciałbym odpowiedzieć odnosząc się do dwóch przykładów, które w praktyce medialnej spotykają się ze sobą: przywołanego już społecznego indeksowania danych oraz wspomnianego przed chwilą przekształcania się obrazów w interfejsy. Pierwsze z nich, jak pamiętamy, związane jest przede wszystkim ze społeczną ekonomią informacji i jest etapem emancypacji użytkowników wobec danych i zarządzających nimi technologii medialnych. Drugie zjawisko ma charakter bardziej antropologiczny i wskazuje na zmieniające się reguły mediacji, w której obraz przechodzi z funkcji reprezentacji do bycia interfejsem i ku fazom kolejnym. Synergię obu chciałbym przedstawić za pomocą studium przypadku, którym będzie sytuacja mapy w domenie cyfrowej oraz szeregu praktyk kulturowych związanych z jej społeczną kartografią – indeksowaniem oraz atomistyczną, pikselową interfeizacją. W tym celu przyjrzę się najpierw medium mapy, a następnie jej cyfrowym losom pod wpływem baz danych.

W borgesowskim i baudrillardowskim (z perspektywy dyskursu teorii mediów trudno dziś osądzić, któremu z nich należy się laur pierwszeństwa) odwołaniu do mapy i kartografii współczesne teorie mediów usytuowały punkt orientacyjny dla kulturowej logiki wizualności i reprezentacji [254]. Dwaj wielcy konceptualiści wizualności przypominają, iż mapa jest pierwszą wizualną reprezentacją rzeczywistości, pierwszym „wirtualnym” kodeksem pozwalającym postrzegać (rozumieć) abstrakcyjnie przestrzeń i orientować się w niej. Reprezentacyjną i komunikacyjną regułę mapy wraz z towarzyszącym jej gestem mapowania i modelowania przestrzeni (= świata rozpoznanego i poddanego refleksyjnej obróbce) postrzegają jako przedtechnologiczną konstytucję medialności. Historyczne próby mapowania, powstające w ich rezultacie mapy – teksty i obrazy kultury oraz dyskurs kartografii jako metody reprezentacji przestrzeni i kultury – możemy zatem uznać za elementarne zadania genetycznego kodu współczesnych kondycji medialnych i kultury w nie uwikłanej. W przyjętej przez mnie postmedialnej perspektywie ich dotychczasowe znaczenie jest podwójne: 1) mapa jest zarazem matematycznym modelem/kodem rzeczywistości i jej semiotyczną reprezentacją; 2) mapa jest specyficznym, wizualnym pre-interfejsem kultury.

Cyfrowe zakodowanie formy i treści mapy otwiera ten kulturowy tekst/obraz na wszelkie możliwe bazodanowe praktyki, estetyki i polityki – czyni ją podatną na remiks, wariacje użytkowe i niezliczoną ilość nakładających się na siebie/przenikających się narracji semiotycznych i interfejsów. Przez to wprowadza ją na obszar po „śmierci autora”, choć powinienem napisać w tym przypadku o śmierci kartografa, w którym miejsce i rola dla wielkich wizjonerów i kartografów są ograniczone, poddane różnorodnej konkurencji i weryfikacji. Przywołajmy w tym miejscu średniowiecznego hiszpańskiego mnicha Beatusa z Lièbany, któremu zawdzięczamy wspaniale ilustrowaną Mappa Mundi uznawaną za jedną z najważniejszych, a przy okazji i najpiękniejszych, map świata. Ta mapa była nie tylko poruszającym estetycznie wizualnym modelem świata. Była jednocześnie wielką o nim opowieścią; kodem zawierającym w sobie teologiczną, polityczną, społeczną i artystyczną summę wiedzy, historii i kultury w ich ówczesnych autodefinicjach. W cyfrowych okolicznościach powinności i kompetencje niegdysiejszych zakonnych kartografów-narratorów przejmują w dużej mierze maszyny medialne. To wspomniane powyżej autoreferencyjne technologiczne systemy skanujące i modelujące (satelity, fotografie lotnicze, street wiev), które samoczynnie mapują powierzchnię globu i przetwarzają zebrane dane w gotowe modele soft­ware’owe (Google Earth) regulujące kształt olbrzymich zasobów pozyskanych tą drogą geodanych. Powstaje dzięki ich skanowaniu i przetwarzaniu mapa – baza danych, która jest dokonała kartograficznie i technologicznie. Brakuje jej jednak duszy kulturowej metafory, nie jest intrygująca estetycznie i nie opowiada świata, a jedynie go odtwarza.

a cyberprzestrzeń czynią cyfrową, mającą charakter metanawigacji pomiędzy mediami, kulturami i przestrzeniami e-Mappa Mundi HD – przy czym chodzi tu zarówno o obraz terytorium realnego zakodowanego cyfrowo, jak i przedstawiane w formie map wymiary ekosystemu elektronicznego, cyberprzestrzeni. Nie jest to już jedynie mapa opowiadająca realne, dające się ująć wedle zasad klasycznej geometrii, terytorium. Wraz z hybrydowością samej mapy, która opisuje jednocześnie przestrzeń realną i cyberprzestrzeń, także i rzeczywistość w kontakcie z nią staje się coraz bardziej hybrydowa. W teoriach mediów stan, kiedy na realność nakłada się kolejne warstwy cyberrealności, określa się mianem rzeczywistości poszerzonej (augmented reality) [257].

W medialnej tradycji mapa i kartografia stanowiły pierwotny polityczny i hierarchiczny kod (kultura) związany z terytorium (natura). W dobie bazodanowych ewolucji stają się sferą dekonstrukcji systemu władzy, przemysłu kulturowego i przechodzą w stan postmedialny: stają się praktyką zbiorową, pospolicie zarządzaną bazą danych, które jej cyfrowi użytkownicy generują, tagują, waloryzują, wizualizują i wreszcie także hybrydycznie przenoszą pomiędzy światami offline i online.

W reakcji na cyfrowe losy mapy i społeczną wolę i praktykę kartografii we współczesnym badaniach mediów widać już wyraźnie narodziny nowej subdyscypliny, która obejmuje działania komunikacyjne i technologiczne związane z postrzeganiem i rozumieniem przestrzeni, modelowaniem jej reprezentacji, geolokalizacją, sztuką GPS i sieciowymi pomysłami na wykorzystanie tej sfery do działań społecznościowych. Użytkowanie tych elementów medialnego świata – coraz chętniej określa się je mianem geomediów czy mediów lokacyjnych – i teoretyczna refleksja nad nimi odwołują się do pierwotnego gestu kartograficznego, potrzeby mapy i nawigacji [259].

Wraz tymi ideami i ich technologicznymi wcieleniami rozpoczęła się historia rzeczywistej taktylności mediów (to pojęciowe echa teorii McLuhana), których różne interfejsowe elementy stały się haptycznymi przewodnikami komunikującymi w obu kierunkach, pozostając jednocześnie znakami, nie tracąc w wyniku ich mechanicznego uruchamiania przypisanych znaczeń. Epoka medialnych studiów reprezentacji rzeczywistości zaczęła w ten sposób ewoluować ku ich rozpływaniu się w uniwersum interaktywności. Przy tym interaktywne jest tu pomostem pomiędzy tym, co wirtualne i realne, symboliczne i materialne, odbiorem i nadawaniem, postrzeganiem i tworzeniem. Po fazie kultury samorozumiejącej się jako tekst (okoliczności zwrotu lingwistycznego), przez fazę kultury symulującej (okoliczności zwrotu wizualnego) mamy do czynienia – wraz z narodzinami uniwersum cyfrowego – z fazą zwrotu ku realności i materialności. Kulturoznawca Hal Foster twierdzi, że dla współczesnej sztuki (kultury w ogóle) najważniejszym punktem odniesienia staje się to, co jeszcze nie zostało poddane erozji krążenia znaczeń i symulacji wizualnych, czyli nasza cielesność i nietknięte kulturą zjawiska społeczne, a może lepiej – społecznościowe, trybalne [263]. Gdyby chcieć te ogólne zmiany kulturowe ograniczyć do terytorium komunikacyjnego, to można by je opisać według przejścia, które Peter Weibel określa mianem przekształcania się imperium znaków (Barthes) w imperium interfejsów [264].

Pozostając w obszarze map uzupełnijmy tę ogólną diagnozę interfejsowego zwrotu o teorie i metafory Deleuze’a i Guattari’ego związane z przestrzenią oraz jej postrzeganiem i rozumieniem. Teoretyczne intuicje filozofów, wynikające z badań nad organicznymi i kulturowymi uwarunkowaniami percepcji i jej naturalnego sensorium, tworzą imaginacyjny grunt, w którym sytuuje się haptyczny potencjał cyfrowej wizualności i taktylna logika medialnych gestów użytkowników cyfrowych technologii. Efemeryczne propozycje językowe i pojęciowe francuskich filozofów w tym zakresie rysują generalny podział pomiędzy widzeniem hierarchicznym a widzeniem rizomatycznym. Francuzi odróżnili także pojęcia przestrzeni gładkiej (smooth space) i przestrzeni pręgowanej (striated space). Ta pierwsza kategoria odnosi się do środowiska naturalnego i krajobrazu, w którym operuje podmiot. Nie ma ona granic ani centrów. Jej percepcja implikuje płynne doznania i wyobrażenia wynikające z doświadczenia takich niestałych, amorficznych elementów, jak morze, wiatr, piach, czas, dystans. Jest ona bardziej haptyczna niż optyczna, tj. ma namacalną, dającą się sensorycznie odczuć fakturę. Można ją skojarzyć ze sferą nieświadomości. Wymaga nieustannego przystosowywania się, cechują ją krótkie stany, zbliżenia, wariacje, przeżycia, odczucia. U siebie są tu nomadowie, a źle czują się bez wytyczonych ścieżek pielgrzymi. Przestrzeń pręgowana jest natomiast homogeniczną w strukturze siatką powiązań, zależności i hierarchii, które wytyczają na niej kulturowo, przez działania polityczne, ekonomiczne, historyczne w ogóle, ustanowione linie demarkacyjne (blizny). Wpisane są w nią znaczenia i hierarchie, zależności i perspektywy [265].

A Thousand Plateaus autorzy piszą o nieustającej konfrontacji obu typów pojmowania świata – kulturowych wyobraźni, a rozwój kultury widzą jako proces systematycznego umacniania się myślenia hierarchizującego, porządkującego. Morze poddane zostało kartografii i nawigacji, czas usystematyzowany został przez zegar. Skrzyżowanie tej teorii przestrzeni z bazodanowymi stanami mediów cyfrowych prowadzi do wniosku, iż tradycja mediacji analogowych (od Galaktyki Gutenberga przez kulturę masową aż po analogowe oblicze visual culture) odpowiada myśleniu w kategoriach przestrzeni pręgowanej. Porządek mediów analogowych jest próbą strukturyzowania świata symbolicznego i systemów komunikacji społecznej. Przeciwnie rzecz ma się w otoczeniu taktylnych ekranów i obrazów wczesnej epoki cyfrowej i sieciowej. Dzięki nim możliwe jest poszerzenie spektrum spojrzenia, wyjście poza krąg technologicznie pozbawionych „aury” wizualnej znaków pisma i rozszerzenie głębi patrzenia i widzenia na obrazy, które dynamicznie rozwijają się w cyfrowym środowisku technologicznym. Jednak dopiero cyfrowe obrazy wlane w ekrano-obrazo-interfejsy stają się już nie tylko po deleuziańsku i guatarriańsku haptyczne, ale realnie dotykalne, fizycznie taktylne. Znaczy to, że nie tylko postrzegamy ich jako pełnoprawnych znaków (w pełni naładowanych semiotycznie), ale dodatkowo, fizycznie ich dotykając, informujemy (konstruujemy) nimi, za sprawą semiotyki tego dotyku, świat, wizualnie zarządzamy rzeczywistymi, acz hybrydycznymi bazami danych-atomów. Żywe dane (piksele) reagujące na dotyk tapety, którymi uwidaczniamy pulpity cyfrowych maszyn, czy interaktywne i tworzone w wyniku społecznej kartografii mapy (oraz wszelkie inne interaktywne interfejsy wizualne) to asamblaże łączące wizualne z materialnym, analogowe z digitalnym, wirtualne z realnym, semiotyczne z biologicznym [266].

Wizualne bazy danych, które zrastają się ze swoimi dotychczasowymi interfejsami mieszczą się w centrum krajobrazu postmedialnego. Unieważniają zarówno dotychczasową funkcję i język mediów, jak i regułę terytorium, osłabiają kulturowy dystans między nimi do niemal niepercypowanej, znajdującej się na granicy kultury percepcji różni. Za sprawą taktylnych map-interfejsów terytorium zrasta się ze swoją reprezentacją, przekraczając nawet borgesowsko-baudrillardowskie wyobrażenia o skutkach takiego stanu – terytorium staje się bowiem, śladem mapy, kartograficzną bazą danych, którą daje się prostymi, wizualnymi interfejsami manipulować. Bazodanowa mapa konstruuje terytorium i zarządza nim, a nie tylko je poprzedza [267]. Bruno Latour powiada, że terytorium staje się w ten sposób jedną z przestrzeni ryzyka, raczej mimetyczną a już nie tradycyjnie abstrakcyjną, nawigacyjną {[268]. Kartografia zaś w obliczu tych zmian zmienia się nie tylko na drodze od hierarchicznych narracji do społecznościowych praktyk, ale zbliża się także ku kartografii semantycznej, w której nie chodzi już o obrazowanie i reprezentowanie terytorium naturalnego i cywilizacyjnego, ale jego kulturowe modelowanie, opowiadające/konstruujące świat przez pryzmat różnych, dobieranych w tym celu, kryteriów symbolicznych. To dlatego najbardziej dziś intrygujące nie są już obrazy/mapy odbijające wiedzę o materialnym świecie, nawet te najbardziej doskonałe, ale mapy, które pokazują świat społeczny, kulturowy, symboliczny. Takimi są mapy społecznościowe, w których na topografię miasta nałożona jest wizualizacja najchętniej odwiedzanych w nim miejsc, najciekawszych tras spacerowych czy obszarów, gdzie spotkać można określone grupy ludzi [269].

Innym, skrajnie różniącym się od kognitywistyki, tropem metodologicznym, który warto przyłożyć do obszaru interakcji pomiędzy cyfrowymi maszynami i ich użytkownikami, jest etnometodologia. Doszukuje się ona sensów w ludzkich działaniach bez odwołań uniwersalnych, ani tych biologicznych, ani technologicznych. Na pierwszym miejscu stawia natomiast konkretny kontekst sytuacyjny i kulturowy, w którym wypadł działać człowiekowi i zbiorowościom. Etnometodologia rozumie działania jako kulturowo i środowiskowo uwarunkowaną improwizację wobec zmieniających się okoliczności. Nie ma zatem mowy o uniwersalnych prawdach dotyczących percepcji, myślenia, zachowania – są za to mikrodziałania i kulturowo-środowiskowe ich uwarunkowania, do których zaliczyć należy także technologie, a w szczególności technologie komunikacyjne. Takie unikające generalizacji rozumienie i dyskurs naukowy można w zasadzie określić mianem antyteorii. Oba skrajne stanowiska zdaje się godzić wielowątkowa teoria aktywności, która stara się przyglądać aktywnościom rozumianym jako holistyczne działania podmiotu angażującego w nie psychomotorykę i sferę emocjonalno-racjonalną, osadzonego w konkretnym kontekście kulturowym, technologicznym i społecznym [274].

Różnice w teoretycznych ujęciach dynamicznego rozwoju wizualności w kontakcie z bazami danych i interfejsami taktylnymi przywołałem tu po to, aby wskazać na nierówne prędkości, z jakimi rozwijają się technologie medialne i nasza wiedza nie tylko o nich, ale i o nas samych postawionych wobec cyfrowego świata. Jako cywilizacja nauczyliśmy się tworzyć maszyny sprawniejsze, ciekawsze i mądrzejsze od nas samych.

Rozwijający się design dotarł już jakiś czas temu do granicy, do której za sprawą taktylnych obrazów dociera dziś kultura wizualna w ogóle. Granicą tą, jak pamiętamy, jest kryzys obrazów będących jedynie wizualnymi reprezentacjami. Designerzy idąc tropem zasugerowanym w sztuce przez Duchampa (ku materialności obiektów), a następnie przez emancypację znaków (kultura symulacji) uznali znaki za fizycznie istniejące obiekty, a fizycznie istniejące obiekty za znaki. Z tego przemieszania bierze się popularność designerskich rozwiązań architektonicznych i dekoracyjnych, które często nie spełniają żadnych funkcji poza estetyczną: znako-przedmiotów i przedmioto-znaków. Rozwój tej sfery, w dużej mierze niezależny od bieżącego rozwoju cyfrowej kultury komunikacyjnej, zmierza w kierunku obrazów urzeczywistnionych, oferujących całe spektrum fizycznych doznań, wśród których widzenie, obok dotyku, zapachu, aranżacji przestrzeni, jest tylko jednym z wielu wyzwalanych bodźców. W tym miejscu oba te nurty współczesnej kultury upodabniają się, podobnie jak to miało miejsce w relacjach mapy i terytorium, do siebie i splatają w praktyce codzienności: „designerskich” sprzętów codziennego użytku, „designerskiego” myślenia o modzie i architekturze [276].

Designerska taktylność znaków objawia się, na przykład, w ramach postmedialnych eksperymentów z typografią i znakami pisma, alfabetem. Popularne fonty stają się przedmiotami i przenikają ze stron książek i ekranów komputerów do przestrzeni publicznej, pełniąc wciąż jeszcze rolę tradycyjnych znaków, ale i nową rolę fizycznych obiektów artystycznych poddających się warunkom otoczenia, pogodzie i przechodniom. Matt Michaluk, angielski artysta i designer, z okazji 50 urodzin jednego z najbardziej popularnych krojów XX stulecia, Helvetica, przygotował typograficzny tort. Ciasto miało postać wyrazu Helvetica oczywiście zaprojektowanego fontem Helvetica. Następnie tort został pokrojony na kawałki i zjedzony [277]. Amerykański artysta, Thomas Allen, znany jest natomiast z realizacji projektów, w których wycinane z kolorowych czasopism figury konfrontuje z realnymi przedmiotami: gazetowa postać podtrzymuje rząd przechylających się książek [278]. Te współczesne gry ze znakami to echa idei i działań dla designu „klasycznych”, których pierwowzory odnaleźć można w pismach uznawanych za prekursorów tej dyscypliny autorów, takich jak choćby węgierski projektant, filmowiec, nauczyciel i teoretyk László Moholy-Nagy, który zauroczony fotografią marzył o jej połączeniu z typografią. Swoją wizję powstałego w ten sposób TYPOPHOTO tak sam opisywał:

Skupiłem się na analizie kondycji postmedialnej rozumianej jako nowa sytuacja technologii komunikacyjnych oraz sprzężonych z nimi dyskursów i teorii humanistycznych, które je objaśniają. W takim sprzężeniu upatruję nie tylko klasycznej relacji na linii rzeczywistość i jej teorie, ale przede wszystkim mechanizmu kulturowego sterującego rozwojem cyfrowych i sieciowych ewolucji. Nauka, sztuka i technika zapętliły się w trójstronne kontinuum, które można nazwać „silnikiem” napędzającym zmiany w komunikacyjnym ekosystemie. Jego energetyczna skuteczność zależna jest od ilości „paliwa” dostarczanego przez każdy z podpiętych tu układów. W książce najwięcej miejsca poświęciłem analizom przepływów i emanacji na linii technika-dyskursy-kultura, ale budując argumentację i starając się dla niej odnaleźć właściwe narzędzia pojęciowe wielokrotnie dochodziłem do wniosku, że bez dwóch pozostałych układów zasilających moje analizy pozostają niepełne. Stąd i najważniejsze wnioski, które wynikają z problematycznie sytuacji postmedialnej w przyjęty przeze mnie sposób. Są one następujące:

– analiza kulturowych (symbolicznych) pokładów cyfrowego świata musi być nierozerwalnie powiązana z analizą jego technologicznych uwarunkowań – badanie kultury postmedialnego świata oznacza konieczność paralelnych studiów jego digitalnego języka, który konstytuuje nakładająca się na zjawisko elektryczności poetyka matematyki i matematyczności;

– elektryczność i matematyczność projektu cyfrowego uznaję za najmniej rozpoznane w dyskursach i praktykach kulturowych elementy digitalnego uniwersum – osobno i w relacjach między sobą stanowią one problemy badawcze domagające się pilnego podjęcia i wielowymiarowej analizy;

– studia nad zmieniającym się komunikacyjnym uniwersum są dopiero zapoczątkowaną perspektywą badawczą – już w zauważalny sposób generują, a będą generować w jeszcze większym zakresie, przetasowania dyscyplinarne i fluktuacje metodologiczne w humanistyce. Sądzę, że staną się także, z czasem, przeciwwagą dla klasycznego, mediocentrycznego dyskursu poświęconego mediom analogowym, masowym i linearnym oraz ich kulturze;

– miejsce centralnej dla tradycyjnego dyskursu kategorii medium i mediacji zajmie płynny układ sił pomiędzy kodem (software), bazą danych i interfejsem (hardware). Analizy zdarzeń i form komunikacyjnych w cyfrowym świecie domagają się bowiem nowego modelu analizy i zrekonstruowanego słownika ten model opisującego.

Postmedialny stan komunikacyjnego świata, w którym się znaleźliśmy, należy jednak postrzegać raczej w kategoriach postępującej emancypacji komunikacyjnej niż jako schyłek medialności. Technologie komunikacyjne sterowane społecznie, płynne interfejsy i nawigowalne bazy danych, software’owe reakcje na świat i jego nieustanne kodowanie czynią komunikacji bardziej istotną sferę naszego życia, niż kiedykolwiek nią była epoka mediów i mediacji. Najciekawsze wydaje się to, co dopiero przed nami – to, w co zakodują świat postmedia.