Czytaj książkę oznaczoną tagiem: hardware

Kondycja postmedialna materializuje się na skutek synergii funkcjonujących i rozwijających się paralelnie obszarów kulturowej i komunikacyjnej sceny współczesności. Postmedialność narasta jednocześnie: w sferze techniki, gdzie wspiera się na takich procesach, jak konwergencja, wirtualizacja, obecność software, interfejsów i protokołów; w polu społecznym, gdzie ma miejsce socjalizowanie technologii medialnych wyrywanych systemowi kultury masowej i wynikające z tego procesu sieciowanie, emancypacja użytkowników oraz powstawanie społeczeństwa informacyjnego i sieciowego; oraz w polu antropologicznym, gdzie przekształceniom podlega zbiorowa wyobraźnia komunikacyjna wraz z zakorzenionymi w niej kompetencjami medialnymi i objawiają się nowe postawy i logiki komunikacyjne.

W sferze techniki kondycja postmedialna wyłania się z zaniku autonomicznych form i gramatyk medialnych. W domenie cyfrowej wymazane zostały różnice pomiędzy poszczególnymi mediami epoki analogowej. Wchodząc do cyfrowego świata zostały one pozbawione wielu swoich szczególnych, materialnych i gramatycznych cech, reguł i kształtów – fotografia zanurzona w cyfrowości traci światłoczułą kliszę i papier, dźwięk rozstaje się z taśmami i płytami: najpierw winylowymi, a dziś także i cd. Kino stapia się systematycznie z poetyką gier interaktywnych, prasa staje się hipertekstowa i multimedialna. Ta separacja to konsekwencja gwałtownego w cyfrowości przyspieszenia zjawiska konwergencji mediów. Choć jest ono na stałe wpisane w losy techniki, a kolejne z jej form wchłaniają/naśladują/przekształcają wcześniejsze, to jego cyfrowa postać i prędkość okazały się bezprecedensowo radykalne i definitywne w tym zakresie [6]. W dyskursie teorii nowych mediów i cyberkultury stan ten został rozpoznany jako przejście od fazy mediów do fazy interfejsów, które istniejące media zaadaptowały do cyfrowych i sieciowych okoliczności. W momencie, kiedy wszystkie dotychczasowe media zostały zdigitalizowane, czyli przetłumaczone do postaci ciągów alfabetu cyfrowego kodu, i sprowadzone do postaci baz danych, rozpoczął się ich kulturowy remiks na ogromną skalę.

W domenie cyfrowej historyczne gramatyki mediów obowiązują jednakowe zasady. Wszystkie cyfrowe dane obowiązuje tu równość wobec kodu, fizycznych zasad elektryczności i hardware oraz tłumaczących je kulturze interfejsów. Poddają się one programowaniu, adaptują swoje zasoby do wymogów strukturalnych baz danych i sieciowych protokołów komunikacyjnych, wzajemnej synchronizacji i wymieszania, itd. – stają się po prostu bazami danych, ciągami cyfrowego kodu zer i jedynek, którymi można za pomocą dowolnych algorytmów zarządzać zgodnie z regułami cybernetycznej wiedzy i możliwościami obowiązujących interfejsów użytkowych. W wersji cyfrowej można z mediami zrobić wszystko to, co możliwe jest do pomyślenia i kalkulacji według ogólnie obowiązującego w cyfrowym świecie modelu (sformułowanego przez tradycję matematyki oświeceniowej i wyrażonego dosłownie przez kreatora architektury obliczeniowej współczesnych maszyn cyfrowych cybernetyka (Johna von Neumanna): interfejs wejścia-cyfrowe kalkulacje-interfejs wyjścia. W ten sposób zarówno obraz, jak i utwór muzyczny, fragment tekstu powieści czy film stają się ciągiem zer i jedynek zapisanych w cyfrowych bazach danych, otwartych na różne software’owe i interfejsowe wywołania i działania różnych algorytmów.

Fakt ich rozpoznawalności i możliwości wykorzystywania w codziennym życiu bierze się już tylko z siły dotychczasowych przyzwyczajeń, z kompromisów zawieranych przez kreatywnych, rozumiejących sens zmiany cyfrowej i sieciowej, ludzi nowego medialnego porządku z wymogami dotąd istniejącej kultury masowej z jej analogowymi mediami, linearnymi przyzwyczajeniami i sposobami myślenia. Na obecnym etapie zanikania historycznych gramatyk mediów analogowych cyfrowe interfejsy użytkowe odwołują się do reprezentacji poprzednich gramatyk medialnych i poddają się systematycznemu remiksowi. W konsekwencji dystans pomiędzy kulturą, czyli przestrzenią koordynowaną symbolicznie (matematyka>programowanie>systemy operacyjne), a ujarzmionymi zjawiskami fizycznymi (elektryczność, właściwości materiałów modelowanych w celu uzyskania kontroli nad falami i innymi zjawiskami fizycznymi, takimi jak oporność) wciąż pozostaje na poziomie wystarczającym, aby można było dalej myśleć o medialnej przestrzeni w tradycyjnych, medialnych kategoriach. Stan ten nie zmieni się, dopóki cyfrowe rozwiązania technologiczne, takie jak strona internetowa czy film cyfrowy, nie zostaną zastąpione rozwiązaniami odpowiadającymi w większym stopniu wyzwaniom ducha cyfrowości i sieci niż starającymi się nawiązywać kompromisowy dialog z mediami przeszłości.

Jednocześnie coraz więcej medialnych tekstów i form powstaje w formule cyfrowe dane + interfejs, co oznacza, że już niebawem – zarówno technologicznie, jak i w obrębie wyobraźni kulturowej – możliwe będzie zrównanie atomów i bitów, wykluczenie analogowego pośrednictwa medialnego. Postmedialne okoliczności stworzą kulturowe podłoże dla bezpośredniej manipulacji światem atomów za pomocą bitów, wyemigrujemy z analogowego świata medialnych form i sensów ku pełni cyfrowego zakodowania rzeczywistości [8]. Ślady tego kierunku ewolucji technologii cyfrowych i kultury dostrzec można, na przykład, w rozwijaniu technologii pikselowej. Systematycznie postępuje w tym obszarze zbliżanie się wielkości hardware’owych pikseli do fizycznych wielkości atomu, a także nieustanne poszerzanie zdolności funkcjonalnych pikseli, tak by nie tylko wyświetlały obrazy, ale i umożliwiały nad nimi bezpośrednią, taktylną kontrolę. W rezultacie w przyszłości można spodziewać się cyfrowych zdjęć dających się „zoomować” niemal w nieskończoność w stosunku do poziomu startowego, który wyznacza pole widzenia człowieka i oparta o jego wytyczne kultura wizualna. Piksele z czasem spełnią poetycką obietnicę Google Earth sugerującą bazodanową reprezentację i nawigację po doskonałej mapie planety, by jednocześnie zaoferować algorytmiczne i mechaniczne możliwości manipulacji jej elementami zarówno na poziomie widzenia planety czy galaktyki, jak i w „zbliżeniu” do atomów, neutrin, bozonów i wszelkich ich niewidocznych struktur, jak DNA czy struktura fal – wątek ten rozwinę w ostatniej części książki, kiedy będę analizować cyfrowe losy mapy.

Istnieją dane, programy, które je wywołują i przetwarzają, hardware, który na bazie swoich funkcjonalności te dane kompiluje i interpretuje. Potrzeba wszystkich tych elementów/etapów, aby udało się stworzyć tekst elektroniczny w jego dzisiejszej postaci. […] Z tego powodu lepiej interpretować go jako proces, a nie jako obiekt [18].

Takie wrażenie na temat medialnej nieprzejrzystości mają nie tylko sami medioznawcy. Bruno Latour, jeden z najbardziej uznanych diagnostów współczesności, rozważając przesunięcie od obiektów do procesów technologicznych zauważa, że ten ontologiczny zwrot prowadzi do wykształcenia się fantomowego oblicza nowych mediów w stosunku do sfery społecznej i kultury [19]. Obwody scalone, przełączniki, bramki, kable, protokoły, różne poziomy software, wyświetlacze i wreszcie pola magnetyczne i inne zjawiska związane z elektrycznością to przeplatające się nawzajem elementy tej fantomowej ontologii, z którą na co dzień, mniej lub bardziej świadomie, mamy do czynienia. W rezultacie postmedialny charakter zdematrializowanej informacji skutkuje podwójnie. Przedmiot przekształca się w obiekt medialnej reprezentacji. Zyskując taki status przekracza barierę tradycyjnie pojętej materialności, staje się swoim własnym odbiciem, abstrakcyjnym (wirtualnym) przedstawieniem i zapośredniczeniem. Skutek drugi bierze się z faktu dematerializacji transmitującego medium: skłonni przypisywać wartość materialną postrzeganym dzięki mediom przedmiotom/obiektom dematerializujemy w rezultacie samo medium. Medium, które działa niepostrzeżenie, które jest niewidzialne okazuje się pozbawione wymiaru materialności, kończy swój dotychczasowy żywot w materialnym świecie znaków, przedmiotów i zdarzeń [20].

Kilka lat temu Lev Manovich, chyba najbardziej popularny z zajmujących się nowymi mediami badaczy i animatorów, ogłosił, że nadeszła epoka dominacji soft­ware w medialnym świecie i daleko poza nim, na terytorium szeroko rozumianej kultury. Software, powiada, przejmuje kontrolę nad materialnym wymiarem medialnej rzeczywistości, staje się – wraz z interfejsami – kulturową powłoką hard­ware i to jemu powinny się bez reszty oddać współczesne studia nad mediami, przekształcając się z media studiessoftware studies [31]. Matthew Fuller, jeden z inicjatorów kulturowych badań nad software i twórca kategorii software studies, definiując kulturę software, mówi o łączących się w niej różnych, nieposiadających ekwiwalentu w kulturze mediów masowych, warstwach cyfrowego świata. Angielski medioznawca wskazuje na trzy zasadnicze tropy kulturowe porządkujące obszar software. Są nimi: critical software, social software oraz speculative software. Wszystkim trzem przyjrzę się teraz bliżej.

Software krytyczny spełnia funkcję nadzoru nad software w ogóle. To oprogramowanie, które śledzi poczynania software, wyświetla jego kulturowe mechanizmy i obnaża polityki kodu, angażując użytkowników i programistów w krytykę cyfrowości, czyli odnajdywanie w niej wszelkich śladów i kodów normalizujących. Dzięki takiemu wykorzystaniu software cyberkultura podlega nieustannemu prześwietlaniu i ma szansę opierać się technopolowym zapędom. Przykładem takiego software jest wersja znanej gry Wolfstein, zrealizowana przez artystyczny kolektyw JODI. Cyfrowa „scenografia” tej gry w wersji krytycznej została zastąpiona wizualizacjami fragmentów cyfrowego kodu, które po przetworzeniu stwarzają scenerię gry [32].

To wszystko czyni z software przedmiot niejasny i domagający się nieustannej uwagi poznawczej. Trudno się dziwić, że wielu współczesnych medioznawców gotowych jest wskazywać jego centralną pozycję w cyfrowym świecie. Nie brakuje jednak i głosów skrajnie przeciwnych wobec tego typu deklaracji. Friedrich Kittler, niemiecki medioznawca, stwierdza kategorycznie: there is no software! Wszystko, argumentuje, co przyjęło się oznaczać tym mianem, da się sprowadzić do postaci najprostszych, powtarzalnych czynności wykonywanych przez maszyny cyfrowe: kontroli zmian napięcia w elementach struktury hardware. Rozbudowane manipulacje kodu, poetyka software to w gruncie rzeczy jedynie regulacje dotyczące milionów dziejących się jednocześnie w cyfrowym urządzeniu stanów napięcia elektrycznego, oferujących jedynie onoff. Kittler rozumie software analogicznie do dziewiętnastowiecznych, w duchu będących konsekwencją kartezjańskiego dualizmu, wyobrażeń na temat pracy mózgu – miała ona polegać na skomplikowanej mechanice wymian napięć elektrycznych pomiędzy poszczególnymi ośrodkami. W identyczny sposób na fundamentalnym poziomie technologicznym działa także software: zera i jedynki kodu zmuszają hardware – procesory, czipy, macierze, do reagowania na obecność napięcia elektrycznego lub jego chwilowe braki. Poziom ten jednak w praktyce codziennego użycia komputerów jest dla użytkowników niedostępny ze względu na jego polityczne i strategiczne znaczenie dla bezpieczeństwa samej maszyny i ochrony jej struktury przed przeprogramowaniem (w ten sposób chroni ją na przykład oprogramowanie BIOS; bezpośredni asembler i emulator, który zamienia instrukcje software na czynności mechaniczne hardware). Softwarem można by nazwać jedynie miliardy nakładek rozpisanych w gramatyce cyfrowego kodu, które mają wartość użytkową, co znaczy, że są to programy, aplikacje, elementy interfejsu, itd. Uobecniają one jednak „software’ową wieżę Babel”, bowiem spora ilość języków programowania, formuł łączenia się ich ze sobą i możliwych form współpracy z asemblerami oraz wszelkie pozostałe uwarunkowania systemowe powodują, że pierwotny język informowania elektryczności o jej przebiegu zostaje nimi zupełnie przesłonięty. Staje się przez to czymś na podobieństwo archaicznych języków, których używać są w stanie już tylko pasjonaci i specjaliści, które jednak na stałe wpisane są w struktury nowych – wniosły do nich reguły gramatyczne, semantyczne, tak jak łacina do współczesnych języków cywilizacji zachodniej. Dopiero dostęp do fundamentalnego, ukrytego poziomu pozwala na prawdziwą władzę nad technologią maszyny obliczeniowej, która zaczyna się w momencie, kiedy możliwa jest kontrola nad fizyczną pracą hardware, bezpośrednia kontrola płynącej w jego elementach elektryczności [37].

Kolejną postmedialną rekonstrukcją współczesnego świata, która dokonuje się w obszarze technologicznym, jest przejście od mediów stacjonarnych do mediów mobilnych. Ta zmiana, którą teoretycy zaczynają powoli tagować mianem „zwrotu mobilnościowego” (mobile turn), dotyczy deregulacji technologicznej struktury ekosystemu medialnego, powielającej dotąd stabilnie usytuowaną geograficznie, kulturowo i społecznie hierarchię bytów. Dotychczasowe hierarchiczne doświadczenie mediów było fizycznie związane z konkretnym miejscem, czasem i technologią – niech emblematem tego stanu rzeczy będzie klasyczna sytuacja telewizji, której fale nadawane z centrali (zarówno technologicznej jak i merytorycznej) pokrywają swoim zasięgiem obszar wyznaczany przez granice geograficzne, polityczne i ekonomiczne, zaś sam odbiornik telewizyjny uzależniony jest od źródła energii elektrycznej na zasadzie „przywiązanego” do gniazdka kabla. Mobilnościowa deregulacja tego stanu rzeczy powoduje natomiast, że zdolne do tymczasowego odłączenia od sieci dystrybucji energii potrzebnej do zasilania urządzenia cyfrowe mogą funkcjonować, przynajmniej przez jakiś czas, gdziekolwiek je ze sobą ich użytkownik zabierze. Dodatkowo uwolnione z ustawionej na „sztywno” infrastruktury przesyłowej interfejsy nic nie tracą ze swojego sieciowego potencjału, bowiem sieci wraz z nimi rozproszyły się w fizycznej przestrzeni – dostęp do nich możliwy jest dzięki różnym protokołom (wi-fi, gps, bezprzewodowe i przewodowe sieci internetowe) i standardom użytkowym/interfejsom (tablet, nawigacja, laptop) oraz protokołom komunikacyjnym, dla których jedynie jedną w wielu dostępnych opcji jest telewizyjna sytuacja jeden-do-wielu bezzwrotnie [38].

Płynnie i przygodnie usytuowane w ten sposób w postgeograficznym i postpolitycznym krajobrazie media mobilne pozwalają swoim użytkownikom na permanentny kontakt z równie płynną i przygodną wirtualną przestrzenią danych i sieci, a jednocześnie nie wchodzą w konflikt z warunkami tradycyjnego bycia i życia w przestrzeni fizycznej. W rezultacie przestrzeń kulturowa, powstająca z nakładania się na siebie w doświadczeniu zanurzonego w obie człowieka staje się hybrydą. Zacierają się w niej dystynkcje pomiędzy niegdyś rozdzielnymi stanami materialności i cyfrowości, atomy przenikają się z bitami i/lub zamieniają miejscami. Za sprawą upłynnienia infrastruktury medialnej i wejścia z nią w przestrzeń fizyczną staje się ona w związku z tym również ekstrapolacją przestrzeni społecznej powstającej w mediach społecznościowych. Doskonałym przykładem takiej hybrydycznej koegzystencji elementu wirtualnego, sieciowego i materialnego są wszelkie serwisy odnoszące się do mechanizmów geolokacji i cyfrowych map – takie jak googlemaps, forsquare czy facebook. Nie sposób obecnie rozsądzić, która z warstw kompozytowej przestrzeni społecznej ma prymarne znaczenie, a która jest wobec tej ważniejszej wtórna. Wydarzenia inspirowane, konceptualizowane i częściowo aranżowane w sieciach elektronicznych znajdują kontynuację w materialnych rejonach przestrzeni publicznej. Dzieje się także na odwrót, „materialne” działania zyskują drugie, poszerzone życie w przestrzeni portali społecznościowych, na forach i serwisach publikujących filmy, fotografie i notatki. Jak konkludują badacze mediów mobilnych: hybrydyczna przestrzeń ustanowiona za pośrednictwem tych technologii jest przestrzenią połączeń, przepływów i transferów, mobilności i nowego typu sytuacji społecznych [39]. Nietrudno o inne przykłady dowodzące postmedialnego zanikania granic pomiędzy działaniem w przestrzeni atomów i w przestrzeni bitów. Jednym z nich jest nowy typ pracy, która staje się niezależna od fizycznego miejsca (tego dowodził już Alvin Toffler w swoich analizach poświęconych zjawisku telepracy), ale i nie posiada tradycyjnej struktury, w której pracodawca zleca zatrudnionemu jakieś zadania do wykonania i nadzoruje go w trakcie ich wykonywania. Praca mobilna (crowdsourcing) polega na udostępnianiu zadań do wykonania na zasadzie bazy prostych czynności, do których mogą zalogować się chętni do ich wykonania. Pracodawca może rozłożyć swoje potrzeby na dziesiątki czy setki drobnych czynności do wykonania i cierpliwie poczekać, aż zostaną zrealizowane pod nadzorem specjalnych aplikacji dystrybuujących zlecenia, nadzorujących ich wykonanie itd.. Na razie działania tego typu dotyczyć mogą jedynie prac analitycznych, związanych z przetwarzaniem informacji i ich pozyskiwaniem, jednak już dzisiaj takie modele zatrudniania i wykonywania pracy skutecznie zastępują tradycyjne przedsiębiorstwa i „materialne” reguły gospodarki postfordowskiej [40].

Nie sądzę jednak, aby społeczną „dzikość” i „świeżość” cyberświata można było wyjaśnić jedynie przez niedojrzałość społeczną jego mieszkańców i kierujące nimi, jak tego chce Pasquinelli, niskie pobudki i instynkty. Medialna rewolucja społeczna zapoczątkowana wraz z kulturową trajektorią technologii cyfrowych to projekt dopiero rozpoczęty, jeszcze młodszy niż sam cyfrowy ekosystem. Jest obecnie w fazie, w jakiej rewolucje zazwyczaj znajdują się na początku swojego impaktu. Widać zaledwie pierwsze nowo ustanawiane konfiguracje i przesunięcia, takie jak np. nasilające się „szabrowanie” struktury i „majątku” starego systemu: taki wymiar ma w dużej mierze piractwo. Z narastającą siłą objawiają się inne podobne partyzanckie strategie wywrotowe; tak działają spamerzy, hakerzy, niektórzy twórcy hardware (doi-it-yourself hardware), środowiska skupione wokół portalu wikileaks.org, które dzięki cyfrowym narzędziom i sieciowym formom komunikacji obnażają niedoskonałości istniejącego systemu, prześwietlając jego ekonomiczne, polityczne i militarne zasoby. Wreszcie coraz bardziej nerwowo czują się i zachowują w obronie swoich dotychczasowych pozycji także beneficjenci „analogowego” systemu medialnego, którzy wciąż jeszcze liczą na to, że to, co rewolucją bywa w ich odczuciu jedynie naiwnie i na wyrost nazywane, okaże się w rezultacie jedynie niewielką korektą zastanego stanu rzeczy. Tak to przecież zaplanowali inspirując i forsując mitologię o medialnej kulturze 2.0.

Medialna wyobraźnia jest dla komunikacyjnego i technologicznego uniwersum odpowiednikiem tego, co w nauce określa się mianem teorii. Teorie są modelami zdarzeń, interpretacjami rzeczywistości i jej projekcjami poszukującymi uniwersalnych prawd i kształtów. Dla nowoczesnej nauki i tworzonej przez nią wiedzy teorie okazują się fundamentem – nieraz wyprzedzają rzeczywistość, którą nauka tradycyjnie zwykła analizować za pomocą eksperymentów, obserwacji i doświadczeń. W nowoczesności, wraz z rozwojem technologii opartych na elektryczności (w tym także i mediów, bowiem historia współczesnych mediów i historia elektryczności są nierozłączne – zagadnieniu temu poświęcę część kolejnego rozdziału), tradycyjna kolej rzeczy została odwrócona. Stało się tak po raz pierwszy za sprawą szkockiego fizyka i matematyka Jamesa Clerka Maxwella, który w XIX wieku przewidział/matematycznie udowodnił istnienie fal elektromagnetycznych. Potrzeba było kilkunastu lat, aby istnienie tego, znanego jedynie w teorii, zjawiska eksperymentalnie potwierdzić. Udało się to dopiero Heinrichowi Hertzowi [57]. W naukach ścisłych od tego czasu teoretyczne rozpoznania świata i praktyczne działania tłumaczące jego tajemnice stały się równoprawnymi, uzupełniającymi się, ale i wzajemnie ze sobą konkurującymi metodami. Podobny los spotkał słynne równania Einsteina, które, prawdziwe w teorii już za czasów jego życia, okazały się nieweryfikowalne w praktyce jeszcze przez długi czas. Dopiero Kurt Gödel zweryfikował ich prawdziwość w odniesieniu do praktyki. W domenie cyfrowej empiryczna praktyka odpowiadałaby ontycznej logice hardware, zaś teoria – realizowana w postaci logiki działań na cyfrowych symbolach, czyli matematyki – warstwie software. Będę wracał jeszcze do tego specyficznego podziału na teorię i praktykę zarówno w nauce, jak i w obszarze technologii medialnych, ich splot i różnica pomiędzy nimi to jeden z najważniejszych czynników definiujących kulturowe kody technologii cyfrowych i regulujących rolę i kształt medialnej wyobraźni.

W tajemniczym co do formy i odważnym merytorycznie tomie Book of Imaginary Media jego autorzy, teoretycy mediów, skupili się na poszukiwaniu medialnych konstrukcji i gramatyk mediów różnych od tych, które dotąd udało się naszej cywilizacji wypracować. Są przekonani, że bogata historia form medialnych była, jest i pozostanie niepełna – podobnie jak społeczności, tak i media są zawsze jedynie w części realne/ukończone, a w dużej części wyobrażone/imaginacyjne. Nie brak w pracy świadectw medialnych konfliktów, które, wielokroć przypadkowo, pozycjonowały w kulturze technologie mniej ciekawe i obiecujące kosztem tych doskonalszych (np. konflikt VHS kontra BETA)[65]. Ich zdaniem możliwa jest w konsekwencji alternatywna historia mediów, a zatem i ich krytyczna, transtechnologiczna i transmedialna archeologia. Zadaniem jej byłoby odsłanianie alternatywnych medialnych kultur zarówno tych opartych na istniejących formach technologicznych, jak i mediów niezmaterializowanych kulturowo, które zniknęły w mrokach przeszłości, zanim jeszcze na dobre wypłynęły na powierzchnię komunikacyjnej historii. Technologiczny świat mediów poddany rządom społecznej wyobraźni jawi się w analizach tego typu jako konstrukcja płynna, której kształty i losy dyktują nie tylko same technologie, odgórnie przypisane do nich polityki i estetyki, ale także społeczno-kulturowe odczytania i wynikające z nich reguły mocujące te media w systemie społecznym, ostatecznie formatujące ich oblicza i trajektorie.

W sytuacji postmedialnej, powtórzę, wszystkie potencjalne media są możliwe i dostępne za sprawą wywołania ich form w środowisku cyfrowym, tj. programistycznego odwzorowania czy zaprojektowania ich języka na bazie nieskończonych możliwości kombinatorycznych kodu zer i jedynek, oraz przypisania tak powstałym formom software’owym odpowiednich interfejsów wywoławczych, ubrania ich w zrozumiałe, swojskie szaty użytkowe. To kolejny element medialnego sprzężenia technologicznych form mediów z kulturową wyobraźnią. W ekosystemie cyfrowym wyobraźnia staje się jednym z niewielu metazasobów (zasobników) kulturowych gotowych do natychmiastowego wykorzystania i programowania zarówno w skali indywidualnej, jak i zbiorowej. To magazyn kulturowej pamięci. Kształt i szybkość/sens działania mediów cyfrowych pozostają w coraz większym stopniu funkcją sprzężenia z tą wyobraźnią.

Pierwsza ze zmian, której należy dokonać na drodze ku nowej komputeryzacji – sugeruje amerykański wizjoner – to dekonstrukcja tej maszynocentrycznej fazy. Ma ona polegać na przesunięciu inżynierskiego, technokratycznego punktu ciężkości w rozwoju cybernetycznego świata, opierającego się wyłącznie na „racjonalnych” parametrach, w kierunku potencjału człowieka. Nowa komputeryzacja winna odwoływać się do logiki ich docelowych użytkowników, ich wrażliwości, potrzeb, wartości, zdolności i ograniczeń. Druga, paralelna, transformacja miałaby polegać na przejściu od maszynocentrycznych czynności automatycznych do skupionych na użytkowniku modeli dostarczania usług i zasobów – to wizja tzw. universal usability, czyli uniwersalnej użyteczności cyfrowych maszyn. Na potrzeby tego porządku pojawią się już niebawem komputery kwantowe, które zastąpią komputery elektroniczne i dotychczasowe kulturowe kody cyfrowości. W miejsce modelu: 1 plik, 1 odbiorca, 1 przestrzeń, 1 czas pojawi się alternatywa w postaci: x plików, x odbiorców, x przestrzeni i x czasów. Każdy, wszędzie, o każdej porze – oto formuła przyszłości cyfrowej, w której dotychczasowy user zyskuje zdolność do permanentnego zanurzenia w cyfrowych sieciach. Użytkownik przyszłości staje się interfejsem pomiędzy sztucznym światem wirtualnym i realnym. Tym samym, za sprawą usera, światy wirtualny i realny będą się ze sobą przeplatać na tysiące różnych sposobów i będą od siebie nierozerwalnie zależne, a cyfrowe technologie z opartych na elektronach ewoluują do form opartych na fotonach.

Postrzeganie postmedialnych okoliczności i doświadczeń w duchu renesansowym wypada zbalansować skrajnie przeciwną tendencją, której wpływ na kształt współczesnego dyskursu humanistyki jest znacznie bardziej uchwytny i zauważalny. Ogniskuje się ona wokół sfery biologicznej i stara się dyskursywnie poszerzyć rozważania na temat człowieka i kultury o obszar biologii, genetyki i ekologii. Chodzi o wywołany równolegle z pojawieniem się technologii cyfrowych, za sprawą odkrycia DNA i badań jego struktury/właściwości, dyskurs poświęcony ontycznej naturze życia i biologicznej, genetycznej charakterystyce człowieka jako gatunku oraz naukowemu definiowaniu życia. W rezultacie coraz większej popularności rozważań o świecie, człowieku i kulturze, dokonujących się w kontekście biologicznej natury życia, wykształcił się dyskurs posthumanizmu (inaczej nazywanego również transhumanizmem, choć to określenie odnosi się bardziej do możliwości technologicznego poszerzania definicji organizmu i jego zdolności [83]). Wraz z nim pojawiły się takie kategorie, jak biomedia, a semiocentryczny (uznający kulturę za komunikację) i cybernetyczny (uznający za komunikację wymianę napięć elektrycznych) model komunikacji uzupełniono o dyskursywne (w polu sciences) konceptualizacje poświęcone problematyce komunikacji genetycznej oraz zachodzącej pomiędzy ludźmi na poziomie niekulturowym (feromony, fale, zapachy), a także komunikacji transgatunkowej: pomiędzy ludźmi a innymi organizmami żywymi (DNA uznany został za kod – do konsekwencji tej decyzji wrócę w kolejnym rozdziale) i wreszcie pomiędzy nimi samymi. Jednocześnie twórców technologii cyfrowych niemal do białości rozpalała wizja sztucznej inteligencji, czyli możliwości stworzenia komputerowych systemów zdolnych do naśladowania ludzkiego myślenia, jego usprawnienie i uniezależnienie, w konsekwencji, od funkcjonowania mózgu, organizmu i człowieka. Systemy te powstać mają jako efekt zaawansowanych badań nad poznaniem ludzkiego genomu oraz tworzenia kognitywistycznych i behawioralnych modeli działania ludzkiego mózgu i systemu nerwowego w ogóle. Zbliżenie projektu cyfrowego z dokonaniami i wiedzą z zakresu biologii zaowocowało syntetycznymi teoriami ojców-założycieli cybernetycznego świata: Turinga, Wienera i wielu innych postępowych cybernetyków.

Sięgnijmy teraz do propozycji teoretycznych tego dyskursu. Definicję podstaw posthumanizmu oferuje na przykład teoretyczka mediów Katherine Hayles w książce How We Became Posthuman z roku 1999. Autorka wskazuje na cztery założenia, na których wspiera się ten dyskurs. Po pierwsze, sygnały komunikacyjne postrzega on jako bardziej istotne od swoich materialnych nośników, w tym także ludzkiego ciała i jego sensorium. Pojedyncze ich uosobienia to tylko epizody w historycznej logice komunikacji kodu genetycznego. Po drugie, posthumanizm rozumie świadomość inaczej, niż to ma miejsce w tradycji kultury zachodniej, dla której jest ona początkiem i centrum życia ludzkiego. W dyskursie posthumanizmu jest ona raczej epifenomenem, jednym z wtórnych elementów, które składają się na całokształt podmiotu i jego kultury, natomiast niematerialny duch w niej nie istnieje. Po trzecie, posthumaniści postrzegają ciało jako pierwotną protezę, którą z biegiem ewolucji człowiek oswoił i nauczył się w ograniczonym stopniu wykorzystywać. Nic nie stoi na przeszkodzie, aby uzupełniać/poszerzać jej możliwości za pomocą innych stworzonych przez ludzki gatunek protez, głównie tych techologicznych. Czwarte założenie posthumanizmu to przekonanie, iż egzystencję da się osadzić wewnątrz maszyn cyfrowych. Dla ludzkiej rozumności i duchowości nie powinno stanowić problemu wyrażanie siebie za ich pośrednictwem. Nie ma w konsekwencji znaczących różnic pomiędzy egzystencją człowieka w biologicznym ciele oraz w domenie cyfrowej, jako projektu cyborgicznej inteligencji. Zamiast poszukiwać i analizować różnice pomiędzy człowiekiem a robotem, materią a kodem, cielesnością a symulacją komputerową, należy skupić się na odnajdywaniu podobieństw pomiędzy nimi – oto przewodnie hasło posthumanizmu [84].

Jeszcze inny tag, który od niedawna funkcjonuje w cyberkulturowym dyskursie, wskazuje na potencjał nowych technologii w zakresie redefiniowania znaczenia i postaci życia we współczesnej kulturze popularnej. Tym terminem jest dopełnienie ontycznego dualizmu software/hardware o element wetware lub mindware. Oba wywodzą się z dyskursu cyberpunkowego i futurystycznego i wskazują na pomijany/lekceważony dotąd w projekcie cyfrowym element ludzki, zarówno w sensie biologicznym, kognitywistycznym jak i duchowym. Posługujący się nim używają go, aby zrównoważyć znaczenie technologii cyfrowych, zmiękczyć ich twardą, technologiczną siłę elementami wrażliwości ludzkiej i biologią ludzkiego organizmu. Wetware to kategoria bio-hakerów, czyli społeczności, która za pomocą rozwiązań technologicznych testuje i weryfikuje możliwości ludzkiego organizmu i poszukuje technicznych rozwiązań mających ulepszyć istotę człowieka i przenieść ją w nowy wymiar kulturowy i biologiczny [94]. Jak widać biomedia są także przestrzenią strategii hakingu, które przecież dla projektu cyfrowego mają zasadnicze znaczenie. Mindware to zaś eksperymentalne pojęcie, za którego pomocą badacze, artyści i animatorzy kultury w ramach projektu Mindware. Technologie dialogu[95] starali się objaśniać sprzężenie zwrotne pomiędzy maszynami obliczeniowymi i człowiekiem, ich użytkownikiem. To sprzężenie ma również charakter biotechnologiczny, ale dotyczy przede wszystkim wyobraźni kulturowej i medialnej. Osadzona wewnątrz projektu cyfrowego wyobraźnia zaczyna na niego reagować, przetwarzając cyberkulturowe mitologie, kształty i struktury. W ten sposób konstruowany jest język, którym mówimy w cyfrowym świecie, stąd bierze się przekładanie technologicznym ram na kulturowe oblicza życia – często mówimy o mózgu jako jednostce centralnej, dysku twardym, itd. Jednocześnie wraz z impetem technologii cyfrowych i sieci powstaje zapotrzebowanie na odpowiednie mechanizmy i struktury poznawcze, percepcyjne, logiczne, itd., których zadaniem ma być oswajanie technologii cyfrowych dla ich użytkownika i dla kultury, podporządkowywanie ich już dostępnym mentalnym wzorcom i regułom. Temat ten sytuuje się na granicy kultury i biologii, percepcji i komunikacji, zarówno w obszarze działań komunikacyjnych jak i towarzyszących im refleksji i dyskursów. Dotyka także kategorii miejsca i przestrzeni – można by tu jedynie wskazać na postmedialny charakter trzeciej przestrzeni (kategoria autorstwa Homi Bhabha) [96].

Cyfrowy kod to zjawisko fundujące hybrydyczne stany. Jego specyfika bierze się z technokulturowego sprzężenia pomiędzy jednym z najbardziej niezwykłych, wciąż jeszcze nie do końca rozpoznanych zjawisk natury, jakim jest elektryczność, oraz esencją wiedzy naukowej, zakodowanej w postaci praw matematyki. Dzięki pośredniczeniu pomiędzy tymi dwoma budulcami współczesnych mediacji możliwe było pomyślenie i zrealizowanie projektu cyfrowego, który należy uznać za kontynuację ewolucji wiedzy i nauki oraz rozwoju technologicznego. To dzięki takiemu układowi sił i biegowi wydarzeń współcześni medioznawcy coraz chętniej i z coraz większym przekonaniem formułują tezy o mediacjach i kulturze poddanych software, wchłoniętych za jego pośrednictwem w cyfrową rzeczywistość. Hybrydyczne własności i kluczowa rola kodu w cyfrowym uniwersum owocują stapianiem się, konwergencją i płynnością medialnych form i przekładają się na ich software’owy egalitaryzm. Cyfrowy kod funkcjonuje w konsekwencji jako uniwersalny język cyfrowego świata, a wiele wskazuje także na to, że systematycznie staje się uniwersalnym, wchłaniającym wszystkie wcześniejsze i alternatywne, kodem kultury.

Moje rozważania na temat kodu, elektryczności, matematyczności i software poprowadzę w trzech kierunkach. Najpierw, w dwóch częściach, zajmę się samym kodem badając jego hybrydyczna naturę, w której spajają się zjawiska naturalne (fizyczne) zwane ogólnie elektrycznością, oraz prawa logiczne (matematyczne), za sprawą których kultura ujarzmiła i podporządkowała sobie elektryczność. W trzeciej części tego rozdziału przyjrzę się obliczom kodu, który regulując technologiczną materię pozwala nam w kulturze ją formować i komunikować się z nią i za jej pośrednictwem – będzie to wejście na terytorium software.

Przejdźmy teraz od tych ogólnych rozważań w zakresie rozumienia matematyczności, liczb i matematyki do teorii cybernetycznych, czyli ich najbardziej współczesnych, a jednocześnie konstytuujących bezpośrednie założenia projektu cyfrowego, postaci. Warren Weaver w fundamentalnej dla rozwoju cybernetyki pracy, popularyzującej matematyczną teorię informacji Claude’a Shannona, zatytułowanej Recent Contributions to the Mathematical Theory of Communication, zestawiał ją z fundamentalną dla semiotycznej, linguacentrycznej wizji kultury pracą Course in General Linguistics Ferdinanda de Saussure’a, będącą, dla odmiany, powszechnie uznanym klasycznym wprowadzeniem do językoznawstwa strukturalnego i semiotyki kultury. Zestawienie to ujawniło daleko idące różnice w rozumieniu komunikacji pomiędzy oboma podejściami. Semiotyczne jej definiowanie uwzględniało wiele czynników, które z cybernetycznego punktu widzenia nie miały żadnego znaczenia. Dla de Saussure’a, a także dla całej tradycji badań językoznawczych, a potem, po zwrocie językowym, dla humanistyki i nauk społecznych w ogóle kod (język) osadzony jest i działa przede wszystkim w określonym kontekście, oddziałują na niego znaczenia kulturowe i społeczne, składają się nań langueparole. Tak definiowany kod istnieje jedynie przez odniesienie do innych kodów i znaków, a realizowane za jego pomocą zdarzenia komunikacyjne zawsze pozostają w kulturowym sprzężeniu z wcześniejszymi, równoległymi i przyszłymi podobnymi jego emanacjami. Ważne są tu takie niuanse, jak nastawienie odbiorcy i nadawcy, wieloznaczność znaczeń przypisanych znakom czy fizyczny kontekst zdarzenia komunikacyjnego. Dla cybernetyków liczy się natomiast możliwie bezstratne przesłanie matematycznie zakodowanej informacji z nadajnika do odbiornika, tak aby w tej transmisji przeszkadzało jak najmniej strat (szumów, błędów) i aby miała ona jak najbardziej efektywny technologicznie (elektrycznie) wymiar. W teorii komunikacji Shannona wszelkie aspekty semantyczne związane z przepływem informacji są bez znaczenia – nie mają żadnego wpływu na proces komunikacji. Jak dosadnie stwierdza: semantyczne sensy komunikacji są bez znaczenia dla jej technologicznych form [107]. Informacja ma dla niego jedynie znaczenie wymierne matematycznie: określona ilość bajtów stratnie, lub bezstratnie (straty są mierzone w liczbach), jest komunikowana przez określony kanał komunikacyjny. W tym sensie cybernetyki nie interesuje i interesować nie może, co i w jakim celu jest komunikowane, jak również w jakich okolicznościach komunikat powstał i jak został zinterpretowany, ani też co się dzieje w jego kulturowym otoczeniu. Interesuje ją natomiast możliwie najbardziej dokładne (bezstratne i niezaszumione) przekazywanie sygnału, czyli impulsów elektrycznych, pomiędzy nadajnikiem i odbiornikiem [108].

Na bazie tej ogólnej teorii cybernetycznego rozumienia komunikacji wspierają się wszelkie kolejne działania i idee wpisane w rozwój projektu cyfrowego. Szczególne znaczenie dla ich rozwijania i implementacji mają idee i dokonania Alana Turinga i Johna von Neumanna. Ci dwaj ojcowie-założyciele cyfrowości teoretyczne koncepty adaptowali do funkcjonalności maszyn obliczeniowych, tworząc w ten sposób prototypy współczesnych komputerów. Alan Turing to brytyjski matematyk i cybernetyk, twórca koncepcji uniwersalnej maszyny programowalnej. Uczony skonstruował najpierw formalne zasady logiki obliczeniowej, formułując je w taki sposób, aby wykonująca je następnie maszyna obliczeniowa zdolna była do wykorzystywania ogólnie znanych zasad matematyki wobec różnych dostarczonych na wejściu danych cyfrowych. Miała ona w oparciu o dostarczone algorytmy kalkulować wartości różnych zbiorów danych. Turing, podobnie jak jemu współcześni, nie mieli dzisiejszej wiedzy o sposobach działania ludzkiej pamięci i mózgu, dlatego wyobraził sobie je, a za nimi także i swoją maszynę, jako papierową wstęgę, na której zapisane byłyby stosowne informacje i którą maszyna mogłaby czytać. Jak to trafnie określił historyk nauki George Dyson – na wyobrażonej przez Turinga taśmie znalazłyby się zarówno liczby, które symbolizują samą rzeczywistość (numbers that mean things), jak i wartości, które rzeczywistość fizycznie konstruują (numbers that do things) [109]. W przestrzeni imaginacji technologicznej powstał w ten sposób koncept maszyny programowalnej, nazwanej później maszyną Turinga. W artykule z roku 1936 Turing dowodził, że taka maszyna jest w stanie rozwiązać dowolny problem, który da się sprowadzić do postaci sekwencji działań matematycznych. Dowodził również, że maszyna tego typu na bazie prowadzonych obliczeń byłaby w stanie stymulować inne maszyny do działania według matematycznych instrukcji [110], co oznacza, że przewidział ekwiwalencję i wymienność pomiędzy uniwersalnymi maszynami obliczeniowymi. Wszystkie one okazują się równe wobec otrzymanego oprogramowania i podawanych za jego pomocą ciągów danych – mogą być szybsze, bardziej pojemne, ale ich „rozumienie” cyfr jest – na tym etapie rozwoju technologii cyfrowych – niezmienne. Podlegają one tej samej zasadzie, której sens wytyczył kształt biegu technologicznej ewolucji – rzeczywistą przewagę i potencjał faktycznej zmiany osiągnąć można w tych materiach jedynie na poziomie kodu. W taki oto sposób matematyka po raz pierwszy, po wielu wcześniejszych, mechanicznych próbach, tak bezpośrednio, w postaci algorytmów spreparowanych do postaci mechanicznych/elektrycznych instrukcji wykonawczych, została usytuowana w maszynach, stając się konstytucją ich działania.

Kilka lat później innemu matematykowi i cybernetykowi, Johnowi von Neumannowi, udało się urzeczywistnić wizję Turinga w postaci konkretnych rozwiązań technologicznych. Von Neumann obmyślił architekturę obliczeniowego jądra systemu cyfrowego, które przetwarzało jednocześnie dane proceduralne (algorytmy) i dane do analizy. Rozwiązania zaproponowane przez inżyniera nazywa się dzisiaj architekturą von Neumanna. Także i współcześnie stanowią one rdzeń funkcjonalny każdego ze znanych procesorów, procesów i układów elektronicznych przetwarzających elektrycznie cyfrowe dane. W matematycznym sensie von Neumann po prostu wcielił w życie koncept Turinga, udowadniając, że za pomocą matematyki można nie tylko odczytać konstrukcję rzeczywistości, ale i próbować ją cyfrowo/elektrycznie konstruować.

John Cayley, amerykański badacz tekstualności i poeta, ma jednak odmienne zdanie na temat tekstualności i piśmienności cyfrowego kodu. Uważa takie rozpoznanie za jedną z wielu cybernetycznych utopii charakterystycznych dla wczesnych faz zjawisk kulturowych wywołanych przez pojawienie się maszyn obliczeniowych w kulturze. Format kodu został bezpodstawnie uznany, również w dyskursie medioznawczym, za element nadający się do czytania, jego wartości za posiadające semantykę znaki, a matematyczne algorytmy i zbiory reguł w nich zakodowane za tekst, który podlega zasadom pisania i czytania charakterystycznym dla świata pisma. Zamiast tego postrzega ciągi cyfrowego kodu jako paratekst, który jest nowym formatem medialnym – interfejsem, noszącym w sobie jedynie echa piśmienności i tekstualności. Te ostatnie poddane zostały bowiem daleko idącej formalizacji i dekontekstualizacji w środowisku kodu, stały się jego obliczem wywoławczym, ale już syntagma cyfrowego kodu nie ma wiele wspólnego z rzeczywistą gramatyką mowy i jej piśmiennego interfejsu. To zbiór instrukcji/poleceń/wywołań dla cyfrowych maszyn, kod operacyjny zawiadujący przepływem energii i danych wewnątrz procesorów, dysków i ekranów, który ma być zrozumiały dla hardware tych urządzeń. Jego tekstualne korzenie mają jedynie znaczenie dla programistów, którzy myślą tekstualnością i programują według jej zasad i systemów znakowych. Tekstualna forma cyfrowego kodu jest tylko zewnętrznym ornamentem kodu, jednym z możliwych jego interfejsowych outputów [117].

W podobny sposób tekstualne cechy kodu postrzega niemiecki filozof mediów Friedrich Kittler. Definiując kod ostrzega przed mitologizowaniem i uniwersalizowaniem jego cyfrowej postaci. Jego zdaniem pojęcie kodu jest w dyskursie kultury cyfrowej tyleż niebezpiecznie nadużywane, co wątpliwe. Poszukując właściwej semantyki dla tego pojęcia w odniesieniu do jego wykorzystania w dyskursie cyfrowości, Kittler wskazuje na kod jako codex, czyli usystematyzowane w formie księgi, a wcześniej prawo glinianych tabliczek regulujące jakąś sferę życia. W tym sensie kodeks powołany został do życia jako medium zdalnej, pokonującej dystans przestrzeni geograficznej i politycznej, kontroli i regulacji życia społecznego i kultury. Dzisiaj funkcjonuje w podobnej formie jako zbiór reguł stanowiących o wykorzystaniu energii elektrycznej wewnątrz uniwersum cyfrowych maszyn. Śledząc historyczne losy kategorii kodu Kittler dochodzi do momentu, kiedy kodeks i kody stają się tożsame z szyframi. Ta tajemnicza formuła obcowania z cyfrowym kodem jest dla niego jedną z metafor, która tworzy różnicę uniemożliwiającą nazywanie kodu binarnego i programowania pismem. W pierwszym przypadku mamy do czynienia z komunikacją otwartą, w drugim zaś z ukrytym przed nieuzbrojonym obserwatorem cieniem tekstualności, paratekstem [118].

Marzenia o samosterującym się cyfrowym świecie stoją jednak wobec ograniczeń technologicznych projektu cyfrowego w obecnej postaci – nie mówiąc o sporach natury etycznej ich dotyczących. Fundamentalna z zasad rządzących cyfrowością: podział na software i hardware, w naturze nie występuje. Hardware jest zazwyczaj formułą zamkniętą, stanowi sztywną ramę strukturalną, na którą nakładać można płynny i elastyczny software. Kod genetyczny, choć zmienny w czasie, jest w naturalny sposób wpleciony w „hardware’owy” kształt bytów żyjących. W oderwaniu od naturalnych nośników, czyli od swojego naturalnego kontekstu, DNA przestaje być kodem – traci zdolność kreacji życia, przestaje komunikować. Dopiero rozmycie twardych granic pomiędzy software i hardware dawałoby możliwość nawiązywania pomiędzy nimi „organicznych” relacji. W takim kontekście kod stawałby się zarazem hardwarem, znajdowałby naturalne „ucieleśnienie” i nie tracił jednocześnie swojej miękkiej natury. Powstać mogłaby z takiego zatarcia/zbliżenia maszyna autodekonstruująca się i nieustannie „myśląca” o sobie samej, autogenerująca się w czasie rzeczywistym.

Mobilność technologii medialnych, o której pisałem wcześniej, oznacza nie tylko decentralizację hierarchicznego systemu komunikacji masowej. Umożliwia także decentralizację i rozproszenie systemu przesyłania i magazynowania energii elektrycznej, a to oznacza dalece większe konsekwencje dla współczesności również poza obszarem komunikacji. Bez stałego dostępu do źródła zasilania w energię elektryczną żadna cyfrowa technologia medialna nie funkcjonuje – staje się martwym hardware. Podobnie z maszynami i systemami cywilizacyjnymi w ogóle. Bez elektryczności cywilizacja zachodnia nie istnieje.

Algorytmiczne instrukcje tworzone na różnych poziomach cyfrowego kodu kontrolują działanie milionów krzemowych bramek, które w odpowiedzi na komendy 0 lub 1 zamykają się, czyli nie przewodzą w danej chwili energii elektrycznej, lub też na chwilę się udrażniają komponując pożądaną strukturę obwodu elektrycznego. Odbywające się w ułamkach sekund – za sprawą fizycznych cech zjawiska elektryczności, jego naturalnej prędkości bliskiej prędkości światła – elektryczne transmisje lub ich braki układają się wewnątrz hardware we wzorce, których sumą stają się wyniki zadanych softwarem hardware’owi zapytań i wydanych w ten sam sposób instrukcji wykonawczych.

Ponad tym bazowym poziomem spotkania matematyki i elektryczności (kultury i natury) nadbudowane są warstwy software, których zadaniem jest „ukulturalnianie” pierwotnego zapisu 1 i 0, nadawanie mu bardziej wyrafinowanych matematycznie, a więc także i kulturowo, form kodowania. Jedną z nich jest choćby ASCII (American Standard Code for Information Interchange) – 7-bitowy kod przyporządkowujący liczby z zakresu 0-127 literom alfabetu łacińskiego, cyfrom, znakom przestankowym i innym symbolom oraz poleceniom sterującym. Dla przykładu litera „a” jest w ASCII kodowana liczbą 97 (w zapisie binarnym będzie to: 0110 0001), a znak spacji jest kodowany liczbą 32 (w zapisie binarnym będzie to: 0010 0000). Wysiłek twórców obu splecionych warstw nowych mediów, software i hardware, polegający na przygotowaniu takich wersji cyfrowego projektu kulturowego, które będą najbardziej możliwie proste w obsłudze dla przeciętnego użytkownika, intuicyjne antropologicznie, zmierza ku całkowitemu odseparowaniu go od elektryczności, a jej samej uczynieniu niewidzialną, przezroczystą kulturowo, ukrytą wewnątrz struktury maszyny. Automatyczną, zakodowaną wcześniej kontrolę nad elektrycznością przejmują zaimplementowane w maszyny i systemy operacyjne protokoły i oprogramowanie niskiego rzędu (BIOS, instrukcje zapisane w czipach składających się na architekturę hardware), a użytkownik nie ma wielu użytkowych powodów, możliwości ani sposobów, aby ją dla siebie odzyskać. Najbardziej tajnym, skrywanym fizycznie i software’owo szyfrem projektu cyfrowego pozostaje zjawisko elektryczności w całej swej prostocie pojawiania się i znikania, otwierania i zamykania mikroobwodów [125].

W podobnym duchu ten mglisty sens techniki analizuje Friedrich Kittler. Niemiecki teoretyk skupia się na przesłanianiu za pomocą warstw kodowych kolejnych poziomów software zawierających się pomiędzy kodem binarnym a interfejsami użytkowymi. Według Kittlera tworzy się w ten sposób system sekretny (system of secrecy). Pokryta nieprzezroczystymi warstwami kodu maszyna znika z pola percepcji swoich użytkowników, a jednocześnie za sprawą „zabezpieczającego” software i protokołów chroni się przed „pozbawionymi zaufania” programami i użytkownikami. W ten sposób szczelnym kordonem otacza jądro systemu operacyjnego i zamyka wiele potencjalnie możliwych wejść i wyjść z i do niego. Taki stan rzeczy świadczy o niezwykle istotnej kulturowej konsekwencji braku przezroczystości technologii cyfrowych. To trudność w przeniknięciu i opanowaniu cyfrowych systemów, których wielokrotne złożenia i warstwy stawiają niezwykle wysoko poprzeczkę kompetencyjną dla mających z nimi kontakt użytkowników. Cyfrowe systemy są dodatkowo coraz bardziej rozciągane różnymi wewnętrznymi regulacjami, które zwiększają z biegiem czasu dystans pomiędzy bezpośrednią manipulacją elektrycznością i matematycznością a finalnym tych systemów użytkownikiem [127].

Sądzę, że taka „wielka nieobecność” elektryczności w codziennej, bezpośredniej kontroli mediów cyfrowych jak i w ich medioznawczej, kulturowej teorii została nie tylko ustanowiona za sprawą wymogów miniaturyzacji hardware, bezpieczeństwa użytkowników, kwestii ekologicznych czy problemów funkcjonalnych. Elektryczność znajduje się po tej samej stronie kulturowo-naturalnych podziałów, po której znajduje się wnętrze ludzkiego ciała przesłonięte przed zmysłami szczelną granicą skóry poprzecinaną jedynie wyspami naturalnych „sensorów”. W siebie samych, w sensie fizycznym, nie mamy przecież wglądu. O tym, co się wewnątrz naszych organizmów dzieje, wiemy jedynie w przybliżeniu z podręczników anatomii i fizjologii oraz na skutek nieoczekiwanych wypadków, podczas których naruszona zostaje nasza fizyczna integralność. Osobną rolę odgrywają w poznawaniu naszego wnętrza maszyny medialne – RTG, USG, skanery na lotniskach, stetoskopy, itd. Na razie rolę anatomów i fizjologów elektryczności wewnątrz cyfrowych organizmów spełniają jedynie wybrane elity inżynierów. Można się jednak spodziewać, że podobnie jak wokół software i programowania, a zatem wokół matematyczności wcielonej w cyfrowe formy, narodziły się oddolne środowiska i ruchy obnażające, projektujące i wykorzystujące jej zasady dla własnych celów – takie jak ruchy Wolnego Oprogramowania, społeczności programistów i hakerów, tak i elektryczność hardware doczeka się z czasem podobnego w skali i zakresie zainteresowania i popularyzacji. Już dzisiaj z rosnącym wzięciem funkcjonują projekty społeczne i kulturowe, które eksperymentują z hardware i improwizują w oparciu o napędzającą go elektryczność. O tym jak bardzo potrzebne są w kulturze cyfrowej różne warianty jej wykorzystania i oswajania, różne towarzyszące jej dyskursy, niech świadczy wielka popularność ruchów DIY hardwaretweak hardware. Pośród nich najprężniej funkcjonują środowiska skupione wokół idei otwartego hardware i jego społecznościowych przekształceń dokonywanych na bazie mikrokomputerów Arduino, czy Raspberry Pi. Społeczności te wspólnie projektują, testują, przekształcają, popularyzują i wdrażają przeróżne cyfrowe systemy i instalacje w oparciu o te urządzenia; wynajdują dla komputeryzacji niezwykłe zastosowania, programują dedykowany im software, dobierają stosowny hardware i zajmują się upowszechnianiem budowanej w ten sposób bazy wiedzy o możliwościach alternatywnego wobec korporacji i systemów państwowych rozwoju projektu cyfrowego.

Poddanie cyfrowego świata elektryczności, translacja kultury do jej fizycznego „języka”, ma daleko posunięte konsekwencje. Cyfrowy świat odnajduje w elektryczności swój uniwersalny i totalny zarazem nośnik, dopasowuje do niej swój kod. Ma tu miejsce jednocześnie jeden z najważniejszych dla postmedialności procederów, który na poziomie materialnym inicjuje wymieszanie dotychczasowych mediów, ich języków i form. To zjawisko polega na elektrycznej dekonstrukcji informacji, która w formie digitalnej traci tradycyjną nierozerwalność z formą (to zasada medialności) i nomadycznie wędruje pomiędzy różnymi wywołaniami, interfejsami i remiksami oczekując na ponowną materializację. Zelektryfikowana informacja redukuje się do postaci danych. Uwolnione od tradycyjnej tożsamości z nośnikami dane cyrkulują pomiędzy już dostępnymi interfejsami, algorytmami i protokołami. Pozostają w stanie nieustannej gotowości do bycia na różne sposoby wywołanymi i zinterpretowanymi za pomocą wszystkich możliwych metod, przyjęcia dowolnej medialnej formy i dowolnego statusu. Napięcie elektryczne „ożywiające” martwe krzemowe i metalowe obwody i układy scalone cyfrowego świata nie zna tradycyjnych kulturowych kodów, które stanowiły o jakości informacji, o jej ciężarze gatunkowym, kontekście społecznym, itd. Gotowe jest równie dobrze odtworzyć w abstrakcyjny sposób wszelkie wcześniejsze języki, formy i media, jak i powoływać do istnienia wszelkie inne, będące częściowo remediacjami już istniejących, jak choćby interaktywna telewizja czy prasa, jak i zupełnie nowe, takie jak interaktywne wizualizacje baz danych. Różnicujące się formalnie z wyraźnym przyspieszeniem w okresie nasilenia się rewolucji przemysłowej środowisko technologiczne mediów wystawia na ciężką próbę dotychczasowy monopol mediacji gutenbergowskiej. Wraz z pojawieniem się radia, fotografii, potem filmu, telefonu, rodzi się nowa sytuacja ontologiczna, w której komunikat można odseparować od transmitującego go medium. Wtedy to właśnie pojawia się informacja jako taka. Jako tekst, który wymyka się literaturze; przekaz, który konkurencyjnie podejmują i próbują zawłaszczyć inne technologiczne formy nowoczesnych mediacji. W ten sposób informacja przestaje być materialna i powoli przekształca się w to, czym jest dzisiaj – potencją/energią komunikacyjną szukającą najlepszego wcielenia technologicznego (interfejsu). To technologiczne zróżnicowanie medialnych form dowodzi zasadniczej różnicy pomiędzy materią a informacją, pomiędzy rzeczywistym a symbolicznym w komunikacyjnym uniwersum [128].

Zmianę statusu informacji, którą wywołuje elektryczność operująca w obszarze cyfrowego kodu, amerykańska badaczka nowych mediów, Katherine Hayles, nazywa odcieleśnieniem informacji. Według Hayles zanurzeni coraz głębiej w świat kodu i danych, którymi elektrycznie manipulujemy, na nowo konstruujemy naszą tożsamość i wyobraźnię, rozpoczynamy kondycję postludzką[129]. Dla tej kondycji najważniejsze są procesy, które od czasów kartezjańskich kultura Zachodu postrzega jako właściwości rozumu i rozumności zachodzące w coraz większym dystansie od ciała [130]. Hayles nie stara się, oczywiście, wspierać i uzasadniać teorii dotyczących fizycznego znikania cielesności. Autorce chodzi tu o malejące jej znaczenie w obliczu cyfrowych przemian, o narodziny nowych wyobraźni i scen działania, które do cielesności odwołują się w coraz bardziej ograniczonym stopniu z pominięciem tradycyjnych dyskursów i etosów. Obu sfer, cielesności i informacji, dotyczy podobnie rekonstrukcja: kiedy przyznajemy informacji niezależność od jej materialnych nośników – mediów, to jest kiedy transformujemy/redukujemy ją do postaci cyfrowych danych, wówczas opuszczamy galaktykę, którą definiują obecność i jej brak. Wchodzimy za to w porządek, w którym panują jedynie binarne przeciwieństwa sygnału i jego braku, matrycy i przygodności oraz rezonujące na kulturę dystanse pomiędzy nimi, dla których naturalnym krajobrazem stają się pikselowe ekrany i matryce zastępujące euklidesową czasoprzestrzeń. Odpowiadają im coraz częściej binarne opozycje cielesność/tożsamość, działanie/myślenie, które realizują się przez bliskość z cyfrowymi technologiami. To, że informacja straciła cielesność, nie oznacza, że ludzie i świat stracili swoje – konkluduje ostatecznie Hayles[131]. Powstaną natomiast różne nowe typy świadomości, które z dotychczasowymi, analogowymi i materialnymi zarazem, będą miały coraz mniej wspólnego. Naturalnym dla nich matecznikiem będzie elektryczność i napędzany przez nią hardware oraz sieci danych.

Zachowawcza optyka Hayles trafia na bardziej radykalne myślenie wielu teoretyków cyberkultury i nowych mediów. Elektryczne losy informacji i cielesności okazują się jednym z lejtmotywów dyskursu trans- i posthumanistycznego (stosowane są tu obie formy zamiennie)[132]. Dla takich jego moderatorów, jak Hans Moravec czy Ray Kurzweil, najbardziej interesujący w obszarze oddziaływania cyfrowych technologii i elektryczności okazuje się kontekst technologicznej transgresji i biopolityczności cielesności i podmiotowości. Wspomniany Hans Moravec już pod koniec lat 80. ubiegłego wieku propagował pogląd, w myśl którego na zasadzie podobieństw pomiędzy neuronalnymi wzorcami myślenia i konstrukcji mózgu oraz zaawansowanymi sieciami komputerowymi możliwy będzie z czasem „upload” intelektu/ducha w bardziej trwałe, lepiej pracujące i zapewniające większe możliwości – w gruncie rzeczy nieśmiertelne, środowisko hardware[133]. Dekadę później Kurzweil posunął projekt przeniesienia ludzkiej podmiotowości do wewnątrz krzemowo-elektrycznego „organizmu”, przepowiadając, że przejście to dokona się raczej do wewnątrz software niż hardware. Staniemy się software, a nie hardware. Esencją naszej tożsamości stanie się permanentne trwanie i autoewolucja (w) software[134].

Niezależnie od mniej lub bardziej prawdopodobnych scenariuszy zasiedlania i kolonizowania elektryczności przez projekt cyfrowy pozostaje ona niezmiennym warunkiem jego funkcjonowania w obecnej postaci. Pracę nad alternatywnymi modelami komputeryzacji, takimi jak biokomputery, dokonujące obliczeń w specjalnie do tego celu przystosowywanych organizmach żywych (roślinach, bakteriach), czy też koncepcje wykorzystania przewodzenia światła zamiast elektryczności w obwodach cyfrowych, są o tyleż obiecujące i intrygujące, co wtórne wobec myślenia o komputeryzacji elektrycznej, bowiem biologiczne maszyny musiałyby bazować na mikroelektrycznej wymianie napięć zachodzącej w każdym organizmie żywym, zaś maszyny wykorzystujące przewodzenie i manipulowanie światłem opierałyby się jedynie o inne spektrum fal tego samego zjawiska – światło i elektryczność mają jedną „genetykę”, czego dowodzi choćby piorun.

Wspomniałem już o dystansie i różnicy pomiędzy zapisami kodu binarnego w ciągach wartości 0 i 1, które mają bezpośredni wpływ na strukturę pracy elektryczności wewnątrz cyfrowego hardware, a kolejnymi poziomami użytkowymi kodu, na które składają się protokoły, asemblery, systemu operacyjne, języki i środowiska programistyczne oraz oprogramowanie użytkowe, z którym przeciętny użytkownik cyfrowych mediów ma kontakt na co dzień, czyli domeną software. Układ tych zapisów jest warstwowy, co oznacza, że kolejne warstwy kodu pokrywają/przesłaniają wcześniejsze. Pośród nich istnieją różne reguły programowania i różne dla niego zastosowania. Najbliżej użytkownika, a w zasadzie najbliżej interfejsowej, użytkowej powierzchni cyfrowych maszyn znajduje się warstwa aplikacji użytkowych, które stanowią funkcjonalną i personalną bramę dla najbardziej popularnych zastosowań maszyn. Pod tą widoczną w pierwszym kontakcie są także warstwy umożliwiające przepływ danych w systemach i pomiędzy nimi, takie jak np. protokoły TCP; warstwa sieciowa, którą reguluje np. protokół IP, czy warstwa regulująca fizyczną wymianę impulsów elektrycznych, jaką jest np. popularny Ethernet. Każda warstwa jest środowiskiem dla kolejnej, która się nad nią pojawia – staje się dla niej matecznikiem, kodeksem i regulatorem. W ten sposób budowane są kolejne piętra cyfrowej kodyfikacji, kolejne poziomy cyfrowego świata. Typowym przykładem warstwowego współdziałania kodu jest, dla przykładu, sytuacja komunikacji internetowych. Większość z nich regulowana jest za sprawą protokołów TCP i IP, następnie kontrolowana jest za sprawą protokołu HTTP i wtedy dopiero pojawiają się języki kodowania internetowych stron i aplikacji, takie jak HTML, JAVA, czy CSS.

Stwierdziłem wcześniej, że kod cyfrowy to jednocześnie znaki, którymi w przypadku zapisu binarnego są cyfry 0 i 1, oraz łącząca je w różne formy gramatyka, w tym przypadku matematyka. Bez określonej metody operowania znakami niemożliwe byłoby budowanie na ich podstawie złożonych wypowiedzi, co w kontekście technologii cyfrowych oznacza, że bez logicznie poprawnych matematycznych formuł, algorytmów i protokołów nie można by zmusić maszyn kalkulujących do poprawnego działania. Ich funkcje odpowiadają podstawowym zasadom regulującym formy języka – konstrukcjom zdaniowym, leksykalnym, relacjom pomiędzy elementami słownika, bez których język przypominałby bezładne, sylabiczne guganie. W przestrzeni cyfrowej protokoły są regulatorami wszelkiej wymiany, transferów, łączenia się ze sobą urządzeń w sieciach. Działają jako organizatorzy i zarządcy cyfrowego świata. W mojej postmedialnej perspektywie ich działanie jest ważne o tyle, że powstały i funkcjonują nie tylko jako wyrażenia matematyczne i reguły elektryczne, są także instrukcjami (rozkazami), którym cyberprzestrzeń jest posłuszna na najgłębszym poziomie swojego istnienia. W takim sensie cyfrowy kod i elementy systemu hardware można postrzegać jako kodeks, zaś protokoły jako wcielone w technologiczne formy jego przepisy i paragrafy. Tym razem idzie tu jednak o społeczną funkcję kodyfikacji prawa, a nie o jej medialną formę, o której pisałem analizując językowe afiliacje kodu cyfrowego, o polityczną ekonomię kodu, a nie jego semantyczną naturę.

W powszechnym doświadczeniu protokoły pozostają niewidocznymi siłami, które implikują założone konsekwencje/limity regulujące kształt cybernetycznego świata hardware i software. Zamiast świadomości tego działania i wiedzy o jego skutkach mamy, jako użytkownicy cyfrowego świata, raczej intuicje i podejrzenia związane z takim stanem rzeczy. Zarówno jedne, jak i drugie wyraziła Ellen Ullman już ponad dekadę temu, pisząc:

Lubię myśleć o komputerach jako neutralnych narzędziach […] ale jest coś w systemach cyfrowych, w formalnej logice działania obliczeniowego i pracy baz danych, co nie pozwala nam na poczucie pełnej nad nimi kontroli, co tworzy ich własny, nieprzenikniony świat […] przychodzi taki moment w kontakcie z komputerem, kiedy jego wewnętrzna, tajemna logika przejmuje kontrolę nad spotkaniem człowieka z cyfrowym światem [144].

Aby zrozumieć regułę funkcjonowania protokołu, przywołam klasyczny, turingowski, model struktury maszyny kalkulującej, w której dostarczone sygnały (input) podlegają zadeklarowanej obróbce, są kalkulowane w określony sposób, by następnie w tej przeliczonej formie stać się stanem na wyjściu z systemu komputerowego (output). W takiej strukturze dane przechodzą przez przeliczenia pod kontrolą protokołów. Niemożliwe jest działanie systemu z ich pominięciem, a zatem mitologiczna wolność w obszarze cyfrowym jest właśnie w tym momencie wystawiona na oddziaływanie polityk i systemów kontroli ze strony tradycyjnych graczy systemów społecznych: aparatu władzy politycznej, podmiotów gry ekonomicznej i gospodarczej, wojska. Protokoły są prawem systemów informacyjnych wtłoczonym w genetykę cyfrowego świata właśnie przez tych tradycyjnych dysponentów władzy politycznej, prawa i regulatorów sfery komunikacji społecznej. Za pośrednictwem protokołów ci gracze nadzorują i regulują kształt cyfrowego uniwersum, sankcjonują i inspirują transfery i zasobność baz danych, a także wytyczają strukturalne zasady i oblicza użytkowych interfejsów. Internet sam w sobie, na poziomie architektury informacyjnej, a nie semantycznym czy interaktywnym, jest takim właśnie politycznym (technopolowym) kodeksem użytkowym. Zbiorem reguł, praw i zasad, których przestrzeganie nadaje mu określoną formę, której wszystkie znajdujące się powyżej języki programowania, implikacje w postaci stron www, serwery z danymi, wyszukiwarki czy interfejsy software’owe, są projekcjami, emisjami i interpretacjami.

W swojej gramatologii dysku twardego Matthew Kirschenbuam wskazuje na reguły postępowania z danymi wpisane we współczesne oprzyrządowanie cyfrowych maszyn. Te reguły stanowią jeden z przykładów kodeksów wmontowanych w architekturę cyfrowych maszyn i sprawnie nią zarządzających poniżej widocznego dla użytkownika poziomu software i interfejsów. Są to: przypadkowy dostęp, czyli natychmiastowy dostęp do dowolnego elementu bazy danych, co w kontekście rozważań postmedialnych oznacza możliwość wywołania dowolnego fragmentu dowolnego zdigitalizowanego medium; cyfrowo-analogowe przetwarzanie sygnału, czyli nieustanne tłumaczenie cyfrowego na analogowe i odwrotnie; różnicowość, czyli odczytywanie przez głowice czytające/zapisujące danych z talerzy dysków według zasad mechaniki, a nie wartości merytorycznej danych; trójwymiarowość zapisu danych na współczesnych nośnikach; racjonalizacja zapisu, czyli sterowanie pracą dysku przez protokoły podporządkowujące ich pracę zdolności do mapowania zawartości dysku (według sektorów, tracków, headów); zależność od prędkości odczytu; sterylność i precyzja samego nośnika; wreszcie także wariacyjność zapisu na terytorium bazy danych, w której rządzą zasady pierwszeństwa dla danych najczęściej wykorzystywanych przez maszynę, nieustanne nadpisywanie wersji różnych danych, pamięci podręcznych, itd [145].

Szczególnym, wystawionym na oddziaływanie polityczne, przykładem funkcjonowania cyfrowych technologii według reguł wytyczanych przez protokoły jest sieć. Spotykają się w niej autonomiczne maszyny cyfrowe, które wyposażone są przez protokoły ITC IP we własną „podmiotowość” i dzięki niej zdolne są do nawoływania się (ping, przydzielanie adresów w sieci), nawiązywania połączeń między sobą oraz konstruowania trwałych relacji sieciowych, a pośród nich także i hierarchii zależności i władzy odzwierciedlających istniejące kształty analogowego społeczeństwa i sposoby zarządzania nim z poziomu władzy politycznej. Protokoły są matrycami (Thacker), diagramami (Deleuze) istniejącymi zarówno na poziomie rozwiązań kodowych, jak i materialnymi koordynatorami elektryczności zasilającej cyfrowe maszyny.

Sieci i przede wszystkim sieć sieci – Internet, właśnie przez pryzmat polityki i ideologii realizowanej za pomocą protokołów postrzegają w swojej teorii sieci amerykańscy teoretycy Galloway i Thacker [146]. Internet, szczególnie po wydarzeniach terrorystycznych z roku 2001, jest dla nich areną dynamicznego utrwalania relacji władzy i przestrzenią nasilającej się kontroli. Odwołując się do Foucaultowskiej, biopolitycznej koncepcji władzy i obserwacji Deleuze na temat społeczeństwa kontroli, definiują protokoły wychodząc daleko poza ich technologiczne desygnaty. Widzą w nich zarówno aparaturę, za pomocą której fizycznie spinana są węzły sieci, ale i polityczne narracje (programy, kody), które wpisane są w hardware’owe formy umożliwiające protokołom działanie [147].

Jak stwierdziłem, protokoły są także, poza ich natywną funkcją zarządzania relacji software/hardware/Network, technologicznymi wcieleniami/przedłużeniami władzy politycznej i towarzyszącej jej ideologii, szyfrem i mechanizmem przenoszącym analogowe struktury i hierarchie do cyfrowego świata. Spełniają rolę regulacji prawnych wszytych na stałe w technologiczną postać cyberprzestrzeni. Prawa te tworzą, implantują do wewnątrz maszyn i kulturowych przestrzeni cyfrowych technokratyczni specjaliści, którzy ustanowili swoją społeczną pozycję i zabezpieczyli wpływy dzięki wiedzy na temat logiki funkcjonalnej techniki oraz kontroli nad sposobami jej wykorzystania. W połowie lat 90. Arthur Kroker, jeden z najgłośniejszych krytyków cyberkultury i jej technologii, w książce Data Trash: The Theory of the Virtual Class wystąpił z kulturoznawczą krytyką rozwoju technologicznego uwikłanego w tego typu rynkowe, ekonomiczne, polityczne i związane z globalnymi grami gospodarczymi mechanizmy i struktury [150]. Sugerował wówczas narodziny „klasy wirtualnej” towarzyszącej coraz bardziej powszechnej obecności cyfrowych maszyn w życiu publicznym. Władza tej nowej klasy rządzącej polegać miała na realizowanej za sprawą standardowych mechanizmów ekonomicznych i politycznych (Kroker odwołuje się do klasycznych diagnoz krytycznej teorii kultury jako ideologii) kontroli nad społecznym sensem cyfrowej rewolucji. „Klasa wirtualna” w przestrzeni cyfrowej szuka kolejnego terytorium kulturowej kolonizacji według starych, dobrze już w życiu społecznym rozpoznanych mechanizmów przemysłu kulturowego. Wirtualna klasa zyskała społeczną i kulturową władzę dzięki regulowaniu rozwoju sfery high-tech i ustanawianiu dla niej stosownych kontekstów społecznych uwikłanych w mechanizmy kontroli własności intelektualnej (debaty wokół redefinicji praw własności intelektualnej i praw autorskich), sposoby tworzenia i cyrkulacji cyfrowych zasobów (polityki digitalizacji), reguły konstruowania i podtrzymywania interakcji i wymiany w sieciach (protokoły, infrastruktura przesyłowa). Władza także i w cyfrowym świecie pilnuje, aby narzucane przez nią autorytarnie reguły technologicznego bycia pozostały skuteczne i trwałe – zabiega o to, aby użytkownicy technologii informacyjnych nie stali się świadomi i krytyczni wobec dostępnych dla nich cyfrowych maszyn, a pozostawali jedynie ich nieświadomymi, biernymi konsumentami. Wirtualne zasady dotyczą np. bezkrytycznego zanurzenia ciała w cyfrowy świat oraz dokonującej się przy tej okazji dekompozycji podmiotowości. Wydaje się, że protokoły – choć to tylko czubek góry lodowej kryjącej pod powierzchnią oceanu technologicznego podobne mechanizmy – to najbardziej radykalne dziś reguły wpisane w konstytucję cyfrowego świata. To kulturowy kodeks pisany przez technokratyczną klasę wirtualną.

Inne cechy nowego alfabetyzmu biorą się z wyobraźni kulturowych, które za sprawą technologii cyfrowych przesuwają akcenty z porządku, totalności, linearności i centralnie zarządzanej dystrybucji ku fragmentacji i rizomatyczności – od linearnej tekstualności ku bazom danych; z uporządkowanej odgórnie totalności ku syntezowaniu dostępnych elementów; ku logice analitycznej z pozycji dekodowania; z jednolitości form i treści medialnego świata ku postmedialnej regule hardware + software + interfejs; z regulowanej syntagmy ku semantyce i semantyzowaniu [171].

W roku 1973 w wykładzie z okazji odbioru nagrody Turinga, jednej z najważniejszych i najbardziej prestiżowych w informatycznym świecie, Charles W. Bachman, współtwórca idei baz danych, wielu ich historycznych prototypów i zastosowań, wypowiedział następujące słowa [173]:

Kopernik zupełnie przewartościował naszą wiedzę o astronomii kiedy odkrył, że to ziemia kręci się wokół słońca. Narasta we mnie poczucie, że komputeryzacja to domena, która domaga się równie radykalnego zwrotu. Chodzi o wyzwolenie się z myślenia o centralnej roli jednostki obliczeniowej w procesach informatycznych i dowartościowanie strategii wolnego wyboru i nawigacji w przestrzeni bazy danych. (…) Można je osiągnąć przez odejście od podejścia komputerocentrycznego na rzecz orientacji bazodanocentrycznej. Takie nowe rozumienie komputeryzacji (…) pozwoli na lepsze komputerowe modelowanie złożonej natury świata.

Ustrukturyzowana w postaci baz danych cyfrowość ma w konsekwencji trudny do jednoznacznego zdefiniowania status, bo dane i ich bazy to jednocześnie medialne obiekty i procesy. Ta specyfika jest w ogóle cechą charakterystyczną epoki postmedialnej – nie ma w niej jedynie materialnych obiektów, które nie są jednocześnie procesualnie „ożywionymi obiektami”; tak jak nie ma w niej procesów, które istnieją jedynie wirtualnie, bez zakorzenienia w materii maszyn i zjawisk fizycznych. Taki hybrydowy stan baz danych bierze się z przywołanej już powyżej natury samej matematyki i stworzonych na jej podstawie wszelkich działań kalkulatywnych, które nie istnieją, dopóki nie materializują się w odniesieniu do surowca, czyli danych. Podobnie jest z całym technologicznym krajobrazem cyfrowości, którym rządzi następująca zasada: hardware jest w nim nierozerwalnie związany z software, jedno bez drugiego nie istnieje.

Wobec takiego charakteru danych stosujemy coraz częściej metodę zoom znaną z wcześniejszych, optycznych mediów służących do rejestracji obrazu – aparatu i kamery. Dane, które wizualizują dla nas graficzne interfejsy, poddają się zbliżaniu i oddalaniu, a przebywanie w cyfrowym ekosystemie staje się dzięki temu nieustannym wyzwaniem lokacyjnym – ze względu na możliwości poruszanie się w tej przestrzeni w „dół, górę, boki” nasz kontakt z nimi jest doświadczeniem podróży i mapowania (do tego wątku wrócę bardziej szczegółowo w kolejnej części tego rozdziału). Danowa lokalizacja ma charakter podwójny – polega zarówno na lokalizowaniu pozycji użytkownika wobec rizomatycznej przestrzeni danych, jak i nieustannej hierarchizacji i porządkowaniu przez niego napotykanych danych.

Zapożyczone z języka fotografii, kina i telewizji gesty i metafory związane z poruszaniem się po medialnej przestrzeni (przywołany zoom właściwy dla kamer filmowych i telewizyjnych czy przewijanie strony naśladujące czytanie zwojów) to tylko namiastka możliwości operacyjnych, które wywołać można w środowisku bazy danych. Współcześnie to inne praktyki infrastrukturalne związane z nawigowaniem pośród danych stanowią o zasadniczej różnicy pomiędzy analogowym i cyfrowym ekosystemem informacyjnym. Mam tu na myśli indeksowanie danych – czyli nadawanie im znaczeń i symbolik kulturowych za pomocą tagów, katalogowania, znakowania, geolokalizacji, kontekstualizacji. Indeksowanie realizowane za pomocą tych i innych działań otwiera dane na znaczenia wykraczające poza ustanowione przez twórców konkretnych baz podziały i mapy technologiczne. Wprowadza alternatywne porządki zawartości cyfrowych magazynów i sieciuje ich zawartość z innymi tego typu bazami. Dla indeksowania nie ma wielu pierwowzorów i ekwiwalentów w gramatykach mediów analogowych i w ich kulturze. Przekształcanie danych w znaki i teksty to kulturowy rewanż za semantyczną jałowość technologicznej formy cyfrowego kodu – przypisywanie znaczeń wartościom 0 i 1 oraz ich cyfrowo-kulturowa ekonomia to świadectwo przejmowania kontroli nad matematyczną naturą technologii i kodu przez kulturę, dowód na semantyczną chłonność, płynność i otwartość cyfrowego świata. Hermeneutyczne informowanie danych wobec surowych: abstrakcyjnych, matematycznych kalkulacji elektryczności to pogranicze, na którym trwa spór o panowanie w cyfrowym świecie.

Baza danych to technologiczna forma magazynowania, porządkowania i udostępniania cyfrowo zakodowanych informacji (to semiotyczna cecha danych) / instrukcji dotyczących komputerowych operacji na elektryczności zarazem (to materialna, fizyczna cecha danych). Zadaniem bazy danych jest przechowywanie spreparowanych sekwencji kodu cyfrowego w taki sposób, aby możliwy był dostęp do nich na wiele różnych sposobów: za pomocą różnych algorytmicznych zapytań i różnych podłączanych do nich interfejsów. W ten sposób bazy są magazynami nominalnie otwartymi wobec różnych mechanik i logik wchodzenia w dane i gotowymi na oddziaływanie różnych modeli ich przetwarzania, projektowanych i wykonywanych za pomocą różnych narzędzi i estetyk wywoławczych. Wewnętrzny układ większości z baz jest płynny, co oznacza, że ich ustalona pierwotnie struktura może podlegać nieograniczonym rekonfiguracjom i przybierać nieograniczone kształty na bazie dostępnych zasobów – zależy to ostatecznie od konfiguracji hardware, co w tym przypadku oznacza przede wszystkim techniczny rodzaj pamięci, na której zostały zmagazynowane. Pamięć read-only umożliwia jedynie przyglądanie się wcześniej utrwalonej kompozycji danych; natomiast pamięć read-and-write pozwala na odczytywanie i manipulowanie danymi w ramach jednej bazy, ale zależy także od strukturalnego układu samej bazy: mogą one być hierarchiczne, sieciowe, relacyjne i zorientowane na obiektowość [179].

Na przestrzeni ostatnich kilkudziesięciu lat technologicznego i przemysłowego rozwoju baz danych pojawiły się różne koncepcje dotyczące ich wewnętrznej struktury. Rozumiane i projektowane były m.in.: jako układy hierarchiczne, sieciowe, relacyjne, obiektowe, warstwowe i mieszane [180]. Ewolucję tych form można opisać w duchu założeń cyfrowego przewrotu kopernikańskiego, o który w latach 70. apelował Bachman. Te zmiany układają się w następującą prawidłowość: od predefiniowania i technologicznego utrwalania zależności pomiędzy danymi w ramach modeli hierarchicznych, sieciowych czy relacyjnych (CD-ROM, klasyczna strona www w html) bazy danych przeszły ewolucję w kierunku otwartości na wiele możliwych rozwiązań strukturalnych i dostępności dla większej ilości zarządzających nimi administratorów/użytkowników (tagowanie, indeksowanie, html5, playlisty, logika wiki). Jakże bliska jest linia tej formalnej ewolucji baz danych wydarzeniom, które kultura dwudziestego stulecia „zaprogramowała” wobec innych swoich form: dzieła sztuki (literackiego, malarskiego dzieła otwartego jak je nazywa Umberto Eco, a za nim cała humanistyka [181]) czy liberalnej emancypacji społecznej podmiotu oraz takim procesom jak demokratyzacja czy postkolonializm. Systematyczna ewolucja rozwiązań software’owych i hardware’owych w tym kierunku to fakt, którego kulturowe i społeczne znaczenie jest nie do przecenienia. Potwierdza, dużo szerszy w skali, proces społecznej liberalizacji i dehierarchizacji technologii komunikacyjnych oraz społecznych cyrkulacji informacji. Świadczy o uspołecznianiu technologii, podważeniu transmitowanych przez nie kodów władzy, ideologii, technokracji, otwieraniu ich na wariacyjność użytkowania/wykorzystywania. Do tych wątków powrócę w kolejnych częściach rozdziału, kiedy będę analizować społeczne praktyki indeksowania danych.

Wspomniałem o trudnościach związanych z oszacowaniem wielkości danowych zasobów istniejących w cyfrowym świecie. Ilość danych i ich przyrost to zjawisko bez kulturowego czy społecznego precedensu. W cyberkulturowej nowomowie pojawiło się nawet dedykowane temu problemowi określenie – big data, które i ja przyjmuję jako właściwy tag do dalszej analizy problemu danych. Czy i jak można zjawisko big data oszacować? Jak zmierzyć i zważyć kryjący się za nim danowy ocean i jak zastosowane do takiego pomiaru jednostki mają się do znanych kulturze kwantyfikatorów świata? Tę kulturową arytmetykę danych zacznijmy od poziomu jednostki zanurzonej w cyfrowy świat. Lingwiści szacują, że w ciągu swojego życia przeciętny człowiek wchodzi w kontakt, czyli wypowiada i słyszy, ilość słów, która przy obecnych metodach kodowania cyfrowego i przechowywania tekstu w elektronicznej pamięci przekłada się na około 1TB danych tekstowych. Ta wielkość daje nam wyobrażenie o skali zjawiska, z którym borykamy się na co dzień zarządzając transferami, odczytaniami i przetwarzaniem danych, które dalece tę liczbę przewyższają – przy zastrzeżeniu, że nieuprawnione byłoby stawianie na równi cyfrowej wersji tekstu z zakodowanym w ten sposób komunikatem audio czy wideo. Popatrzmy także na inne niesamowite wielkości związane z obecnością danych: w roku 2010 ludzkość przechowywała ilość danych wystarczającą do wypełnienia 60000 Bibliotek Kongresu. Na świecie mamy już 4 miliardy użytkowników telefonów komórkowych, pośród których 1200000000 to użytkownicy smartfonów, którzy nieustannie pobierają i wysyłają dane, wykorzystują już istniejące i tworzą własne. YouTube chwali się, że na jego serwerach co minutę przybywają 24 godziny materiału wideo. Liczba smartfonów rośnie o 20% rocznie, a liczba różnego typu sensorów i czujników, które automatycznie generują dane i ich sieciowy ruch wzrasta każdego roku o jedną trzecią, zaś liczba krótkich wiadomości umieszczanych na Twitterze ma przekroczyć 500 mln dziennie do końca 2012 roku [182]. Analitycy IBM twierdzą, że 90% istniejących danych powstało w okresie ostatnich dwóch lat [183].

Big data to z jednej strony wyzwanie dla kultury, która dopiero tworzy scenariusze poruszania się w środowisku danych i nas samych stawia wobec ich przytłaczających ilości. Z drugiej strony to przestrzeń wyścigu technologicznego i cywilizacyjnego, w którym stawką są nowe formy, metodologie i pragmatyki wiedzy, w coraz szybszym tempie oddalające się od swoich analogowych pierwowzorów. Wraz z regułami baz danych i w oparciu o danowe zasoby powstaje nowy infosystem. Zrozumienie jego struktury, tworzenie narzędzi do jego obsługi i zdolność eksploatacji jego odnawialnych, nigdy nietracących energii, zasobów to wyzwania, których zasięg przekracza komunikacyjne i medialne możliwości większości istniejących rozwiązań prawnych i praktycznych. Przytłaczająca ilość danych zarówno w skali doświadczenia indywidualnego jak i w skali zjawiska kulturowego to specyficzne, dromologiczne (Virilio) potwierdzenie procesualnej natury baz danych – o tej ilości trudno myśleć w kategoriach obiektu, bardziej pasują do nieustannej erupcji i potoku danych kategorie procesu, płynności. Big data upłynnia kulturę.

Gromadzenie najbardziej imponujących co do liczby i wartościowych poznawczo danych odbywa się dziś przede wszystkim poza sektorem oficjalnych instytucji naukowych. Rolę skutecznego konkurenta przejęły w tym zakresie, jak to już wcześniej nadmieniłem, przedsięwzięcia biznesowe, które z tworzenia i wykorzystywania danych oraz obrotu nimi uczyniły główny kierunek swojego działania. Oszałamiająca wartość debiutującego niedawno na giełdzie facebook.com czy wcześniejsze rekordy wycen bite przez google.com to niepodważalne dowody świadczące o wadze zmian, które zachodzą na medialnym rynku i w sektorze pozyskiwania i cyrkulacji danych, ich zamianie/wymianie na informacje. Spośród tysięcy innych realizowanych w przestrzeni cyfrowej ewidentny sukces rynkowy osiągnęły te inicjatywy, które stały się metaforycznymi i technologicznymi zarazem drogowskazami dla społeczeństw informacyjnych, wytyczającymi szlaki wiodące przez bezkresne wody cyfrowego oceanu wraz z ofertą umiejętności ich pokonywania. Google to największa z latarni górująca nad cyfrowymi wodami i orientująca wszystkich żeglujących i surfujących po nich – olbrzymia składnica danych o danych, najważniejszy dziś z metatekstów opisujących zasoby cyberkultury. Facebook to zaś magazyn wszelkiej społecznej wiedzy żeglarzom potrzebnej. Obie firmy zajmują się gromadzeniem, przetwarzaniem i obrotem cyfrowo zakodowanymi informacjami – są softwarem harcującym w gigantycznej, o światowym zasięgu, bazie danych, którą nieustannie porządkują, przetwarzają i na nowo udostępniają. Efektem działania obu serwisów jest nowe oblicze kulturowej ekonomii i ekologii cyfrowych danych; nowa wizja świata informacyjnego i nowe narzędzia, za pomocą których można w tym świecie egzystować. W ten sposób oba te flagowce i tysiące pomniejszych jednostek tworzą wiedzę, której pokłady rosną równie szybko, jak sam zasięg tej flotylli.

Poetyka didżejska zrodziła z czasem zupełnie nowe „gatunki” i formaty muzyczne: powstała kategoria chill out music, czyli sety różnych utworów muzycznych dobieranych według różnych kryteriów w poprzek istniejących gatunków i estetyk, a także format muzycznej składanki, tj. kompilacji nagrać przygotowanych w określonym celu, według założonego kryterium semantycznego. Wszystkie te gry z technologiami rejestracji, remiksowania i odsłuchiwania nagrań to estetyka, którą można by zawrzeć w kategorii kultura remiksu [209]. To działanie i estetyka, które stały się zasadniczą regułą pracy z bazami danych. W tym kontekście można mieć uzasadnione – alarmujące głosy podnoszą w tym zakresie wydawcy muzyki – obawy o śmierć albumu jako formy dystrybucji muzyki, śmierć pojedynczego utworu jako zamkniętej formy technologicznej i estetycznej, czy dalszą karierę algorytmów w powszechnym odbiorze muzyki – pierwszym i najbardziej znanym z nich jest odtwarzania w przypadkowej kolejności utworów z płyty, inne dotyczą kompilowania play list według licznych kategorii i tagów (random play, shuffle) [210].

Jednak nie tylko w technologiach audialnych widać tropy wiodące do wyobraźni bazodanowej. Są one także obecne w przemianach, które dotyczyły muzyki w ogóle. Wytyczyły je takie postaci XX-wiecznej muzyki, jak Pierre Schaeffer (inżynier i teoretyk muzyki), John Cage (awangardowy kompozytor współczesny), Glen Gould (wybitny pianista) czy Brian Eno (twórca muzyki ambient). Ich artystyczne i teoretyczne poszukiwania polegały najpierw na poszerzaniu pola muzyki przez wciąganie do niego dźwięków naturalnych i cywilizacyjnych, takich jak odgłosy przyrody, dźwięki miasta i przemysłowe, anektowaniu ciszy, przekraczaniu ograniczeń instrumentów – np. uderzania w fortepian różnymi przedmiotami, modyfikowaniu ich kształtów i majsterkowaniu przy ich konstrukcji (Cage). Powstały w ten sposób koncepcje słuchania akuzmatycznegoobiektu dźwiękowego (Schaeffer), rozciągające formalne reguły rzemiosła muzycznego i estetyki akustycznej do rozmiarów olbrzymiej bazy danych, w której muzyk w tradycyjnym sensie stawał się postacią anachroniczną, nieodpowiadającą już wyzwaniom, które w jego imieniu mieli przejąć także architekci muzyczni (Cage) oraz towarzyszący im producenci, inżynierowie, a w późniejszym czasie także i didżeje.

Jednym z najbardziej znanych utworów Johna Cage’a jest Imaginary Landscape No. 4, w którym audialny efekt powstaje za sprawą regulacji długości fal oraz głośności dobiegających z 12 radioodbiorników obsługiwanych przez 24 osoby. W Imaginary Landscape No. 5 grają 42 wskazane przez artystę płyty gramofonowe. Cage wprowadza w ten sposób do muzyki przypadkowość, a jednocześnie do nieznanego wcześniej poziomu rozbija harmonię klasycznego instrumentarium, stawiając na wariacyjność i algorytmiczność – atrybuty późniejszych baz danych.

Pierre Schaeffer korzysta w tworzeniu swojej muzyki konkretnej ze wszelkich możliwych modulacji i wariacji, jakie da się osiągnąć manipulując maszynami do rejestracji, miksowania i odtwarzania dźwięków. Z jego doświadczeń narodziła się muzyka określana jako plądrofonia – czyli taka, która powstaje z już istniejących, przetworzonych technologicznie nagrań muzycznych. Jest ona mało znanym zalążkiem wszystkiego, co dziś znane jest w estetyce audialnej (i nie tylko) jako kultura remiksu.

Glen Gould będąc u szczytu sławy jako wybitny pianista klasyczny zrezygnował z występów koncertowych, poświęcając się pracy studyjnej. Nie wierząc w potencjał nagrań na żywo rozpoczął w studiu bazodanowe eksperymenty mieszając różne części nagrywanych przez siebie kolejnych wersji tych samych utworów i z każdej z nich wybierając najlepsze fragmenty. Powstawały w ten sposób miksowane nagrania, które brzmiały zdaniem artysty lepiej niż wierne zapisy pojedynczych take’ów.

Brian Eno poszukując nowych form muzycznych podążył w stronę muzyki samogeneratywnej, która powstawała – podobnie zresztą jak tworzone przez niego dzieła wizualne – na zasadzie wariacji algorytmicznych w obszarze skończonej liczby dostępnych sampli, taktów i brzmień. Ambientowe utwory powstające w ten sposób są nieustanną pracą algorytmu na bazie danych – potencjalnie nigdy się nie kończą, generując cały czas nowe wariacje.

W przestrzeni audialnej bazodanowe tropy obejmują dodatkowo nowego typu instrumentarium, takie jak samplery, sequencery, miksery, software służący do miksowania nagrań, sprzęt do odtwarzania nagrań (programowanie kolejności odtwarzania i brzmienia). Bazodanowa muzyka koncentruje się na wszystkim tym, co można z zarejestrowanym materiałem audio zrobić za pomocą przeróżnych technologicznych maszyn i wpuszczonych na ich terytorium algorytmów.

Od jakiegoś czasu także i w architekturze pojawiają się bardzo dosłowne nawiązania do baz danych. Przykładem takiej estetyki niech będzie tu projekt ekologicznej struktury modułowej o nazwie Eco-Pod zaprojektowanej przez jedno z amerykańskich biur architektonicznych, która ma być samoregulującym się – zarówno w sensie funkcjonalnym jak i architektonicznym – systemem hodującym wykorzystywane do wytwarzania czystej energii algi. Budynek zarządza sam sobą, przestawiając moduły w razie potrzeby – dopasowuje się do klimatu otoczenia, według określonych kryteriów wybrane moduły wynosi na górne piętra, inne przestawia na pozycje fasadowe z wnętrza konstrukcji. Być może takie będą budynki przyszłości – samoorganizujące się „organizmy” architektoniczne nieustannie zmieniające swój kształt i układ strukturalny [211]>.

Przeszedłem przez obszar technologicznych i kulturowych inputs i outputs związanych z bazami danych. Pora teraz na analizę ich semantycznego usytuowania i rozumienia w dyskursach teorii mediów i kultury, czyli odnalezienie i rozpoznanie potencjału bazy danych jako pojęcia w budowie. Baza danych odgrywa pierwszoplanową rolę w teorii nowych mediów. Kiedy dyskurs medioznawczy, który bacznie przyglądając się impetowi cyfrowości i jej technologii podsuwa nam myśli o cyfrowej rewolucji, nowej, otwartej kulturze czy kulturze uczestnictwa, odwołuje się przede wszystkim do figury bazy danych. Została ona przezeń ustanowiona jednym z emblematycznych, centralnych formatów nowego ekosystemu medialnego. Powoli staje się także – na skutek poznawczej atrakcyjności medioznawstwa, mody na nie – metaforą opisującą nowe obyczaje komunikacyjne i zmiany w świecie kultury i życia społecznego w ogóle. Do takiego wykorzystania pojęcia bazy danych mam i ja nadzieję się w jakimś stopniu przyczynić.

Figurę bazy danych i sam termin wprowadził do dyskursu medioznawczego Lev Manovich w wydanej przed dekadą, a dzisiaj już kanonicznej dla studiów nad cyberkulturą i nowymi mediami, pracy Język nowych mediów. Manovich wyznaczył w niej kanon definiowania i teoretycznego kontekstualizowania kultury komunikacyjnej technologii cyfrowych. Amerykański medioznawca wskazuje na bazę danych, którą w połączeniu w interfejsem umieszcza w funkcjonalnym (technologicznym) i kulturowym epicentrum mediów cyfrowych. Baza danych to według niego nowy sposób nadawania struktury naszemu doświadczeniu świata i siebie (s. 334–335), wokół którego epoka komputerów stworzyła nowy kulturowy algorytm: rzeczywistość → media → dane → baza danych (s. 341). W konsekwencji struktura niektórych obiektów medialnych stosuje się wprost do logiki bazy danych, natomiast struktura innych – nie, mimo to – w głębi – praktycznie wszystkie to bazy danych (s. 343) [212]. W odczytaniu Manovicha cyfrowy ekosystem informacyjny to środowisko bazodanowe, co znaczy, że struktura bazy danych powiela się we wszystkich jego obszarach, zaś same dane zawładnęły wszystkimi jego poziomami funkcjonalnymi. Bazy danych spełniają fundamentalną rolę: są technologicznym wcieleniem idei dotyczących struktury i organizacji wiedzy, ekologii i ekonomii jej zasobów towarzyszących dwudziestowiecznej kulturze.

W swoich analizach Manovich odnajduje połączenia pomiędzy wcześniejszymi formami medialnymi a technologiami cyfrowymi; jego teoria mediów szuka podobieństw i związków przyczynowo-skutkowych pomiędzy gramatyką istniejących mediów a regułami unikalnego języka mediów cyfrowych. Kiedy w tym duchu podejmuje temat baz danych, sięga, niemal automatycznie, do dziedzictwa kinematografii. To, według niego, medialna ontologia, której media cyfrowe zawdzięczają wiele technologicznych i semantycznych pretekstów i form. Można powiedzieć, że kino i film to dla Manovicha pre-bazodanowy język medialnej wypowiedzi. Elementy strukturalnej gry z konstrukcją kinowej narracji, język kamery i montażu filmowego, doświadczenie widza stworzyły zręby technologiczne dla formatów użytkowych maszyn cyfrowych. Kultura kina, jego estetyka i semantyka, stały się natomiast podwalinami kulturowego języka technologii cyfrowych. Zrozumienie specyfiki bazy danych (ta konstatacja odnosi się do nowych mediów w ogóle) wiązać się musi zatem z medialną archeologią, tj. odnajdywaniem i pokazywaniem znaczeń nieustannego remiksu/recyklingu medialnych form i niesionych przez nie semantyk [213].

Potrzeby związane z rozumieniem danych rosną w tempie, w jakim przybywa samych danych – przypomnę tu kategorię Big Data – i w jakim osiągalne dzięki nowym narzędziom stają się kolejne bazodanowe logiki poznawcze. Jak poradzić sobie poznawczo z tak wielką ilością danych? W języku angielskim pojawiło się sformułowanie, które daje poglądową odpowiedź na to pytanie. Brzmi ono data mining i oznacza wkopywanie się w ocean danych w celu jego eksploracji, roboty odkrywkowe w poszukiwaniu w nim wiedzy na poziomie metadanych, wydobywanie z danych informacji [241]. To strategia, z której obecnie korzystają głównie profesjonalni analitycy operujący na olbrzymich bazach danych, takich jak zbiory korporacyjne, czy administracyjne. Poszukują w nich ukrytych przed jednostkową analizą wzorców i prawidłowości. Jednak wiele już dzisiaj wskazuje na to, że możliwości takich osób staną się niebawem osiągalne także w powszechnym użyciu. Przybywa publicznych i prywatnych podmiotów, które decydują się na upublicznianie swoich archiwów w postaci otwartych baz danych dostępnych dla zainteresowanych. W roku 2009 Barack Obama inaugurował pierwszy publiczny serwis z dostępem do olbrzymiej ilości danych, które przez lata zgromadziły agendy amerykańskiej administracji. Serwis został uruchomiony pod adresem data.gov i można w nim znaleźć zasoby dotyczące przeciętnej i zmieniającej się w zależności od pory roku głębokości amerykańskich rzek, surowe dane i statystyki na temat przestępczości w poszczególnych stanach i miastach z podziałem na rodzaj użytej broni i kolor skóry przestępców, itd. Niedługo potem w ślad za tworzącym nowy publiczny obyczaj rządem USA poszły inne kraje: Australia, Nowa Zelandia czy Wielka Brytania, gdzie misję stworzenia nowego portal powierzono wynalazcy www Sir Timowi Berners-Lee. Obecność tych w przestrzeni publicznej należy potraktować jako zaproszenie do ich interpretacji do wkopywania się w nie i poszukiwania wiedzy w nich zakodowanej. Bazy danych można w tym kontekście uznać za posiadający szczeliny (to praca specjalistów) sezam, który czeka na swoje powszechne otwarcie i odczytanie nagromadzonych w nim skarbów.

Sądzę, że gramatykalizacja jak i immersyjność wizualności spotykają się i doskonale uzupełniają w formacie jej cyfrowych form. Dzieje się tak na styku porządku wizualności i logiki baz danych, gdzie zasadniczym elementem spajającym zarówno kulturowe dogmaty wizualności, jak i jej technologiczne normy w cyfrowym otoczeniu wydaje się piksel. Jest to zarazem podstawowy element logiczny cyfrowych obrazów (software’owy, to podstawowy bit cyfrowej wizualności), jak i materiał, z którego „uszyta” jest elektroniczna powłoka wizualności, która te obrazy wyświetla (hardware, czyli matryce, wyświetlacze, monitory). W codziennym praktykowaniu wizualności i cyfrowości piksele uobecniają się głównie ze względu na swoją niedoskonałą formę technologiczną – na obecnym etapie rozwoju technologicznego są duże, mają wciąż jakości dalece odstające od naszych wzrokowych uwarunkowań percepcyjnych. Wystarczy zbliżyć oko na niewielką wobec monitora odegłość, aby je zobaczyć, lub powiększyć cyfrowe zdjęcie do rozmiaru, w którym zacznie się objawiać jego skład z pojedynczych kwadratów. W przyszłości, wraz z dynamicznym wzrostem tych jakości technologicznych – to jest nieustannym zmieszaniem wielkości pojedynczych software’owych i hardware’owych pikseli, równie szybkim wzrostem rozdzielczości cyfrowych obrazów, czyli liczbą pikseli składających się na poszczególne fragmenty digitalnych obrazów, oraz powiększaniem się liczby i wielkości ekranów – piksel jako taki pozostanie jedynie mało ważnym, bo już niedostrzegalnym bez specjalnego zapotrzebowania, fragmentem technologicznej gramatyki wizualności cyfrowej. Jednak na razie komputeryzacja zbliża się dopiero do momentów granicznych (jak wyświetlających w standardzie 300 pikseli na cal kwadratowy ekranów laptopów, komórek i tabletów), które oznaczają kulturowe znikanie pikseli. Ten etap przejściowy obfituje w artystyczne i popkulturowe praktyki, teksty i mitologie związane z pikselami – ich estetykę. Jednocześnie piksel w tej estetyce jest elementem szumu, jaki towarzyszy kodowi wizualnemu w cyfrowych okolicznościach.

Wizualna atomizacja jest także i dla współczesnych artystów tematem ważnym i otwartym na nowe interpretacje. W przestrzeni kultury popularnej piksele dorobiły się już swojej własnej estetyki, za którą odpowiedzialne są przede wszystkim dostępność i możliwości takich popularnych narzędzi software’owych do obróbki grafiki, jak Corel, Photoshop czy cały szereg pochodnych, mniej lub bardziej zaawansowanych aplikacji, dzięki którym każdy z nas może za sprawą zakodowanych w nich algorytmów przekształcać dowolne fragmenty pikselowej wizualności według uznania i możliwości algorytmów. Piksele są cyfrowym wcieleniem wizualnej gramatyki, której reguły sięgają początków kultury w ogóle. Wizualność jest od czasów antycznych językiem niewolnym od złudzeń optycznych. Nawet najbardziej mistyczne i metafizyczne obrazy kultury zostały stworzone według kanonów estetycznych i rzemieślniczych, u których podstaw leżą złudzenia nie dające się poprawnie zinterpretować/odkodować przez nasz wzrok. Jednym z takich wizualnych skrótów jest atomizacja obrazu, czyli tworzenie spójnej wizualnie faktury, która składa się ze zbioru pojedynczych punktów/atomów/węzłów/pikseli skomponowanych w ramach określonego układu funkcjonalnego (obrazu). Takim atomistycznym komunikatem wizualnym są choćby mozaiki czy tkaniny, z pewnego oddalenia wywołujące złudzenie płynnej wizualnie kompozycji. Zbliżając się do nich dostrzegamy coraz lepiej pojedyncze punkty tworzące fakturę wizualną. Z bardzo bliska nie widać już wynikającej z nich kompozycji, a jedynie pojedyncze punkty.

Obecność pikseli w cyfrowych obrazach to jednak nie tylko niedoskonałość technologii wizualnych na obecnym etapie ich rozwoju czy element składający się na estetykę cyfrowych obrazów. To także kolejne wcielenie starej, sięgającej początków kultury wyobraźni wizualnej, która obraz pojmuje jako zbiór punktów/atomów. Do tej atomistycznej wyobraźni nie brakuje odniesień w analogowych technologiach mediów. Dla przykładu: w druku spotykamy technologię reprodukcji kolorów i kształtów nazywaną rastrem. Polega ona na tworzeniu kompozycji wizualnej przy wykorzystaniu pojedynczych, drobnych plamek farby nanoszonych precyzyjnie na określone miejsce na zadrukowywanej stronie. Natryskując na siebie cztery podstawowe kolory jeden po drugim (CMYK) można uzyskać w ten sposób plamki o dowolnej kolorystyce i ułożyć z nich dowolny kolorowy układ wizualny. Taśma światłoczuła – podstawa analogowych technologii fotografii i kina – także działa w oparciu o punkty. Są nimi drobinki światłoczułych związków srebra nanoszonych na celuloidową taśmę perforowaną. Wpadające przez obiektyw światło rozkłada się na poszczególnych grudkach, wyzwalając w nich chemiczne reakcje o odpowiednim natężeniu. Podobnie pracuje ekran telewizora: on także składa się z rzędów drobnych, świecących punktów, które wyświetlają kompozycje świetlne i kolorystyczne [246].

Przykładem sztuki wykorzystującej potencjał zarządzania skończoną ilością danych w celu osiągania różnych rezultatów jest ruchoma instalacja grupy ART+COM zrealizowana na zlecenie Muzeum BMW w Monachium. W jednej z sal wystawienniczych Muzeum na cienkich stalowych linkach zawieszonych zostało 714 identycznych metalowych kul-pikseli, których położenie regulują silniczki i sterowniki sprzężone z odpowiednim oprogramowanie. Wprawiane w ruch kulki układają się w układy i kompozycje, które naśladują zaprogramowane wcześniej kształty różnych modeli aut i elementów estetycznych, takich jak fale czy kształty geometryczne [248].

Zanim jednak przejdziemy do analizy wizualnych danych jako interfejsów, odwołam się do historycznej debaty nad kierunkiem rozwoju technologii cyfrowych. We wczesnych latach osiemdziesiątych ubiegłego wieku, a więc w okresie kiedy technologie cyfrowe wychodziły z etapu interfejsów tekstowych i przekształcały się w maszyny wytwarzające własną wizualność i dzięki wizualnym manipulacjom sterowane, jedną z najgłośniej komentowanych koncepcji rozwoju cybertechnologii była wizja bezpośredniej kontroli danych sformułowana przez Bena Shneidermana [261]. Bezpośrednia manipulacja miała być odpowiedzią na dwa nurtujące wówczas przemysł komputerowy najważniejsze problemy: narastającą ilość danych wymagających magazynowania i skomplikowanych sposobów przetwarzania oraz poszukiwania sposobu na wygodę pracy z cyfrowymi maszynami. Rozwiązaniem obu problemów miały być tak zaprojektowane systemy informatyczne (interfejsy, software, hardware), które uczyniłyby dane bezpośrednio percypowalnymi na poziomie, na którym możliwa byłaby ich niemal dotykalna kontrola [262].

Na przestrzeni ostatnich 30 lat widać, że ten kierunek rozwoju okazał się dominujący w komputerowym świecie. Systematyczne zmniejszanie dystansu pomiędzy danymi a ich użytkownikami stało się drogowskazem dla zaangażowanych w jego rozwój projektantów i użytkowników. Swój udział w tym procesie miały zarówno popularne w latach 80. i 90. gry wideo, które wyposażone były w szereg kontrolerów, takich jak elektroniczne pistolety, kierownice, pedały, drążki, jak i rozwiązania programistów pracujących przy obróbce danych, którzy nie byli w stanie efektywnie pracować na olbrzymich ilościach zakodowanych cyfrowo i dostępnych jednocześnie informacji. Jednymi z takich oryginalnych narzędzi/interfejsów bezpośredniej manipulacji okazały się np. pierwowzór współczesnych arkuszy kalkulacyjnych VisioCalc z końca lat 70. czy wizualny menedżer plików Norton Commander z połowy lat. 80.

A Thousand Plateaus autorzy piszą o nieustającej konfrontacji obu typów pojmowania świata – kulturowych wyobraźni, a rozwój kultury widzą jako proces systematycznego umacniania się myślenia hierarchizującego, porządkującego. Morze poddane zostało kartografii i nawigacji, czas usystematyzowany został przez zegar. Skrzyżowanie tej teorii przestrzeni z bazodanowymi stanami mediów cyfrowych prowadzi do wniosku, iż tradycja mediacji analogowych (od Galaktyki Gutenberga przez kulturę masową aż po analogowe oblicze visual culture) odpowiada myśleniu w kategoriach przestrzeni pręgowanej. Porządek mediów analogowych jest próbą strukturyzowania świata symbolicznego i systemów komunikacji społecznej. Przeciwnie rzecz ma się w otoczeniu taktylnych ekranów i obrazów wczesnej epoki cyfrowej i sieciowej. Dzięki nim możliwe jest poszerzenie spektrum spojrzenia, wyjście poza krąg technologicznie pozbawionych „aury” wizualnej znaków pisma i rozszerzenie głębi patrzenia i widzenia na obrazy, które dynamicznie rozwijają się w cyfrowym środowisku technologicznym. Jednak dopiero cyfrowe obrazy wlane w ekrano-obrazo-interfejsy stają się już nie tylko po deleuziańsku i guatarriańsku haptyczne, ale realnie dotykalne, fizycznie taktylne. Znaczy to, że nie tylko postrzegamy ich jako pełnoprawnych znaków (w pełni naładowanych semiotycznie), ale dodatkowo, fizycznie ich dotykając, informujemy (konstruujemy) nimi, za sprawą semiotyki tego dotyku, świat, wizualnie zarządzamy rzeczywistymi, acz hybrydycznymi bazami danych-atomów. Żywe dane (piksele) reagujące na dotyk tapety, którymi uwidaczniamy pulpity cyfrowych maszyn, czy interaktywne i tworzone w wyniku społecznej kartografii mapy (oraz wszelkie inne interaktywne interfejsy wizualne) to asamblaże łączące wizualne z materialnym, analogowe z digitalnym, wirtualne z realnym, semiotyczne z biologicznym [266].

Bliskość wobec mapy i jej postrzeganie jako żywego organizmu/terytorium powiązane są nie tylko ze społecznym i indywidualnym zaangażowaniem w jej indeksowanie, ale także ze zmieniającym się na skutek takich medialnych bytów kulturowym postrzeganiem przestrzeni, jej wyobraźnią. Rozumieć przestrzeń, podobnie jak i zmieniającą się czasie filozofię kartografii i formę mapy, to uznać ją za zmienny w czasie kod, jedne z wielu kulturowo-społecznych okularów, przez które przyglądamy się światu. Kod ten zmienia się historycznie i geograficznie w ramach takich faktorów, jak spojrzenie lokalne i globalne, zdystansowane i immersyjne, rytualne i strukturalne [270]. Tę kulturową dynamikę patrzenia potwierdza bliskość wobec współczesnych map, immersja w nie i splatanie się kartograficznych wytworów z terytorium. W ten sposób objawia się moc sprawcza sytuacji postmedialnej – jest ona w stanie podkopać fundamenty nawet takich kulturowych dogmatów, jak materialne, naturalne terytorium.

Pozostając wciąż przy interfejsach taktylnych i ich związkach z wizualnością, a wychodząc poza bezpośrednie skojarzenia z kartografią i mapami, przyjrzyjmy się teraz jednemu z najbardziej oczywistych w swej taktylno-wizualnej formie projektów, który ma szansę stać się jednym z drogowskazów w rozwoju cyfrowości w ogóle, wytyczając kierunek od rzeczywistości wirtualnej ku rzeczywistej wirtualności. Chodzi o projekt interfejsu Sixth Sense autorstwa amerykańskiego inżyniera i projektanta hinduskiego pochodzenia Pranava Mistry. To osobisty interfejs służący w zamyśle codziennej obsłudze popularnych czynności związanych z używaniem cybertechnologii. W prosty sposób sprawdzimy dzięki niemu pocztę, zrobimy zdjęcie, przeczytamy gazetę czy napiszemy fragment tekstu. Wszystkie te działania możliwe są tu jednak nie dzięki domyślnym ich interfejsom – klawiaturze, ekranowi, łączom internetowym – ale za sprawą obrazów wyświetlanych na dowolnej materii, na której możliwa jest projekcja światła. Monitorem a zarazem panelem dotykowym staje się dla tego interfejsu dowolna ściana, ręka, odzież. Z pomocą obrazu rzutowanego przez komputer połączony z niewielkim projektorem światła całą otaczającą rzeczywistość można potraktować jako element interfejsu. Świat staje się w tym projekcie jednym wielkim zbiorem przycisków, klawiaturą i myszą, którymi go obsługujemy [271].

Technotopia to znikanie: ciała w relacyjnych bazach danych, systemu nerwowego zanużonego w logarytmach i skóry ewoluującej w kierunku wetware. Kiedy technologie ożywają i przybierają formę unikalnych gatunków, wchodzimy w okres końca (ludzkiej) historii i początek historii wirtualnej. To czas nieustannej cielesnej cyrkulacji pomiędzy synapsami a technologicznymi magazynami danych: sieciami.

Jak się okazało, tego typu kulturoznawcze obawy pozostały w cieniu cyberoptymistycznego dyskursu emancypacji cielesności w cyberświecie, głoszonej przez takie postaci, jak Donna Haraway z jej cyberfemistycznym Manifestem Cyborga [273], czy dyskursu nowej dyscypliny zajmującej się relacjami ciała i techniki, kogniwistyki. Jej przedstawicielom, wywodzącym się z dotychczasowej psychologii, neurobiologii, psychiatrii i studiów kulturowych, można jednak zarzucić zbytni uniwersalizm, uproszczenia i redukcjonizm: według ich krytyków ze szkoły teorii aktywności (Leontiev, Vygotsky) stworzyli oni jedynie mechanizm rozumienia interakcji człowiek-komputer jako sfery budowania takich rozwiązań interakcyjnych, które generowałyby mentalne odpowiedniki matematycznego software. Myślenie (a zatem percepcję, myślenie abstrakcyjne i działanie według niego) kognitywiści ci rozumieli jako uniwersalną strukturę, którą można odczytywać komputerowo, w taki sposób ją analizować i poddawać programowaniu – stworzone komputerowo matematyczne modele percepcji i myślenia następnie kodować według wszelkich znanych zasad matematycznych, stosując sprzężenie zwrotne pomiędzy człowiekiem i maszyną. W tym podejściu popularność zyskały takie hipotezy, jak ta o strukturalnym podobieństwie mózgu do komputera, o możliwości budowy w oparciu o rozpoznania w tym polu sztucznej, matematycznej inteligencji, itd. Myślenie tego typu dominowało wśród technokratycznych zwolenników rozwoju cybertechnologii.

Rozwijający się design dotarł już jakiś czas temu do granicy, do której za sprawą taktylnych obrazów dociera dziś kultura wizualna w ogóle. Granicą tą, jak pamiętamy, jest kryzys obrazów będących jedynie wizualnymi reprezentacjami. Designerzy idąc tropem zasugerowanym w sztuce przez Duchampa (ku materialności obiektów), a następnie przez emancypację znaków (kultura symulacji) uznali znaki za fizycznie istniejące obiekty, a fizycznie istniejące obiekty za znaki. Z tego przemieszania bierze się popularność designerskich rozwiązań architektonicznych i dekoracyjnych, które często nie spełniają żadnych funkcji poza estetyczną: znako-przedmiotów i przedmioto-znaków. Rozwój tej sfery, w dużej mierze niezależny od bieżącego rozwoju cyfrowej kultury komunikacyjnej, zmierza w kierunku obrazów urzeczywistnionych, oferujących całe spektrum fizycznych doznań, wśród których widzenie, obok dotyku, zapachu, aranżacji przestrzeni, jest tylko jednym z wielu wyzwalanych bodźców. W tym miejscu oba te nurty współczesnej kultury upodabniają się, podobnie jak to miało miejsce w relacjach mapy i terytorium, do siebie i splatają w praktyce codzienności: „designerskich” sprzętów codziennego użytku, „designerskiego” myślenia o modzie i architekturze [276].

– miejsce centralnej dla tradycyjnego dyskursu kategorii medium i mediacji zajmie płynny układ sił pomiędzy kodem (software), bazą danych i interfejsem (hardware). Analizy zdarzeń i form komunikacyjnych w cyfrowym świecie domagają się bowiem nowego modelu analizy i zrekonstruowanego słownika ten model opisującego.