Czytaj książkę oznaczoną tagiem: bio

David Bollier, kolejny z krytycznych analityków praktyk sieciowych, twierdzi, że nawet proste i prymitywne zachowania w sieci mają jednak głębszy, w swej istocie pozytywnie kulturotwórczy sens. Bollier argumentuje, że powstaje na skutek tych zachowań „nowy gatunek” człowieka społecznego, który w przyszłości, kiedy osiągnie przypisaną mu dojrzałość i właściwie rozpozna swoją grupową siłę, zupełnie zreorganizuje sferę polityczną i publiczną. Dzisiejsze viral spiral, czyli chaotyczne i niestabilne społeczne moce uwalniane online, okrzepną, przekształcą się w nowego typu struktury i staną się podstawą budowania zupełnie nowego ustroju społecznego i systemu kulturowego, którego zasady wyznaczą dzisiejsze słowa-klucze opisujące wirtualne społeczności, takie jak wolny dostęp do zasobów kultury i technologii, nieograniczona cyrkulacja danych, uwolniona kreatywność . Rozedrgana i targana przygodnością faktura życia zbiorowego w sieci z czasem uspokoi się i okrzepnie. [48]

W tej sytuacji kluczem do zrozumienia potencjału cyfrowej zmiany może okazać się poziom indywidualnych relacji z medialnymi technologiami. Jeśli wyjść poza narrację społecznego konfliktu o media, ich język, zasoby, ideologie, itd., wówczas dyskurs o medialnej rewolucji warto zdyskontować na polu antropologii mediów. Jak wspomniałem, generalny konflikt o media zawiera w sobie dualizm figur przypisywanych jednostkom, które stają w obliczu medialnego świata. Dyskurs poświęcony analogowej kulturze masowej uprzedmiotowił kulturowy podmiot, obarczając go cechami bierności, konsumeryzmu, podatności na manipulacje i nazywając nieznaczącym fragmentem masy, biernym konsumentem (teoria kultury masowej). Z czasem te jednoznacznie brzmiące określenia złagodzono pod postacią prosumenta, czyli aktywnego konsumenta (Toffler), odbiorcy świadomego i partyzancko walczącego z dominującą siłą medialnej ideologii na poziomie semiotycznym (studia kulturowe), współtwórcy przekazu (Eco, Barthes). Wreszcie w mitologii cyfrowej rewolucji upokarzana i niedoceniana w epoce mediacji masowych jednostka ustawiona zostaje w centrum medialnego ekosystemu. Wciąż jednak to „ja” nie istnieje tu bez „my”. Nie ma go bez społeczności, którą współtworzy i która go w medialnym świecie legitymizuje.

Sytuacja mediów cyfrowych nie da się na tym etapie jasno zdefiniować jako rewolucja społeczna w obszarze komunikacji. W polu technologii wciąż obecne są siły analogowego systemu mediów masowych, które funkcjonują według formuł wypracowanych w okolicznościach upolitycznienia technologii medialnych i instrumentalnego z nich korzystania. Szansą na przezwyciężenie społecznego wywłaszczenia z obszaru technologii komunikacyjnych może okazać się nie partyzancka o nie walka prowadzona na zasadzie redefiniowania kształtu obiegu cyfrowych zasobów, tworzenia i korzystania z software, hardware i interfejsów ale odwrót od myślenia o medialnym świecie jedynie w kategoriach zbiorowych i specyficzny zwrot ku historycznej figurze medialnego rzemiosła. Technologie cyfrowe nie dość, że mają w sobie potencjał zaspokojenia takiego roszczenia, to jeszcze mogą stać się narzędziami faktycznego budowania tego, co społeczne, a nie tylko polityczne czy ekonomiczne. W tym celu potrzebna jest nowa komputeryzacja, która będzie mieć zrewidowany społecznie charakter. Polegać będzie na odrzuceniu fetyszu samodzielnych maszyn i niezgodzie na ich szczególną pozycję w hierarchicznym systemie społecznym. W to miejsce pojawi się ekosystem medialny stawiający w centrum człowieka, a wokół niego medialne narzędzia. To iście kopernikański zwrot.

Trzecim z elementów wyznaczających charakter postmedialnej zmiany jest człowiek i jego biologiczne i psychofizyczne cechy. W cyfrowych okolicznościach staje on naprzeciwko dwóch postmedialnych sytuacji. Pierwszą jest przeniesienie doświadczenia medialnego ze sfery percepcji do sfery interakcji. Drugą zaś przekroczenie szeregu granic o charakterze biologicznym, które dotąd wytyczały terytorium komunikacji i kultury. Sytuacja postmedialna oznacza dla niego wejście na powrót w renesansową integralność doświadczenia medialnego (kulturowego) oraz konfrontację z niedostrzeganymi wcześniej biologicznymi reżimami komunikacji.

Pierwsze słownikowe wyjaśnienia terminu wirtualny odwoływały się do czegoś, co jest wytworem wyobraźni i powstaje w mózgu. Dopiero potem semantyka tego terminu ewoluowała w kierunku światów istniejących dzięki maszynom cyfrowym, powoływanym za ich pomocą do życia. Wciąż jednak pojęcie to odnosi się przede wszystkim do sprzężenia pomiędzy tym, co wyobrażone na poziomie biologicznym i egzystencjalnym, a tym, co jest tego cyfrową reprezentacją i medialnym modelem [64]. Według Jeana Baudrillarda, jednego z najważniejszych znawców relacji pomiędzy rzeczywistością a jej medialnymi modelami/kopiami, wirtualne jest to, co jest bezpośrednią projekcją rzeczywistych doświadczeń do wewnątrz języka technologii medialnych. Wirtualność to cyfrowy projekt, którego wczesną charakterystykę (tj. w okresie kiedy miała ona status osobnego medium) można dziś (w fazie kiedy przeważająca większość cyfrowych systemów i protokołów poddana została wirtualizacji) uznać za kondycję właściwą mediom cyfrowym w ogóle. Wraz z ich wirtualizowaniem dystans pomiędzy medialnym doświadczeniem a medialną wyobraźnią został radykalnie zredukowany. Do poziomu, który, jak wspomniałem, w kontaktach z poprzednimi gramatykami mediacji był nieosiągalny.

Doświadczenie sytuacji postmedialnej wykracza poza granicę wytyczoną przez media w ogóle i, na powrót, okazuje się bardzo bliskie posługiwaniu się językiem. Polega na uznaniu pełni barw medialnego spektrum form i interfejsów i wymieszaniu ich technokulturowych cech. Tym samym, zataczając historyczną pętlę, sytuacja ta upodabnia się do kondycji premedialnej (przedtechnologicznej), za jaką uznajemy zjawisko mowy i regulujące je zasady języka. Samego języka nie sposób uznać za technologię medialną, choć taki status przypisany został w dyskursie medioznawczym piśmienności, alfabetowi i wszystkim kolejnym, wynikającym z nich, mowo- i pismopochodnym technologiom mediacji (radiu, telefonii). Język ma naturę poprzedzającą wszelkie technologie pośredniczące w komunikacji – jest najbardziej zinternalizowanym, intymnym i symbolicznie pierwszym, referencyjnym pomostem pomiędzy osobą a światem i innymi osobami, najważniejszym naturalnym „interfejsem” homo communicans. Nie da się go odseparować od mówiącego, jest przymiotem osoby, a nie (nie tylko) stworzoną przezeń formą/technologią, choć wpływom technologii, różnego rodzaju remediacjom poddaje się nieustannie. Różni się także od pozostałych naturalnych form postrzegania świata, w które człowiek został wyposażony. Pozwala nie tylko „widzieć”, ale i projektuje/kreśli „obrazy”, nie tylko „słyszy”, ale i wzbudza dźwięk. W tym sensie jest nie tylko pośrednikiem w postrzeganiu i rozumieniu rzeczywistości, ale i taktylnym narzędziem jej konstrukcji – wielkie religie pouczają, że świat zaczyna się od wypowiedzianych przez Boga słów, a powszechnie wierzymy, że niczym nie można dotknąć bardziej, do żywego, niż słowem.

Język uwikłany w medialne formy wciąż zasobny jest w swoje pierwotne przymioty, ale jednocześnie jego pole znacznie się, pod wpływem interferencji tych technologii, poszerza. Mówić, we współczesnej kulturze, to już nie tylko posługiwać się naturalnym aparatem mowy i słuchu czy pisma. To także, a w wielu sytuacjach przede wszystkim, komunikować się za pośrednictwem dostępnych maszyn i form medialnych (nie tylko tych, które – jak telefon, gramofon czy książka – zostały poświęcone utrwaleniu i transmisji mowy/pisma jako komunikatu akustycznego i wizualnego). To posługiwać się mediami z równą atencją i kompetencją, które umożliwiają akt mowy. Analfabetyzm medialny wyklucza dziś z życia społecznego i kulturowego, podobnie jak niegdyś wykluczał, skazywał na marginalizację, tradycyjny analfabetyzm związany wyłącznie z kulturą piśmenności. Mówić, to znaczy zarówno posługiwać się mową czy pismem, jak i wszelkimi technologicznymi przedłużeniami tych naszych naturalnych interfejsów (McLuhan) – pod warunkiem, że są to narzędzia działające na podobieństwo języka, to jest działające w obu komunikacyjnych kierunkach, od i do mówiącego, interaktywnie (jak to precyzuje dyskurs nowomedialny).

Wpływ technologii na język mówiony i pismo wydawał się szczególnie widoczny w obliczu Galaktyki Gutenberga, w której przejął od technologicznych form druku i drukowanej logiki narracji takie elementy, jak choćby indeksowanie, linearność, precyzję, gramatykę, itd. [69]. Technologizowana w ten sposób mowa stojąca w obliczu swojego technologicznego alter ego została w swej pierwotnej wersji zepchnięta na margines zdarzeń medialnych w epoce mediów analogowych (nie licząc telefonii i radia), przekształcając się w tekstualność. Wraz z nadejściem mediów elektrycznych, a szczególnie nowych mediów, na nowo staje się konstytutywnym dla kultury elementem – Walter Ong twierdzi nawet, że wraz z mediami transmitującymi ludzką mowę w formie akustycznie zbliżonej do oryginału pojawia się w kulturze wtórna oralność. Najpierw język spłodził pismo, pismo ewoluowało w kierunku kodów liczb i matematyki, jako ich gramatyki, oraz pisma w rozumieniu komunikacji językowej. Obecnie mamy do czynienia zarówno z językiem pisma, jak i językiem/pismem matematyki. Ich wzajemne relacje są, to naturalne, złożone i wielowymiarowe, jednak w alfabetyzmie, przez który rozumiemy dzisiaj technologie medialne i mówimy nimi/je, te osobne kształty języka schodzą się na powrót [70].

Jeszcze inaczej formować się będzie świadomość kondycji postmedialnej. W alfabetyzmie postmedialnym rozmyje się/zniknie powszechna świadomość mediacji – podobnie jak w czasach przedmedialnych nieobecna była świadomość języka, dystans wobec niego, który umożliwiają konkurencyjne formy komunikacyjne. Ostatecznym etapem tego recyklingu i stapiania się medialnych form oraz zanikania formuły i świadomości medium może okazać się, przypomnę, zrównanie ról języka i uniwersum technologii komunikacyjnych, zniesienie kulturowych i organicznych barier między naturalnym sensorium i jego technologicznymi alternatywami (mediami). Obawa o taki rozwój wydarzeń towarzyszy refleksji kulturowej od dawna (McLuhan, Postman), jednak kumuluje się ona głównie w nawiązaniach do twardych rozwiązań technologicznych, maszynowych i elektronicznych protez, które zastąpić mają ludzkie organy i inteligencję. Sądzę, że w obliczu zmiany postmedialnej poprzedzą je rekonstrukcje w zakresie kulturowego języka mediów, ich semiotyczna i techniczna antropomorfizacja. Jednocześnie, tak jak ma to miejsce w porządku ontycznym cyfrowego świata, problemy hardware przesłoni software. To ta sfera może spełnić funkcję społecznie dostępnego i dającego się kształtować (programować) języka nowych mediów i to ona, za sprawą swojej multi- i transmedialności, stać się może w pierwszej kolei alterjęzykiem kultury i najważniejszym uniwersalnym kodem żyjących w niej homo communicans.

Przejdę teraz do wstępnego szkicu postaw, do których przyjmowania i internalizowania mogą ośmielać swoich użytkowników cyfrowe media, nowy alfabetyzm i cyberkulturowe otoczenie. Odwołam się w tym celu w pierwszej kolejności do H. Arendt, przypominając jej filozoficzne rozpoznania kondycji ludzkiej. Filozofka zdefiniowała przemysłową, odtwórczą pracę jednostki jako zniewolenie, przeciwieństwo pełnego życia opartego na nieskrępowanym, kreatywnym działaniu i tworzeniu. Śladem Arendt można uznać, przypomnę, iż animal laborans to figura bliska kształtom medialnego konsumenta, bezmyślnego i manipulowanego elementu masowej publiczności mediów analogowych. Można też powiedzieć, że to postać posługująca się biernym alfabetyzmem czytelnika medialnego tekstu, który nie ma możliwości go zwrotnie mówić/pisać. Przeciwieństwem tej figury jest dla filozofki homo faber. To robotnik emancypujący się z niewoli powtarzalnej, mechanicznej i odtwórczej pracy. Arendt dowartościowuje w nim sferę działania (vita acitva), która w tradycji filozofii i kultury zachodniej została – także na skutek masowej produkcji przemysłowej, fordyzmu i mediatyzacji kultury – zdewaluowana na korzyść refleksyjnego i intelektualnego vita contemplativa [74]. W rezultacie przestrzeń rozciągniętą pomiędzy wyrobnikiem w technopolu a oddającym się jedynie myśleniu intelektualiście zagospodarowuje i odczarowuje świadomy swej roli i kompetentny rzemieślnik. W jego oglądzie i rozumieniu świata nie ma sztywnych, systemowych granic pomiędzy tym, co pomyślane, a tym, co stworzone z materii rzeczywistości, pomiędzy ideą i wyobraźnią a ich materializacją. Homo faber splata refleksyjność i działanie, czyniąc z nich, na powrót, nierozłączny w praktyce codziennego praktykowania życia monolit. Przy okazji neutralizuje homo faber także upolitycznione relacje pomiędzy sferą prywatną i publiczną, tworząc za sprawą swoich holistycznych działań sferę publiczną, bez której kategorie komunikacji społecznej czy mediów społecznych mają ograniczony sens.

Pierwsza ze zmian, której należy dokonać na drodze ku nowej komputeryzacji – sugeruje amerykański wizjoner – to dekonstrukcja tej maszynocentrycznej fazy. Ma ona polegać na przesunięciu inżynierskiego, technokratycznego punktu ciężkości w rozwoju cybernetycznego świata, opierającego się wyłącznie na „racjonalnych” parametrach, w kierunku potencjału człowieka. Nowa komputeryzacja winna odwoływać się do logiki ich docelowych użytkowników, ich wrażliwości, potrzeb, wartości, zdolności i ograniczeń. Druga, paralelna, transformacja miałaby polegać na przejściu od maszynocentrycznych czynności automatycznych do skupionych na użytkowniku modeli dostarczania usług i zasobów – to wizja tzw. universal usability, czyli uniwersalnej użyteczności cyfrowych maszyn. Na potrzeby tego porządku pojawią się już niebawem komputery kwantowe, które zastąpią komputery elektroniczne i dotychczasowe kulturowe kody cyfrowości. W miejsce modelu: 1 plik, 1 odbiorca, 1 przestrzeń, 1 czas pojawi się alternatywa w postaci: x plików, x odbiorców, x przestrzeni i x czasów. Każdy, wszędzie, o każdej porze – oto formuła przyszłości cyfrowej, w której dotychczasowy user zyskuje zdolność do permanentnego zanurzenia w cyfrowych sieciach. Użytkownik przyszłości staje się interfejsem pomiędzy sztucznym światem wirtualnym i realnym. Tym samym, za sprawą usera, światy wirtualny i realny będą się ze sobą przeplatać na tysiące różnych sposobów i będą od siebie nierozerwalnie zależne, a cyfrowe technologie z opartych na elektronach ewoluują do form opartych na fotonach.

Nowa komputeryzacja ma być narracją kulturową, która wyniesioną na piedestał ikonę rewolucji technologicznej maszynę obliczeniową zastąpi nową; dla jej użytkownikaa komputer będzie jedynie narzędziem. Przykładem myślenia o cyfrowym świecie w duchu podmiotocentrycznym jest ruch Do-It-Yourself, czyli środowiska i społeczności, które łączy pasja wspólnego kreatywnego „psucia” i remiksowania już istniejących mediów, ale także idea budowania od podstaw alternatyw dla oficjalnie dystrybuowanych rozwiązań technologicznych [81].

Postrzeganie postmedialnych okoliczności i doświadczeń w duchu renesansowym wypada zbalansować skrajnie przeciwną tendencją, której wpływ na kształt współczesnego dyskursu humanistyki jest znacznie bardziej uchwytny i zauważalny. Ogniskuje się ona wokół sfery biologicznej i stara się dyskursywnie poszerzyć rozważania na temat człowieka i kultury o obszar biologii, genetyki i ekologii. Chodzi o wywołany równolegle z pojawieniem się technologii cyfrowych, za sprawą odkrycia DNA i badań jego struktury/właściwości, dyskurs poświęcony ontycznej naturze życia i biologicznej, genetycznej charakterystyce człowieka jako gatunku oraz naukowemu definiowaniu życia. W rezultacie coraz większej popularności rozważań o świecie, człowieku i kulturze, dokonujących się w kontekście biologicznej natury życia, wykształcił się dyskurs posthumanizmu (inaczej nazywanego również transhumanizmem, choć to określenie odnosi się bardziej do możliwości technologicznego poszerzania definicji organizmu i jego zdolności [83]). Wraz z nim pojawiły się takie kategorie, jak biomedia, a semiocentryczny (uznający kulturę za komunikację) i cybernetyczny (uznający za komunikację wymianę napięć elektrycznych) model komunikacji uzupełniono o dyskursywne (w polu sciences) konceptualizacje poświęcone problematyce komunikacji genetycznej oraz zachodzącej pomiędzy ludźmi na poziomie niekulturowym (feromony, fale, zapachy), a także komunikacji transgatunkowej: pomiędzy ludźmi a innymi organizmami żywymi (DNA uznany został za kod – do konsekwencji tej decyzji wrócę w kolejnym rozdziale) i wreszcie pomiędzy nimi samymi. Jednocześnie twórców technologii cyfrowych niemal do białości rozpalała wizja sztucznej inteligencji, czyli możliwości stworzenia komputerowych systemów zdolnych do naśladowania ludzkiego myślenia, jego usprawnienie i uniezależnienie, w konsekwencji, od funkcjonowania mózgu, organizmu i człowieka. Systemy te powstać mają jako efekt zaawansowanych badań nad poznaniem ludzkiego genomu oraz tworzenia kognitywistycznych i behawioralnych modeli działania ludzkiego mózgu i systemu nerwowego w ogóle. Zbliżenie projektu cyfrowego z dokonaniami i wiedzą z zakresu biologii zaowocowało syntetycznymi teoriami ojców-założycieli cybernetycznego świata: Turinga, Wienera i wielu innych postępowych cybernetyków.

Sięgnijmy teraz do propozycji teoretycznych tego dyskursu. Definicję podstaw posthumanizmu oferuje na przykład teoretyczka mediów Katherine Hayles w książce How We Became Posthuman z roku 1999. Autorka wskazuje na cztery założenia, na których wspiera się ten dyskurs. Po pierwsze, sygnały komunikacyjne postrzega on jako bardziej istotne od swoich materialnych nośników, w tym także ludzkiego ciała i jego sensorium. Pojedyncze ich uosobienia to tylko epizody w historycznej logice komunikacji kodu genetycznego. Po drugie, posthumanizm rozumie świadomość inaczej, niż to ma miejsce w tradycji kultury zachodniej, dla której jest ona początkiem i centrum życia ludzkiego. W dyskursie posthumanizmu jest ona raczej epifenomenem, jednym z wtórnych elementów, które składają się na całokształt podmiotu i jego kultury, natomiast niematerialny duch w niej nie istnieje. Po trzecie, posthumaniści postrzegają ciało jako pierwotną protezę, którą z biegiem ewolucji człowiek oswoił i nauczył się w ograniczonym stopniu wykorzystywać. Nic nie stoi na przeszkodzie, aby uzupełniać/poszerzać jej możliwości za pomocą innych stworzonych przez ludzki gatunek protez, głównie tych techologicznych. Czwarte założenie posthumanizmu to przekonanie, iż egzystencję da się osadzić wewnątrz maszyn cyfrowych. Dla ludzkiej rozumności i duchowości nie powinno stanowić problemu wyrażanie siebie za ich pośrednictwem. Nie ma w konsekwencji znaczących różnic pomiędzy egzystencją człowieka w biologicznym ciele oraz w domenie cyfrowej, jako projektu cyborgicznej inteligencji. Zamiast poszukiwać i analizować różnice pomiędzy człowiekiem a robotem, materią a kodem, cielesnością a symulacją komputerową, należy skupić się na odnajdywaniu podobieństw pomiędzy nimi – oto przewodnie hasło posthumanizmu [84].

Posthumanistyczna retoryka, choć skupiona coraz bardziej na elementach biologicznych i kierująca się w stronę propozycji transhumanistycznych, ma wciąż dużo wspólnego z dyskursem cybernetycznym i innymi związanymi z rozwijaniem i upowszechnianiem projektu cyfrowego. Wiele z posthumanistycznych wizji i hipotez zostało przejętych do powszechnej narracji związanej z rozwojem cyfrowości, co dodatkowo sprawia, że również z tej perspektywy stają się one przedmiotem ogólnokulturowej debaty. Pojawienie się wspomnianych tu pojęć i żywiołowa, budząca kontrowersje debata wokół nich prowadzi do pytań, na które odpowiedzi mogą zmienić nie tylko medioznawczy i humanistyczny stosunek do takich pojęć, jak nadawca, odbiorca, komunikat, kod, medium, ale prowadzić mogą również do redefiniowania uznanej wiedzy o podmiotach działań komunikacyjnych/kulturowych oraz radykalnie przekształcić kulturową przestrzeń mediacji/komunikacji [87]. 7 lipca 2012 roku grupa neurologów, neurofarmakologów, neurofizjologów i neuroanatomów związanych z Uniwersytetem w Cambridge podpisała deklarację potwierdzającą istnienie świadomości u zwierząt i postulującą w związku z tym zmianę podejścia nauki do świata organizmów żywych [88]. Choć to tylko jeden z epizodów, które wyznaczają koloryt tego dyskursu, to można na jego podstawie łatwo zorientować się co do ciężaru gatunkowego całej debaty. Podejście posthumanistyczne rezonuje wzrastaniem pojęć, które stają się także coraz bardziej istotnymi elementami konstytuującymi dyskurs cyberkulturowy i opisującymi dynamikę współczesnego świata w ogóle.

Kategorią, która bodaj najlepiej i najbardziej holistycznie łączy oba te dyskursy jest pojęcie biomediacji i wywołujących ją biomediów. Eugene Thacker, teoretyk mediów zajmujący się biomediacjami, sytuuje je w kulturowym i biologicznym zarazem polu, w którym spotykają się i reagują ze sobą kody życia, czyli zakodowane w genomach „informacje” i instrukcje, z kulturowymi kodami technologii. Biomediacje biorą się z faktu odkodowania informacji zapisanych w genomie, ale jednocześnie z faktu, iż takie odkodowanie interferuje z procesami i zjawiskami kulturowymi. Stają się nową modalnością kultury współczesnej, nowym punktem referencyjnego odniesienia dla takich form kulturowych, jak komunikacja, technologie, polityka [89]. Biomedia to pojęcie, którego semantyka wskazuje w rezultacie na możliwość cybernetycznej manipulacji kodem DNA oraz konstruowania cybernetycznego świata na podstawie matryc i modeli, które odsłaniają badania natury DNA i mechanizmów naturalnego życia. Tworzą informacyjną rekontekstualizację biologicznych zjawisk i procesów, która ma nie tylko znaczenie medyczne, ale wpisuje się także w kulturowe, społeczne, polityczne i naukowe dyskursy i praktyki [90]. To, inaczej mówiąc, postrzeganie biologicznego „kodu” jako bazy danych, którą można zarządzać za sprawą odpowiednio przygotowanego software oraz posługiwanie się wzorami, regułami, „Interfejsami” zawartymi w różnych formach biologicznego życia jako wzornikami form technologicznych, modelami mediacji i komunikacji, ekologii kultury.

Bardziej ogólne rozpoznanie biomediacji i jej kulturowych oraz technologicznych uwarunkowań znajdziemy w filozoficznej antropologii techniki Bernarda Stieglera. Jego zdaniem antropogeneza implikuje technogenezę, co oznacza, że historię technologii medialnych można interpretować jako doskonalenie form technicznych, które naśladują naturę i stanowią protezy wytyczające kształt życia w świecie. Stiegler pisze:

Łapy stają się rękami, kiedy zaczynają posługiwać się instrumentami i narzędziami. Dłoń pozostaje sobą dopóty pośredniczy w dostępie do sztuki, do sztucznego i do tekhné. Stopy mają wymiar ludzki dokąd niosą samodzielnie ciężar człowieka, a jego ręce wypełniają ich przeznaczenie, oferują możliwości manipulowania światem, nowe relacje pomiędzy dłonią i twarzą, mową i gestem… [91]

Oba procesy przebiegają równolegle, a w rezultacie technika i człowiek są ze sobą nierozerwalnie sprzężeni. Człowiek wynajduje technikę, a technika stwarza człowieka. W tej sytuacji trudno pominąć biologiczny aspekt tego zapętlenia i doniosłość sfery organicznej dla kształtu komunikacji. Biomediacje to jeden z naturalnych stanów kultury, a w nowomedialnym języku związek pomiędzy biologią a kulturą można porównać do hybrydy: hardware (biologia) i software (kultura), dla których człowiek jest referencyjnym, naturalnym interfejsem i systemem operacyjnym.

Biomediacjom wiele uwagi poświęcają dzisiaj przede wszystkim artyści mediów. To im nowomedialny dyskurs zawdzięcza sformułowanie i stawianie najważniejszych pytań i krytyczną eksplorację obszaru. Tej problematyce swoją działalność artystyczną poświęcili tacy ważni artyści mediów, jak: Edouardo Kac [92], który eksperymentuje z manipulacjami kodem genetycznym, czy Paul Vanouse, który obnaża kulturową problematykę DNA. Innym tropem idą artyści pracujący z interfejsami i za ich pośrednictwem starający się dotrzeć do biologicznego rdzenia osobowości i organizmu. Chodzi im o omijanie ograniczeń naturalnego ludzkiego sensorium i komunikację za pomocą wyrafinowanych interfejsów bezpośrednio z mózgiem. Tak pracuje np. japoński artysta i teoretyk nowych mediów Kiyoshi Furukawa badający fale mózgowe [93].

Jeszcze inny tag, który od niedawna funkcjonuje w cyberkulturowym dyskursie, wskazuje na potencjał nowych technologii w zakresie redefiniowania znaczenia i postaci życia we współczesnej kulturze popularnej. Tym terminem jest dopełnienie ontycznego dualizmu software/hardware o element wetware lub mindware. Oba wywodzą się z dyskursu cyberpunkowego i futurystycznego i wskazują na pomijany/lekceważony dotąd w projekcie cyfrowym element ludzki, zarówno w sensie biologicznym, kognitywistycznym jak i duchowym. Posługujący się nim używają go, aby zrównoważyć znaczenie technologii cyfrowych, zmiękczyć ich twardą, technologiczną siłę elementami wrażliwości ludzkiej i biologią ludzkiego organizmu. Wetware to kategoria bio-hakerów, czyli społeczności, która za pomocą rozwiązań technologicznych testuje i weryfikuje możliwości ludzkiego organizmu i poszukuje technicznych rozwiązań mających ulepszyć istotę człowieka i przenieść ją w nowy wymiar kulturowy i biologiczny [94]. Jak widać biomedia są także przestrzenią strategii hakingu, które przecież dla projektu cyfrowego mają zasadnicze znaczenie. Mindware to zaś eksperymentalne pojęcie, za którego pomocą badacze, artyści i animatorzy kultury w ramach projektu Mindware. Technologie dialogu[95] starali się objaśniać sprzężenie zwrotne pomiędzy maszynami obliczeniowymi i człowiekiem, ich użytkownikiem. To sprzężenie ma również charakter biotechnologiczny, ale dotyczy przede wszystkim wyobraźni kulturowej i medialnej. Osadzona wewnątrz projektu cyfrowego wyobraźnia zaczyna na niego reagować, przetwarzając cyberkulturowe mitologie, kształty i struktury. W ten sposób konstruowany jest język, którym mówimy w cyfrowym świecie, stąd bierze się przekładanie technologicznym ram na kulturowe oblicza życia – często mówimy o mózgu jako jednostce centralnej, dysku twardym, itd. Jednocześnie wraz z impetem technologii cyfrowych i sieci powstaje zapotrzebowanie na odpowiednie mechanizmy i struktury poznawcze, percepcyjne, logiczne, itd., których zadaniem ma być oswajanie technologii cyfrowych dla ich użytkownika i dla kultury, podporządkowywanie ich już dostępnym mentalnym wzorcom i regułom. Temat ten sytuuje się na granicy kultury i biologii, percepcji i komunikacji, zarówno w obszarze działań komunikacyjnych jak i towarzyszących im refleksji i dyskursów. Dotyka także kategorii miejsca i przestrzeni – można by tu jedynie wskazać na postmedialny charakter trzeciej przestrzeni (kategoria autorstwa Homi Bhabha) [96].

Przypatrz się niebu i ziemi, i morzu, i temu wszystkiemu, co w ich granicach jaśnieje w górze, pełza na dole, lata lub pływa. To wszystko ma kształty, ponieważ ma liczbowe wymiary. Odbierz je, a nic nie pozostanie z tych rzeczy. […] I ludzie artyści, którzy tworzą przedmioty materialne o wszelkich kształtach, posługują się w pracy liczbami. I tak długo podczas pracy wykonują ruchy ręką i narzędziem, dopóki zewnętrzny kształt dzieła, porównywalny z blaskiem liczb, który jaśnieje wewnątrz, nie osiągnie dostępnej dla siebie doskonałości i nie spodoba się za pośrednictwem zmysłów wewnętrznemu sędziemu, wpatrzonemu w zaziemskie proporcje. Poszukaj następnie siły, która porusza ręce artystów. Będzie nią liczba. [98]

Na bazie tej ogólnej teorii cybernetycznego rozumienia komunikacji wspierają się wszelkie kolejne działania i idee wpisane w rozwój projektu cyfrowego. Szczególne znaczenie dla ich rozwijania i implementacji mają idee i dokonania Alana Turinga i Johna von Neumanna. Ci dwaj ojcowie-założyciele cyfrowości teoretyczne koncepty adaptowali do funkcjonalności maszyn obliczeniowych, tworząc w ten sposób prototypy współczesnych komputerów. Alan Turing to brytyjski matematyk i cybernetyk, twórca koncepcji uniwersalnej maszyny programowalnej. Uczony skonstruował najpierw formalne zasady logiki obliczeniowej, formułując je w taki sposób, aby wykonująca je następnie maszyna obliczeniowa zdolna była do wykorzystywania ogólnie znanych zasad matematyki wobec różnych dostarczonych na wejściu danych cyfrowych. Miała ona w oparciu o dostarczone algorytmy kalkulować wartości różnych zbiorów danych. Turing, podobnie jak jemu współcześni, nie mieli dzisiejszej wiedzy o sposobach działania ludzkiej pamięci i mózgu, dlatego wyobraził sobie je, a za nimi także i swoją maszynę, jako papierową wstęgę, na której zapisane byłyby stosowne informacje i którą maszyna mogłaby czytać. Jak to trafnie określił historyk nauki George Dyson – na wyobrażonej przez Turinga taśmie znalazłyby się zarówno liczby, które symbolizują samą rzeczywistość (numbers that mean things), jak i wartości, które rzeczywistość fizycznie konstruują (numbers that do things) [109]. W przestrzeni imaginacji technologicznej powstał w ten sposób koncept maszyny programowalnej, nazwanej później maszyną Turinga. W artykule z roku 1936 Turing dowodził, że taka maszyna jest w stanie rozwiązać dowolny problem, który da się sprowadzić do postaci sekwencji działań matematycznych. Dowodził również, że maszyna tego typu na bazie prowadzonych obliczeń byłaby w stanie stymulować inne maszyny do działania według matematycznych instrukcji [110], co oznacza, że przewidział ekwiwalencję i wymienność pomiędzy uniwersalnymi maszynami obliczeniowymi. Wszystkie one okazują się równe wobec otrzymanego oprogramowania i podawanych za jego pomocą ciągów danych – mogą być szybsze, bardziej pojemne, ale ich „rozumienie” cyfr jest – na tym etapie rozwoju technologii cyfrowych – niezmienne. Podlegają one tej samej zasadzie, której sens wytyczył kształt biegu technologicznej ewolucji – rzeczywistą przewagę i potencjał faktycznej zmiany osiągnąć można w tych materiach jedynie na poziomie kodu. W taki oto sposób matematyka po raz pierwszy, po wielu wcześniejszych, mechanicznych próbach, tak bezpośrednio, w postaci algorytmów spreparowanych do postaci mechanicznych/elektrycznych instrukcji wykonawczych, została usytuowana w maszynach, stając się konstytucją ich działania.

Z ich doświadczenia, które można uznać za miarodajne w praktykowaniu cyfrowego kodowania, wynika, iż posługiwanie się kodem bliskie jest mówieniu językiem naturalnym. To, oczywiście, założenie natury ogólnej, które należy obostrzyć dodatkowymi warunkami z zakresu teorii lingwistycznych, antropologicznych i kulturowych. Jednak już z tak ogólnej perspektywy widać, że w grę wchodzą tu podobne do tych warunkujących posługiwanie się językiem czynniki sprawcze i regulacyjne, jak emocje, wyobraźnia kulturowa, wrażliwość sensomotoryczna i estetyczna, kontekst kulturowy. Ich obecność sugeruje, iż sprawne programowanie za pomocą cybernetycznego kodu nosić może znamiona holistycznej ekspresji bliskiej innym, już antropologicznie i kulturowo oswojonym formom ekspresji i komunikacji, jak muzyka, język, dotyk (do tego wątku w szczegółach wrócę w ostatnim rozdziale) [114].

Najważniejszym z nich jest dziś domena biomediów i związany z nią dyskurs poszukujący w prawidłach ewolucji materii ożywionej, a także w kształtach i regułach dających się zaobserwować w naturalnym rytmie i formach życia, odpowiedzi na zasadnicze pytania związane z technologią, komunikacją i kulturą. Jednym z najbardziej fundamentalnych założeń tego nurtu, które jest jednocześnie jego najbardziej kontrowersyjną tezą, jest uznanie za kod sekwencji informacji genetycznych DNA i postrzeganie ich w duchu teorii cybernetycznych i praktyk inżynierskich. Uznanie DNA za kod w takim rozumieniu oznacza dopuszczenie wszelkich jego software’owych, protokołowych i algorytmicznych modyfikacji, których działanie wobec żywej materii trudno nawet wstępnie oszacować. Spotkanie digitalnej inżynierii i jej matematycznej poprawności już jest, a w przyszłości z pewnością będzie coraz bardziej kontrowersyjne, będzie domagać się renegocjacji podstawowych ustaleń aksjologicznych, ontologicznych, prawnych i politycznych. Rozdzielone za sprawą Kartezjusza i oświeceniowej logiki myślenia nowoczesnego ciało i duch, myśl i materia zyskują w postaci inżynierii kodu genetycznego swoją najbardziej wyrafinowaną formę. Nie będę jednak wchodził szczegółowo w tę tematykę, jest zbyt pojemna i wejście takie wymagałoby zupełnie innego rozłożenia akcentów. Skupię się natomiast na jednym z wątków, który sytuuje się nieco na uboczu cywilizacyjnych rozważań o biomediachbiomediacji, a dotyczy bezpośrednio biologicznych inspiracji kodowania cyfrowego i sztuki mediów cyfrowych.

Studia biologii życia, rezultaty analizy reguł i postępów ewolucji stają się – na skutek uznania tajemnicy rozwoju życia za kod – referencyjną matrycą dla cyfrowego świata. Problemy, które napotkało przez miliony lat życie, i sposoby radzenia sobie z nimi są dla podejmujących ten wątek myślenia o cyfrowym świecie otwartą księgą wypełnioną samoistnie zaszyfrowaną wiedzą, której charakter nie sposób przecenić. Odpowiednio przygotowane wejrzenie w genetykę i jej procesy przypominać może zastosowanie się do reguł podręczników stylu i gramatyki. Czytanie genetyki to sięganie po gotowe, sprawdzone już w najlepszych/najtrudniejszych warunkach testowych rozwiązania strategiczne i taktyczne. Tak jak kosmos/Bóg napisał kod genetyczny, tak i my, dzisiejsi koderzy cyfrowego świata, możemy pisać swoją cyfrową rzeczywistość. CTRL+C i CTRL+V z kodu absolutu – oto jest wyzwanie rzucone przez biomediabiomediacje w obszarze cyfrowego świata! Stan natury jest przecież czymś dalece bardziej złożonym i inspirującym niż poziom zaawansowania matematycznego, technicznego i kulturowego cywilizacji ludzi. Natura jest ponad zdefiniowane w tych dyskursach kategorie piękna, wyobraźni, racjonalności, logiki, kreatywności, adekwatności, itd.

Trzymając się tej biomedialnej metaforyki kodu pójdźmy jeszcze dalej w nasączaniu nią cyfrowego myślenia. Podejmując się takiego poetyckiego i jednocześnie racjonalnego zadania P. J. Bentley, artysta mediów cyfrowych i ich krytyk, tak te dwa światy zestawia:

Ewolucja to główny programista systemów naturalnych. Geny są kodem wykorzystywanym w tym programowaniu. Ewolucja samosteruje się przez dobór najlepszych wersji software, które na bazie tego kodu udaje jej się wygenerować. […] Te najlepsze wersje poddaje nieustannym adaptacjom i poprawkom […] To, co działa, zostaje na stałe zaszyfrowane w genetycznym kodzie życia, a co nie, zostaje odrzucone. […] W taki brutalny sposób kod pilnuje swojej życiodajnej wydolności i zabezpiecza przetrwanie wszystkiego, co żyje. […] Natura jest systemem autoprogramującym i samodesignującym się [122].

Zdaniem Bentleya kolejne generacje systemów informatycznych powinny pracować właśnie w oparciu o te zasady rządzące ewolucją. W przyszłości mamy powierzać komputerom zadania takie, jak np.: zoptymalizuj model elementu turbiny silnika odrzutowego, które maszyny rozwiążą na drodze eliminacji niedostatecznie wyrafinowanych, nie dość skutecznych i/lub nieopłacalnych ekonomicznie propozycji. Nowy typ komputerowego kodu to kod samoorgranizujący się, samoewoluujący i homeostatycznie się korygujący. Aby mógł takim się stać i w „naturalny” sposób pracować, należy jednak wcześniej znacznie lepiej i dokładniej poznać mechanizmy rządzące naturą – to właśnie zadanie, które staje przed przestrzenią biomediów, ich sztuki, inżynierii, aksjologii. Na horyzoncie tego cywilizacyjnego wyzwania rysuje się nagroda, której wartości przecenić się nie da: jest nią zdolność do sterowania ewolucją, wyznaczanie przed nią zadań i korzystanie z dobrodziejstwa pozyskiwanych w ten sposób rozwiązań.

Marzenia o samosterującym się cyfrowym świecie stoją jednak wobec ograniczeń technologicznych projektu cyfrowego w obecnej postaci – nie mówiąc o sporach natury etycznej ich dotyczących. Fundamentalna z zasad rządzących cyfrowością: podział na software i hardware, w naturze nie występuje. Hardware jest zazwyczaj formułą zamkniętą, stanowi sztywną ramę strukturalną, na którą nakładać można płynny i elastyczny software. Kod genetyczny, choć zmienny w czasie, jest w naturalny sposób wpleciony w „hardware’owy” kształt bytów żyjących. W oderwaniu od naturalnych nośników, czyli od swojego naturalnego kontekstu, DNA przestaje być kodem – traci zdolność kreacji życia, przestaje komunikować. Dopiero rozmycie twardych granic pomiędzy software i hardware dawałoby możliwość nawiązywania pomiędzy nimi „organicznych” relacji. W takim kontekście kod stawałby się zarazem hardwarem, znajdowałby naturalne „ucieleśnienie” i nie tracił jednocześnie swojej miękkiej natury. Powstać mogłaby z takiego zatarcia/zbliżenia maszyna autodekonstruująca się i nieustannie „myśląca” o sobie samej, autogenerująca się w czasie rzeczywistym.

Dziś te i podobne pytania biomediacjom zadają przede wszystkim artyści mediów, tacy jak Edouardo Kac, Paul Vanouse. Ich kontrowersyjne i pionierskie zarazem prace wydają się wybiegać daleko w przyszłość kultury, natury i techniki – jeśli jednak zestawić je z dokonaniami przemysłu farmakologicznego, chemicznego, medycyny czy wojska, to widać, jak bardzo teraźniejsze problemy wchodzą tu w grę [123].

Zmianę statusu informacji, którą wywołuje elektryczność operująca w obszarze cyfrowego kodu, amerykańska badaczka nowych mediów, Katherine Hayles, nazywa odcieleśnieniem informacji. Według Hayles zanurzeni coraz głębiej w świat kodu i danych, którymi elektrycznie manipulujemy, na nowo konstruujemy naszą tożsamość i wyobraźnię, rozpoczynamy kondycję postludzką[129]. Dla tej kondycji najważniejsze są procesy, które od czasów kartezjańskich kultura Zachodu postrzega jako właściwości rozumu i rozumności zachodzące w coraz większym dystansie od ciała [130]. Hayles nie stara się, oczywiście, wspierać i uzasadniać teorii dotyczących fizycznego znikania cielesności. Autorce chodzi tu o malejące jej znaczenie w obliczu cyfrowych przemian, o narodziny nowych wyobraźni i scen działania, które do cielesności odwołują się w coraz bardziej ograniczonym stopniu z pominięciem tradycyjnych dyskursów i etosów. Obu sfer, cielesności i informacji, dotyczy podobnie rekonstrukcja: kiedy przyznajemy informacji niezależność od jej materialnych nośników – mediów, to jest kiedy transformujemy/redukujemy ją do postaci cyfrowych danych, wówczas opuszczamy galaktykę, którą definiują obecność i jej brak. Wchodzimy za to w porządek, w którym panują jedynie binarne przeciwieństwa sygnału i jego braku, matrycy i przygodności oraz rezonujące na kulturę dystanse pomiędzy nimi, dla których naturalnym krajobrazem stają się pikselowe ekrany i matryce zastępujące euklidesową czasoprzestrzeń. Odpowiadają im coraz częściej binarne opozycje cielesność/tożsamość, działanie/myślenie, które realizują się przez bliskość z cyfrowymi technologiami. To, że informacja straciła cielesność, nie oznacza, że ludzie i świat stracili swoje – konkluduje ostatecznie Hayles[131]. Powstaną natomiast różne nowe typy świadomości, które z dotychczasowymi, analogowymi i materialnymi zarazem, będą miały coraz mniej wspólnego. Naturalnym dla nich matecznikiem będzie elektryczność i napędzany przez nią hardware oraz sieci danych.

Zachowawcza optyka Hayles trafia na bardziej radykalne myślenie wielu teoretyków cyberkultury i nowych mediów. Elektryczne losy informacji i cielesności okazują się jednym z lejtmotywów dyskursu trans- i posthumanistycznego (stosowane są tu obie formy zamiennie)[132]. Dla takich jego moderatorów, jak Hans Moravec czy Ray Kurzweil, najbardziej interesujący w obszarze oddziaływania cyfrowych technologii i elektryczności okazuje się kontekst technologicznej transgresji i biopolityczności cielesności i podmiotowości. Wspomniany Hans Moravec już pod koniec lat 80. ubiegłego wieku propagował pogląd, w myśl którego na zasadzie podobieństw pomiędzy neuronalnymi wzorcami myślenia i konstrukcji mózgu oraz zaawansowanymi sieciami komputerowymi możliwy będzie z czasem „upload” intelektu/ducha w bardziej trwałe, lepiej pracujące i zapewniające większe możliwości – w gruncie rzeczy nieśmiertelne, środowisko hardware[133]. Dekadę później Kurzweil posunął projekt przeniesienia ludzkiej podmiotowości do wewnątrz krzemowo-elektrycznego „organizmu”, przepowiadając, że przejście to dokona się raczej do wewnątrz software niż hardware. Staniemy się software, a nie hardware. Esencją naszej tożsamości stanie się permanentne trwanie i autoewolucja (w) software[134].

Niezależnie od mniej lub bardziej prawdopodobnych scenariuszy zasiedlania i kolonizowania elektryczności przez projekt cyfrowy pozostaje ona niezmiennym warunkiem jego funkcjonowania w obecnej postaci. Pracę nad alternatywnymi modelami komputeryzacji, takimi jak biokomputery, dokonujące obliczeń w specjalnie do tego celu przystosowywanych organizmach żywych (roślinach, bakteriach), czy też koncepcje wykorzystania przewodzenia światła zamiast elektryczności w obwodach cyfrowych, są o tyleż obiecujące i intrygujące, co wtórne wobec myślenia o komputeryzacji elektrycznej, bowiem biologiczne maszyny musiałyby bazować na mikroelektrycznej wymianie napięć zachodzącej w każdym organizmie żywym, zaś maszyny wykorzystujące przewodzenie i manipulowanie światłem opierałyby się jedynie o inne spektrum fal tego samego zjawiska – światło i elektryczność mają jedną „genetykę”, czego dowodzi choćby piorun.

Człowiek elektroniczny, podobnie jak człowiek sprzed epoki alfabetu, postrzega i ujmuje świat w całości. Jego informacyjne środowisko to w gruncie rzeczy jego własny centralny system nerwowy [137].

Celem nauki, sztuki i edukacji w ciągu najbliższych lat powinno być nie tylko odszyfrowanie kodu genetycznego, ale przede wszystkim kodów ludzkiej percepcji. W globalnym środowisku informacyjnym stary model edukacji oparty na poszukiwaniu odpowiedzi jest nieadekwatny: jesteśmy otoczeni przez miliony odpowiedzi poruszających się i zmieniających z prędkością elektryczności. Przetrwanie i kontrola nad światem będą zależeć od zdolności zadawania właściwych pytań we właściwym czasie i miejscu. W sytuacji, gdy środowisko informacyjne znajduje się w nieustannym ruchu, potrzeba nie tyle gotowych scenariuszy i rozwiązań,ile raczej starych umiejętności odczytywania wielkiej księgi świata, nawigowania w mało przyjaznej i nierozpoznanej we właściwym stopniu przestrzeni informacyjnej. W innym wypadku będziemy mieli nad tym środowiskiem technologicznym mniej kontroli niż mamy nad wiatrem i ruchami wody [138].

Nowy alfabetyzm, a zatem społeczne praktyki i wyobrażenia dotyczące pisania i czytania [166], czy inaczej mówiąc kulturę komunikacji, komunikacyjną wrażliwość, kompetencje i wyobraźnię, można zdefiniować także w relacji do społecznego konstruowania praktyk dyskursywnych, budowania i podtrzymywania dyskursów [167]. W tym nowym alfabetyzmie obecność kodu cyfrowego i jego form matematycznych, ale także jego społecznych praktyk, takich jak digitalizacja zasobów kultury czy dyskurs programistyczny (języki, instytucje, formy działania) wprowadza alternatywę dla jednowładztwa najważniejszego z analogowych kodów – tekstu. Otwierający się na nową wyobraźnię nie tylko zyskuje wejście w świat tekstu i jego kultury – tekstualności, epoki Gutenberga, i stosowny wobec nich dystans poznawczy ale i – tu objawia się programowalność – dopuszcza programowalność/płynność tekstualności. Tym samym wchodzi w dyskurs rozpoczęty już w obszarze literatury i liberatury, kontynuowany w cyfrowości jako dyskurs hipertekstu i cybertekstu, i podejmuje wyzwanie bycia współtwórcą, programistą, operatorem i współkonstruktorem jego formy i treści. Linearność tekstualną, która stała się także linearnością kultury analogowej, poddaje w cyfrowej wyobraźni różnego rodzaju remiksom, personalizacjom, update’om, wariacyjności. Czytając i pisząc kulturę-tekst posługuje się innymi, oderwanymi od gutenbergowskich, narzędziami i sterującymi nimi wyobrażeniami, bardziej ją programując, budując skojarzenia i konstruując mentalne modele i reprezentacje świata w oparciu o znane mu aplikacje i interfejsy software.

Kulturowe rozpoznawanie i oswajanie logiki zakodowanej w bazie danych nie jest zjawiskiem jedynie współczesnym, odnoszącym się wyłącznie do krótkiej historii technologii cyfrowych. Bez odpowiedniego podłoża kulturowego, na które składa się zbiorowa wyobraźnia kulturowa, oddziaływanie systemów społecznych i politycznych, prawa, niemożliwe byłoby pomyślenie ani tworzenie baz danych w ich dzisiejszej, cyfrowej formie technologicznej. Wśród wielu tropów, które ku bazodanowej wyobraźni prowadzą, jeden ma znaczenie szczególne. Chodzi o mit/figurę/metaforę „drzewa życia”, który okazał się uniwersalną w historii różnych kultur, religii i systemów politycznych opowieścią o sensie życia i porządku świata. Mit ten odwołuje się do kształtu i organicznej struktury drzewa (liściastego): jego rozłożyste konary i gałęzie symbolizują wielość dróg, które schodzą się ostatecznie w jednym miejscu: hierarchiczny kształt to obraz sposobów poznania i generalny kształt wiedzy; podziemne ukorzenienie i nadziemne rozgałęzienie wskazują na przemijanie a także, w sensie szerszym, są modelami porządku komunikacyjnego, społecznego i kulturowego.

Po gałęziach tego drzewa wędruje w ciągu swojego życia człowiek-pielgrzym, starając się dotrzeć z zapisanego mu początku istnienia do miejsca pożądanego. Hierarchicznym drzewem są w konsekwencji tradycyjne systemy społeczne, religijne i polityczne z monarchą-pniem i ludem bożym-liśćmi, drzewiasta jest wiedza i edukacja w swoim rozkładzie na dyscypliny i sposobach ich transmisji do obywateli, wreszcie drzewiasty model komunikacji realizują także systemy technologiczne mediów masowych (analogowych), wypełniające wzorcowo bezzwrotny model transmisji jeden-do-wielu.

Współczesna kultura postrzega drzewo życia w konsekwencji tych i wielu innych zdarzeń już tylko jako jedną z możliwych porządkujących ją i objaśniających metafor. W duchu tych przemian nie zaskakuje dla przykładu skojarzenie ziaren piachu Victorii Vesny przywołane już wcześniej. Ta i podobne nowe figury, kryjące się za nimi kształty i opowieści zasilają współczesną wyobraźnię z siłą, która systematycznie wypiera okrzepłe w niej i oswojone kształty, takie jak mityczne drzewo. Jedną z najchętniej przywoływanych nowych metafor, w której jak w soczewce skupiają się nadzieje, obietnice i perspektywy związane ze zmianami społecznymi i kulturowymi, jest dzisiaj sieć. Odwołuje się ona do kształtu pajęczej lub rybackiej (dziś poszukiwanie precyzyjnych odniesień i pierwotnych kontekstów nie ma już racji bytu) sieci, której struktura składa się z przecinających się nawzajem linii tworzących siatki. Sieciowa metafora stała się ikoną globalnej w zasięgu metabazy danych (a zarazem bazą metadanych), jaką jest elektroniczna infrastruktura komunikacyjna zorganizowana i zarządzana w zdecentralizowany sposób. Na skutek popularności nowej figury elektroniczne sieci uznać trzeba również za semantyczne środowisko cyfrowych danych, w którym połączone są ze sobą generujące je, przechowujące i transmitujące maszyny cyfrowe wymieniające się nieustannie się tymi danymi przy świadomym współudziale użytkownika lub bez niego. Sieć to wirtualna przestrzeń, w której dane znajdują się w nieustannym ruchu, przekraczając tradycyjne ograniczenia kulturowe i technologiczne (czas, miejsce, kultura, geografia, hierarchie społeczne) wedle zarządzeń swoich właścicieli, administratorów czy tymczasowych dysponentów (piraci, hakerzy) po to, by na ustanawiać nowe, sieciowe związki między sobą.

Do analiz baz danych można wykorzystać także figurę roju, którą zaproponował amerykański badacz nowych technologii Richard Galloway. Podobnie jak poprzednie metafory, także i ta wywodzi się z obszaru botaniki. Rój miałby być społeczną logiką, która reguluje wewnętrzny kształt sieci. Lokalne interakcje wytwarzają w niej złożone organizacje wyższego rzędu, jednostki działając z pozoru chaotycznie tworzą zbiorowe wzorce i matryce. Dynamikę roju cechuje jednocześnie „amorficzność” i skoordynowany „porządek”, balans sił i wypadkowych wszystkich biorących w nim udział [198]. To formuła zdolna do podtrzymywania własnego status quo i regulowania wszelkich zmiennych jej dotyczących.

Skupię się po tej wstępnej charakterystyce kultury wizualnej na wizualizowaniu danych. Sens tej praktyki można, po pierwsze, rozpoznać idąc tropem ustaleń psychologii percepcji i kogniwistyki. To dyscypliny, które generują wiedzę o tym, jak postrzegamy i jak rozumiemy rzeczywistość odbierając i analizując docierające do nas bodźce. Współczesna wiedza o pracy mózgu podpowiada, że łatwiej jest mu rozumieć i interpretować informacje, które mają postać wizualną. Kiedy lewa, analityczna półkula zajmuje się obróbką liczb, liter i generalnie informacji, prawa jednocześnie przetwarza kolory i kształty, a zatem skupia się na projekcie graficznym. Kiedy obie zajmują się tym samym bodźcem, to nasze myślowe zaangażowanie wobec niego jest pełniejsze, bardziej emocjonalne, wywołuje pozytywne utrwalenie w pamięci. Mózg identyfikuje i interpretuje kształty, proporcje i kolory jako nierozłączny element przekazu, nie pomijając wysublimowanych związków pomiędzy treścią a formą [223].

Pisałem o wizualizacjach danych jako interfejsowej estetyce coraz bardziej powszechnej na styku cyfrowości i kultury. Za pomocą wizualizowania możliwe jest kulturowe wykorzystywanie danych jako zasobów informacyjnych i wpuszczanie ich w szeroki obieg kultury. Analizowałem także różne cyrkulacje i obiegi danych, które da się zauważyć w cyfrowym ekosystemie. Chciałbym teraz zwrócić uwagę na zjawisko łączące dwa poprzednie. Chodzi o kulturowe i społeczne informowanie danych. To zbiór praktyk, których wspólnym zadaniem jest tworzenie zasobów wiedzy i kultury w oparciu o surowe dane, translacja surowych danych na pełnowartościowe semiotycznie informacje. Nie ma przy tym znaczenia ani pochodzenie danych, ani ich rodzaj – wszystkie dane na jakimś etapie kontaktu z nimi domagają się takich interpretacji. Tylko wtedy możliwe jest osiągnięcie nad nimi poznawczej władzy, kontrolowanie ich formy i efektywne wykorzystywanie, kiedy zostają oznaczone, posegregowane według semiotycznych kryteriów i przetłumaczone na dostępne w kulturze kody komunikacyjne (interfejsy).

Wraz tymi ideami i ich technologicznymi wcieleniami rozpoczęła się historia rzeczywistej taktylności mediów (to pojęciowe echa teorii McLuhana), których różne interfejsowe elementy stały się haptycznymi przewodnikami komunikującymi w obu kierunkach, pozostając jednocześnie znakami, nie tracąc w wyniku ich mechanicznego uruchamiania przypisanych znaczeń. Epoka medialnych studiów reprezentacji rzeczywistości zaczęła w ten sposób ewoluować ku ich rozpływaniu się w uniwersum interaktywności. Przy tym interaktywne jest tu pomostem pomiędzy tym, co wirtualne i realne, symboliczne i materialne, odbiorem i nadawaniem, postrzeganiem i tworzeniem. Po fazie kultury samorozumiejącej się jako tekst (okoliczności zwrotu lingwistycznego), przez fazę kultury symulującej (okoliczności zwrotu wizualnego) mamy do czynienia – wraz z narodzinami uniwersum cyfrowego – z fazą zwrotu ku realności i materialności. Kulturoznawca Hal Foster twierdzi, że dla współczesnej sztuki (kultury w ogóle) najważniejszym punktem odniesienia staje się to, co jeszcze nie zostało poddane erozji krążenia znaczeń i symulacji wizualnych, czyli nasza cielesność i nietknięte kulturą zjawiska społeczne, a może lepiej – społecznościowe, trybalne [263]. Gdyby chcieć te ogólne zmiany kulturowe ograniczyć do terytorium komunikacyjnego, to można by je opisać według przejścia, które Peter Weibel określa mianem przekształcania się imperium znaków (Barthes) w imperium interfejsów [264].

Pozostając w obszarze map uzupełnijmy tę ogólną diagnozę interfejsowego zwrotu o teorie i metafory Deleuze’a i Guattari’ego związane z przestrzenią oraz jej postrzeganiem i rozumieniem. Teoretyczne intuicje filozofów, wynikające z badań nad organicznymi i kulturowymi uwarunkowaniami percepcji i jej naturalnego sensorium, tworzą imaginacyjny grunt, w którym sytuuje się haptyczny potencjał cyfrowej wizualności i taktylna logika medialnych gestów użytkowników cyfrowych technologii. Efemeryczne propozycje językowe i pojęciowe francuskich filozofów w tym zakresie rysują generalny podział pomiędzy widzeniem hierarchicznym a widzeniem rizomatycznym. Francuzi odróżnili także pojęcia przestrzeni gładkiej (smooth space) i przestrzeni pręgowanej (striated space). Ta pierwsza kategoria odnosi się do środowiska naturalnego i krajobrazu, w którym operuje podmiot. Nie ma ona granic ani centrów. Jej percepcja implikuje płynne doznania i wyobrażenia wynikające z doświadczenia takich niestałych, amorficznych elementów, jak morze, wiatr, piach, czas, dystans. Jest ona bardziej haptyczna niż optyczna, tj. ma namacalną, dającą się sensorycznie odczuć fakturę. Można ją skojarzyć ze sferą nieświadomości. Wymaga nieustannego przystosowywania się, cechują ją krótkie stany, zbliżenia, wariacje, przeżycia, odczucia. U siebie są tu nomadowie, a źle czują się bez wytyczonych ścieżek pielgrzymi. Przestrzeń pręgowana jest natomiast homogeniczną w strukturze siatką powiązań, zależności i hierarchii, które wytyczają na niej kulturowo, przez działania polityczne, ekonomiczne, historyczne w ogóle, ustanowione linie demarkacyjne (blizny). Wpisane są w nią znaczenia i hierarchie, zależności i perspektywy [265].

Wizualne bazy danych, które zrastają się ze swoimi dotychczasowymi interfejsami mieszczą się w centrum krajobrazu postmedialnego. Unieważniają zarówno dotychczasową funkcję i język mediów, jak i regułę terytorium, osłabiają kulturowy dystans między nimi do niemal niepercypowanej, znajdującej się na granicy kultury percepcji różni. Za sprawą taktylnych map-interfejsów terytorium zrasta się ze swoją reprezentacją, przekraczając nawet borgesowsko-baudrillardowskie wyobrażenia o skutkach takiego stanu – terytorium staje się bowiem, śladem mapy, kartograficzną bazą danych, którą daje się prostymi, wizualnymi interfejsami manipulować. Bazodanowa mapa konstruuje terytorium i zarządza nim, a nie tylko je poprzedza [267]. Bruno Latour powiada, że terytorium staje się w ten sposób jedną z przestrzeni ryzyka, raczej mimetyczną a już nie tradycyjnie abstrakcyjną, nawigacyjną {[268]. Kartografia zaś w obliczu tych zmian zmienia się nie tylko na drodze od hierarchicznych narracji do społecznościowych praktyk, ale zbliża się także ku kartografii semantycznej, w której nie chodzi już o obrazowanie i reprezentowanie terytorium naturalnego i cywilizacyjnego, ale jego kulturowe modelowanie, opowiadające/konstruujące świat przez pryzmat różnych, dobieranych w tym celu, kryteriów symbolicznych. To dlatego najbardziej dziś intrygujące nie są już obrazy/mapy odbijające wiedzę o materialnym świecie, nawet te najbardziej doskonałe, ale mapy, które pokazują świat społeczny, kulturowy, symboliczny. Takimi są mapy społecznościowe, w których na topografię miasta nałożona jest wizualizacja najchętniej odwiedzanych w nim miejsc, najciekawszych tras spacerowych czy obszarów, gdzie spotkać można określone grupy ludzi [269].

Bliskość wobec mapy i jej postrzeganie jako żywego organizmu/terytorium powiązane są nie tylko ze społecznym i indywidualnym zaangażowaniem w jej indeksowanie, ale także ze zmieniającym się na skutek takich medialnych bytów kulturowym postrzeganiem przestrzeni, jej wyobraźnią. Rozumieć przestrzeń, podobnie jak i zmieniającą się czasie filozofię kartografii i formę mapy, to uznać ją za zmienny w czasie kod, jedne z wielu kulturowo-społecznych okularów, przez które przyglądamy się światu. Kod ten zmienia się historycznie i geograficznie w ramach takich faktorów, jak spojrzenie lokalne i globalne, zdystansowane i immersyjne, rytualne i strukturalne [270]. Tę kulturową dynamikę patrzenia potwierdza bliskość wobec współczesnych map, immersja w nie i splatanie się kartograficznych wytworów z terytorium. W ten sposób objawia się moc sprawcza sytuacji postmedialnej – jest ona w stanie podkopać fundamenty nawet takich kulturowych dogmatów, jak materialne, naturalne terytorium.

Pozostając wciąż przy interfejsach taktylnych i ich związkach z wizualnością, a wychodząc poza bezpośrednie skojarzenia z kartografią i mapami, przyjrzyjmy się teraz jednemu z najbardziej oczywistych w swej taktylno-wizualnej formie projektów, który ma szansę stać się jednym z drogowskazów w rozwoju cyfrowości w ogóle, wytyczając kierunek od rzeczywistości wirtualnej ku rzeczywistej wirtualności. Chodzi o projekt interfejsu Sixth Sense autorstwa amerykańskiego inżyniera i projektanta hinduskiego pochodzenia Pranava Mistry. To osobisty interfejs służący w zamyśle codziennej obsłudze popularnych czynności związanych z używaniem cybertechnologii. W prosty sposób sprawdzimy dzięki niemu pocztę, zrobimy zdjęcie, przeczytamy gazetę czy napiszemy fragment tekstu. Wszystkie te działania możliwe są tu jednak nie dzięki domyślnym ich interfejsom – klawiaturze, ekranowi, łączom internetowym – ale za sprawą obrazów wyświetlanych na dowolnej materii, na której możliwa jest projekcja światła. Monitorem a zarazem panelem dotykowym staje się dla tego interfejsu dowolna ściana, ręka, odzież. Z pomocą obrazu rzutowanego przez komputer połączony z niewielkim projektorem światła całą otaczającą rzeczywistość można potraktować jako element interfejsu. Świat staje się w tym projekcie jednym wielkim zbiorem przycisków, klawiaturą i myszą, którymi go obsługujemy [271].

Tak oto zarządzanie bazą danych, czy też bardziej ogólnie – obcowanie ze światem cyfrowym skonstruowanym w oparciu o jej gramatykę, stało się działaniem sprzężonym z naszą motoryką, przeniknęło do fizycznego świata przekraczając wszelkie granice dotąd te dwa „programy” rzeczywistości separujące. Taktylność/haptyczność obrazo-ekranów i zatomizowanych interfejsów to sytuacja, która różnie jest interpretowana na gruncie teorii interakcji i teorii interfejsów. Na początku pierwszej dekady XXI wieku kanadyjscy krytycy technokultury, A. Kroker i M. A. Weinsten, tak ostrzegali przed nadmiernym zbliżaniem się do siebie ciał i maszyn cyfrowych, które miałoby skończyć się symbolicznym wchłonięciem cielesności przez wirtualność [272]:

Technotopia to znikanie: ciała w relacyjnych bazach danych, systemu nerwowego zanużonego w logarytmach i skóry ewoluującej w kierunku wetware. Kiedy technologie ożywają i przybierają formę unikalnych gatunków, wchodzimy w okres końca (ludzkiej) historii i początek historii wirtualnej. To czas nieustannej cielesnej cyrkulacji pomiędzy synapsami a technologicznymi magazynami danych: sieciami.

Jak się okazało, tego typu kulturoznawcze obawy pozostały w cieniu cyberoptymistycznego dyskursu emancypacji cielesności w cyberświecie, głoszonej przez takie postaci, jak Donna Haraway z jej cyberfemistycznym Manifestem Cyborga [273], czy dyskursu nowej dyscypliny zajmującej się relacjami ciała i techniki, kogniwistyki. Jej przedstawicielom, wywodzącym się z dotychczasowej psychologii, neurobiologii, psychiatrii i studiów kulturowych, można jednak zarzucić zbytni uniwersalizm, uproszczenia i redukcjonizm: według ich krytyków ze szkoły teorii aktywności (Leontiev, Vygotsky) stworzyli oni jedynie mechanizm rozumienia interakcji człowiek-komputer jako sfery budowania takich rozwiązań interakcyjnych, które generowałyby mentalne odpowiedniki matematycznego software. Myślenie (a zatem percepcję, myślenie abstrakcyjne i działanie według niego) kognitywiści ci rozumieli jako uniwersalną strukturę, którą można odczytywać komputerowo, w taki sposób ją analizować i poddawać programowaniu – stworzone komputerowo matematyczne modele percepcji i myślenia następnie kodować według wszelkich znanych zasad matematycznych, stosując sprzężenie zwrotne pomiędzy człowiekiem i maszyną. W tym podejściu popularność zyskały takie hipotezy, jak ta o strukturalnym podobieństwie mózgu do komputera, o możliwości budowy w oparciu o rozpoznania w tym polu sztucznej, matematycznej inteligencji, itd. Myślenie tego typu dominowało wśród technokratycznych zwolenników rozwoju cybertechnologii.

Innym, skrajnie różniącym się od kognitywistyki, tropem metodologicznym, który warto przyłożyć do obszaru interakcji pomiędzy cyfrowymi maszynami i ich użytkownikami, jest etnometodologia. Doszukuje się ona sensów w ludzkich działaniach bez odwołań uniwersalnych, ani tych biologicznych, ani technologicznych. Na pierwszym miejscu stawia natomiast konkretny kontekst sytuacyjny i kulturowy, w którym wypadł działać człowiekowi i zbiorowościom. Etnometodologia rozumie działania jako kulturowo i środowiskowo uwarunkowaną improwizację wobec zmieniających się okoliczności. Nie ma zatem mowy o uniwersalnych prawdach dotyczących percepcji, myślenia, zachowania – są za to mikrodziałania i kulturowo-środowiskowe ich uwarunkowania, do których zaliczyć należy także technologie, a w szczególności technologie komunikacyjne. Takie unikające generalizacji rozumienie i dyskurs naukowy można w zasadzie określić mianem antyteorii. Oba skrajne stanowiska zdaje się godzić wielowątkowa teoria aktywności, która stara się przyglądać aktywnościom rozumianym jako holistyczne działania podmiotu angażującego w nie psychomotorykę i sferę emocjonalno-racjonalną, osadzonego w konkretnym kontekście kulturowym, technologicznym i społecznym [274].