Czytaj książkę oznaczoną tagiem: sieć

Kondycja postmedialna materializuje się na skutek synergii funkcjonujących i rozwijających się paralelnie obszarów kulturowej i komunikacyjnej sceny współczesności. Postmedialność narasta jednocześnie: w sferze techniki, gdzie wspiera się na takich procesach, jak konwergencja, wirtualizacja, obecność software, interfejsów i protokołów; w polu społecznym, gdzie ma miejsce socjalizowanie technologii medialnych wyrywanych systemowi kultury masowej i wynikające z tego procesu sieciowanie, emancypacja użytkowników oraz powstawanie społeczeństwa informacyjnego i sieciowego; oraz w polu antropologicznym, gdzie przekształceniom podlega zbiorowa wyobraźnia komunikacyjna wraz z zakorzenionymi w niej kompetencjami medialnymi i objawiają się nowe postawy i logiki komunikacyjne.

Tak zdefiniowany software to przestrzeń postmedialna, w której dochodzi do renegocjacji władzy i stosunków społecznych, kiedy biorące udział w jego tworzeniu, dystrybucji i implementacji grupy społeczne doskonale radzą sobie bez pomocy, pośrednictwa czy regulacji systemu politycznego i ekonomicznego (open software, social software). Za jego sprawą ma również miejsce postmedialna renegocjacja ustalonych pozycji antropologicznych na linii człowiek-technika, szczególnie zaś w zakresie antropologii i socjologii interfejsów medialnych. Wreszcie dzięki software wprawiane jest w ruch i podtrzymywane w tym dynamicznym stanie uniwersum cyfrowych danych. W rezultacie odmienia się zupełnie ich kultura, ekonomia i ekologia, pojawiają się nowe kształty i cyrkulacje informacyjne, takie jak kultura otwarta (open culture), alternatywne obiegi i społeczne cyrkulacje danych, sieci grupujące ich użytkowników, piractwo i dyskursy poświęcone dostępowi do danych i informacji [35].

To wszystko czyni z software przedmiot niejasny i domagający się nieustannej uwagi poznawczej. Trudno się dziwić, że wielu współczesnych medioznawców gotowych jest wskazywać jego centralną pozycję w cyfrowym świecie. Nie brakuje jednak i głosów skrajnie przeciwnych wobec tego typu deklaracji. Friedrich Kittler, niemiecki medioznawca, stwierdza kategorycznie: there is no software! Wszystko, argumentuje, co przyjęło się oznaczać tym mianem, da się sprowadzić do postaci najprostszych, powtarzalnych czynności wykonywanych przez maszyny cyfrowe: kontroli zmian napięcia w elementach struktury hardware. Rozbudowane manipulacje kodu, poetyka software to w gruncie rzeczy jedynie regulacje dotyczące milionów dziejących się jednocześnie w cyfrowym urządzeniu stanów napięcia elektrycznego, oferujących jedynie onoff. Kittler rozumie software analogicznie do dziewiętnastowiecznych, w duchu będących konsekwencją kartezjańskiego dualizmu, wyobrażeń na temat pracy mózgu – miała ona polegać na skomplikowanej mechanice wymian napięć elektrycznych pomiędzy poszczególnymi ośrodkami. W identyczny sposób na fundamentalnym poziomie technologicznym działa także software: zera i jedynki kodu zmuszają hardware – procesory, czipy, macierze, do reagowania na obecność napięcia elektrycznego lub jego chwilowe braki. Poziom ten jednak w praktyce codziennego użycia komputerów jest dla użytkowników niedostępny ze względu na jego polityczne i strategiczne znaczenie dla bezpieczeństwa samej maszyny i ochrony jej struktury przed przeprogramowaniem (w ten sposób chroni ją na przykład oprogramowanie BIOS; bezpośredni asembler i emulator, który zamienia instrukcje software na czynności mechaniczne hardware). Softwarem można by nazwać jedynie miliardy nakładek rozpisanych w gramatyce cyfrowego kodu, które mają wartość użytkową, co znaczy, że są to programy, aplikacje, elementy interfejsu, itd. Uobecniają one jednak „software’ową wieżę Babel”, bowiem spora ilość języków programowania, formuł łączenia się ich ze sobą i możliwych form współpracy z asemblerami oraz wszelkie pozostałe uwarunkowania systemowe powodują, że pierwotny język informowania elektryczności o jej przebiegu zostaje nimi zupełnie przesłonięty. Staje się przez to czymś na podobieństwo archaicznych języków, których używać są w stanie już tylko pasjonaci i specjaliści, które jednak na stałe wpisane są w struktury nowych – wniosły do nich reguły gramatyczne, semantyczne, tak jak łacina do współczesnych języków cywilizacji zachodniej. Dopiero dostęp do fundamentalnego, ukrytego poziomu pozwala na prawdziwą władzę nad technologią maszyny obliczeniowej, która zaczyna się w momencie, kiedy możliwa jest kontrola nad fizyczną pracą hardware, bezpośrednia kontrola płynącej w jego elementach elektryczności [37].

Kolejną postmedialną rekonstrukcją współczesnego świata, która dokonuje się w obszarze technologicznym, jest przejście od mediów stacjonarnych do mediów mobilnych. Ta zmiana, którą teoretycy zaczynają powoli tagować mianem „zwrotu mobilnościowego” (mobile turn), dotyczy deregulacji technologicznej struktury ekosystemu medialnego, powielającej dotąd stabilnie usytuowaną geograficznie, kulturowo i społecznie hierarchię bytów. Dotychczasowe hierarchiczne doświadczenie mediów było fizycznie związane z konkretnym miejscem, czasem i technologią – niech emblematem tego stanu rzeczy będzie klasyczna sytuacja telewizji, której fale nadawane z centrali (zarówno technologicznej jak i merytorycznej) pokrywają swoim zasięgiem obszar wyznaczany przez granice geograficzne, polityczne i ekonomiczne, zaś sam odbiornik telewizyjny uzależniony jest od źródła energii elektrycznej na zasadzie „przywiązanego” do gniazdka kabla. Mobilnościowa deregulacja tego stanu rzeczy powoduje natomiast, że zdolne do tymczasowego odłączenia od sieci dystrybucji energii potrzebnej do zasilania urządzenia cyfrowe mogą funkcjonować, przynajmniej przez jakiś czas, gdziekolwiek je ze sobą ich użytkownik zabierze. Dodatkowo uwolnione z ustawionej na „sztywno” infrastruktury przesyłowej interfejsy nic nie tracą ze swojego sieciowego potencjału, bowiem sieci wraz z nimi rozproszyły się w fizycznej przestrzeni – dostęp do nich możliwy jest dzięki różnym protokołom (wi-fi, gps, bezprzewodowe i przewodowe sieci internetowe) i standardom użytkowym/interfejsom (tablet, nawigacja, laptop) oraz protokołom komunikacyjnym, dla których jedynie jedną w wielu dostępnych opcji jest telewizyjna sytuacja jeden-do-wielu bezzwrotnie [38].

Około roku 2005 zdiagnozowano przełom w cyfrowej kulturze. Przedsięwzięcie ekonomiczne i kulturowe znane powszechnie jako „Internet” miało złapać drugi oddech, otrząsnąć się ze skutków katastrofalnego w sensie ekonomicznym okresu tzw. bańki dotcomów i wkroczyć do krainy Web 2.0. Momentem przesilenia okazały się krachy giełdowe przeinwestowanych i nienaturalnie zarządzanych fuzji, eksperymentów czy operacji giełdowych i strach przed „pluskwą milenijną” około roku 2000 (pośród nich szczególne znaczenie miała nieudana fuzja AOL i Time Warner – największego dostawcy usług internetowych w Stanach i jednego z największych przedsiębiorstw branży rozrywkowej z roku 2001). Po tym symbolicznym oczyszczeniu i restarcie kluczową rolę w nowych okolicznościach odegrać miały zastępy userów i tworzone przez nich wirtualne społeczności (o których przeszło dekadę wcześniej pisał Howard Rheingold [41]) – obdarzeni w nowej filozofii cyfrowego świata należnym im miejscem kreatorów i najważniejszych decydentów. W nowej mitologii cyfrowego świata chętnie przyznawano im zdolność do podjęcia roli wcześniej sprawowanej przez korporacje, rządy i organy kontroli i sugerowano, że kształt cyfrowości jest od tego momentu wyłącznie w ich rękach. Te i podobnie brzmiące nowe „reguły gry” zostały okrzyknięte mianem konstytucji odnowionej, społecznościowej wersji Internetu. Tezę o cyfrowym restarcie wspierały najważniejsze „tradycyjne” media. Rok 2005 BBC ogłosiło rokiem cyfrowego obywatela (The Year of Digital Citizen), a niedługo potem amerykański Time nadał prestiżowy tytuł człowieka roku (Time Person of the Year) każdemu poczuwającemu się do tego miana kreatorowi zawartości Internetu, który miał okazję zobaczyć swoje odbicie w lustrze zamieszczonym na okładce magazynu [42]. W taki sposób przedsiębiorstwa i koncerny medialne, zakorzenione w systemie poprzedniej analogowej, epoki ogłosiły rekonstrukcję projektu cyfrowego pod szyldem społecznej emancypacji wobec sił technopolu i zawłaszczonych przezeń cyfrowych narzędzi[43].

Wśród wymienionych tu trzech wektorów lokujących postmedialną zmianę właśnie ich redefiniowanie społeczne, zapoczątkowane, nagłośnione i podtrzymywane przy okazji wspomnianej narracji o cyfrowym zwrocie 2.0, wydaje się miarą najbardziej istotną, definiującą nową medialną sytuację społeczno-kulturową. Kształt społecznych relacji rozciągających się na cyfrowej platformie technologii komunikacyjnych może być świadomą antytezą stawianą przez coraz bardziej świadome roli i języka technologii społeczności i kultury wobec analogowego systemu kultury masowej, show-biznesu i jednokierunkowości komunikacji społecznej. Emancypacja ta, co ciekawe, dokonuje się również pomimo nowych scenariuszy i metod ekonomicznych i rynkowych, pomimo pragnących ją skanalizować i wyzyskać korporacji i innych „analogowych” graczy. Dla wielu użytkowników cyfrowych technologii i sieci okazała się ona początkiem nowej epoki komunikacyjnej, którą coraz chętniej także i krytyczni medio- i kulturo-znawcy określają mianem ery mediów społecznych (social media), stawiając tę nową jakość na równi z logiką społeczeństwa sieci [44].

W społecznym otoczeniu cyfrowych mediów jak nigdy wcześniej widać wiązane z technologiami komunikacyjnymi nadzieje i oczekiwania obywateli, konsumentów i użytkowników. Chyba po raz pierwszy w historii technologii komunikacyjnych są one tak bezpośrednio i świadomie formułowane i upowszechniane na masową skalę. Mieszkańcy cyfrowego świata są w stanie taktycznie reagować na bieżące zmiany w medialnym ekosystemie i modyfikować jego systemowe strategie w oparciu o wespół podejmowane decyzje i przygotowywane scenariusze. Daje się zauważyć opozycyjna linia społecznego wykorzystania nowych technologii, w której definiujemy je jako jedno z kluczowych narzędzi emancypacji społecznej i kulturowej. Cyfrowe technologie są/mają być technologiami wolności (technologies of freedom – jak niegdyś nazywał media Ithiel de Sola Pool [45]) służącymi decentralizacji i dehierarchizacji komunikacyjnego wymiaru życia społecznego (wolna kultura, wolność informacji), mają demokratyzować i otwierać kulturę (open culture) i sprzyjać rozwojowi demokratycznej sfery publicznej. Trudno nie ulec urokowi tych mających różne źródła i przez różne podmioty propagowanych idei i wyobrażeń. Nawet jeśli nie odnajdujemy ich potwierdzenia w kontakcie z samymi cyfrowymi technologiami, które oferują mobilność, wielostronność komunikacji i jej współautorstwo, to cóż szkodzi dać się urzec tej niezwykłej mitologii, która im towarzyszy? W praktyce życia społecznego, co potwierdzają liczne wypowiedzi na wielu różnych łamach, dla większości userów cyfrowe technologie i łączące je sieci stały się synonimem wszystkich przywołanych wartości, inicjacją nowego porządku kulturowego – kulturową sytuacją 2.0.

Zwrot 2.0 i wszelkie inne pojęciowe „zaklęcia” wykorzystujące programistyczny marker 2.0 (kultura, media, społeczeństwo, komunikacja 2.0) to jednak nie tylko skumulowana energia społeczna napędzająca rewolucyjną zmianę w komunikacyjnym systemie społecznym. Samo sformułowanie i kryjąca się za nim semantyka zostały podchwycone i przetłumaczone na wymogi konstrukcji rynkowych i politycznych przez głównych aktorów analogowej sceny medialnej – państwa, podmioty gospodarcze i rywalizujące ze sobą kultury. Narracja o zmianie 2.0 to w rezultacie przerysowana marketingowo i podszyta parametrami merkantylnymi kultury masowej próba wykorzystania i zawłaszczenia społecznej energii, którą uwalniają i akumulują cyfrowe światy przez istniejący system instytucjonalnoprawny sprzężony z technologicznym instrumentarium. Wiele wskazuje na to, że sytuacja 2.0 okazać się może ważnym placem boju pomiędzy siłami tradycyjnie zawłaszczającymi pole kultury a emancypującymi się obywatelami, twórcami, konsumentami. Stawką jest tu nie tylko kontrola techniki i wszelkich zależnych od niej podsystemów społecznych i kulturowych. Jest nią także, a może przede wszystkim, kształt kultury w ogóle oraz autodefinicja podmiotu w nią zanurzonego. Dla tego metasporu wpisanego na stałe w kształt kultury potyczka o semiotyczną władzę nad pojęciami z rodziny „2.0” to jedynie drobny, jeden z wielu podobnych epizodów. Początki tych przekształceń i związane z relacjami społeczności-technika emanacje ideologiczne, polityczne i ekonomiczne sięgają czasów antycznych. Z biegiem wieków społeczeństwa i kultury przyzwyczaiły się do sytuacji, w której władzę nad kulturą ma ten, kto ma dostęp do technologii i za jej pomocą potrafi zawładnąć zbiorową wyobraźnią komunikacyjną, zdefiniować komunikacyjne reguły, opanować przypisane im formy i budować swoją pozycję w oparciu o reglamentację dostępu do medialnego świata i sposobów używania go. Tak było z papirusem i pismem zawłaszczonym przez ówczesnych egipskich technokratów, z wykorzystaniem telegrafu, radaru czy broni pancernej (Blitzkrieg) w teatrze działań wojennych. Tak jest i dzisiaj w obliczu cyfrowego wyścigu zbrojeń, w którym stawką jest stworzenie software zdolnego przejąć kontrolę nad pozostałymi zasobami tej sfery czy sieci zdolnej kontrolować inne sieci. Wokół nośników informacji wybuchały groźne konflikty zbrojne i powstawały potęgi gospodarcze i informacyjne. Tak jak historycznie było to np. w przypadku pergaminu, czyli konkurencyjnego wobec papirusu nośnika informacji, który podważając technologiczny monopol Egipcjan spowodował dynamiczny rozwój miasta Bergama (na terenie dzisiejszej Turcji) i zarazem dziejowe dla niego zagrożenie. Rozwój ówczesnych technologii informacyjnych był czynnikiem politycznej i cywilizacyjnej zmiany; ujarzmione i kontrolowane media decydowały o rozwoju ośrodków miejskich, mocarstw i kultur. Dostęp do technologii, reglamentowanie i definiowanie komunikacyjnych norm ich wykorzystania, to zatem wymierny element władzy politycznej i kulturowej kontroli. Sięgano po nie w historii niezwykle skutecznie, nie bez przyczyny np. media masowe epoki analogowej nazwane zostały czwartą władzą. Zjawisko upolityczniania, ideologizowania i kontroli za sprawą technologii komunikacyjnych zyskało w związku z tym społeczną przeciwwagę. Stając się jednym z najbardziej pożądanych przymiotów dominium politycznego media zdefiniowane zostały w ramach stosunków społecznych jako sfera, której emancypacja może otworzyć i uwolnić kulturę w wielu jej obszarach od systemowych reglamentacji, limitacji i ideologizacji.

Nie sądzę jednak, aby społeczną „dzikość” i „świeżość” cyberświata można było wyjaśnić jedynie przez niedojrzałość społeczną jego mieszkańców i kierujące nimi, jak tego chce Pasquinelli, niskie pobudki i instynkty. Medialna rewolucja społeczna zapoczątkowana wraz z kulturową trajektorią technologii cyfrowych to projekt dopiero rozpoczęty, jeszcze młodszy niż sam cyfrowy ekosystem. Jest obecnie w fazie, w jakiej rewolucje zazwyczaj znajdują się na początku swojego impaktu. Widać zaledwie pierwsze nowo ustanawiane konfiguracje i przesunięcia, takie jak np. nasilające się „szabrowanie” struktury i „majątku” starego systemu: taki wymiar ma w dużej mierze piractwo. Z narastającą siłą objawiają się inne podobne partyzanckie strategie wywrotowe; tak działają spamerzy, hakerzy, niektórzy twórcy hardware (doi-it-yourself hardware), środowiska skupione wokół portalu wikileaks.org, które dzięki cyfrowym narzędziom i sieciowym formom komunikacji obnażają niedoskonałości istniejącego systemu, prześwietlając jego ekonomiczne, polityczne i militarne zasoby. Wreszcie coraz bardziej nerwowo czują się i zachowują w obronie swoich dotychczasowych pozycji także beneficjenci „analogowego” systemu medialnego, którzy wciąż jeszcze liczą na to, że to, co rewolucją bywa w ich odczuciu jedynie naiwnie i na wyrost nazywane, okaże się w rezultacie jedynie niewielką korektą zastanego stanu rzeczy. Tak to przecież zaplanowali inspirując i forsując mitologię o medialnej kulturze 2.0.

Wpływowy holenderski krytyk Internetu Geert Lovink jest przekonany, że obecne stadium tzw. mediów społecznych pod szyldem 2.0 to sprawnie wyreżyserowane przez medialne korporacje działania, których zadaniem jest pozyskanie jak największej liczby danych o użytkownikach Internetu i nowych technologii. Media 2.0 są infrastrukturą nasłuchującą i tworzącą bazy danych, które potrzebne są do podtrzymywania modeli biznesowych w cyfrowym świecie – odwołam się raz jeszcze do tego wątku moich analiz. Dyskursywnej i społecznej zarazem niemocy mediów 2.0 dowodzi zdaniem Lovinka „tragedia komentarzy”, czyli ich zupełny brak w przeważającej ilości sieciowych miejsc dialogicznych. Zamiast nich doskonale funkcjonują działania i dyskursy pozorne, znaki faktycznych działań, dla których ikonami są przycisk „lubię to” na Facebook.com czy ćwierknięcia na Twitter.com [51]. Powstające w ten sposób dane, kapitał społeczny, okazują się jedynie kapitałem ekonomicznym, który służy interesom wchodzącym w jego posiadanie dostawcom infrastruktury. Praw do niego już z chwilą współtworzenia pozbawiani są zaś jego twórcy, którzy dla przykładu nie mają możliwości usunicia z Facebook.com trwale swojego profilu. Wraz z tymi prawami tracą oni także możliwości posługiwania się nim w inny, niż przewidziany przez dostawców, sposób. Niedawno głośna była seria wirtualnych samobójstw dokonywanych przez użytkowników na swoich społecznościowych profilach w proteście przeciwko polityce tych firm wobec danych użytkowników. Portale skutecznie zablokowały te subwersywne działania [52]. Wrócę do tematu pozyskiwania w ten sposób danych w części poświęconej postmedialnej roli baz danych.

Jeśli jednak media 2.0 nie spełniają kryteriów, które można by postawić wobec projektu mediów społecznych, to czy cyfrowe technologie połączone w sieciach mają szansę wyrwać się z uścisku technopolu i stać się faktycznie przestrzenią społeczną nowego typu, którą cechować będą przymioty wolności, otwartości, kreatywności, itd.? Sądzę, że obecny etap komercyjnie i politycznie inspirowanych i dyskretnie koordynowanych ruchów pseudospołecznościowych cechują dwa stany, które są charakterystyczne dla postmedialnego zwrotu. Po pierwsze, kontrola technopolu nie jest już tak skuteczna, jak w przypadku mediów masowych – w szczelnym dotąd systemie zdarzają się poważne wycieki i uszkodzenia, których nie da się już starymi metodami eliminować. To wspomniane wikileaks, działania hakerów, dziennikarstwo obywatelskie, piractwo. Po drugie, to interaktywność nowych technologii i egalitarny charakter cyfrowego kodu, do którego manipulacji i implementacji w formie software i protokołów mają zasadniczo dostęp wszyscy zainteresowani dysponujący odpowiednimi kompetencjami. Dostęp do kodu i możliwość użycia go wedle własnej wiedzy, wyobraźni i możliwości uruchomiły rzeczywistą emancypację technologiczną na niespotykaną wcześniej skalę. Skorzystanie z jej możliwości nie jest jednak ani automatyczne, ani proste. Wymaga wiedzy, której nie da się nabyć przez dekodowanie zawartości tych mediów. Potrzebne jest tu dekodowanie samych technologii i sterującego ich działaniem kodu, a to kompetencje, których wyrobienie wymaga przewartościowania w obszarach wiedzy, edukacji, wyobraźni kulturowej, prawa. Jeśli projekt cyfrowy można rozpatrywać w kategoriach uspołecznienia technologicznego środowiska komunikacji zbiorowej, to polem dla takiej refleksji jest właśnie ta emancypacyjna siła cyfrowych reguł, które do nikogo nie należą, nikogo nie preferują, nie mają formalnych ograniczeń. Można je opisać oczywiście jedynie na najbardziej fundamentalnym poziomie gramatyki technologicznego języka cyfrowości, gdzie istnieją cyfry i ich logika, czyli matematyka, oraz elektryczność jako przedmiot materializujący działania matematycznej abstrakcji. Wszystko, co istnieje w tym projekcie powyżej owego bazowego poziomu, jest już polityczne, wchodzi w reakcję z istniejącym systemem – staje się kwestią ekonomii zasobów kultury, społecznego systemu ról komunikacyjnych, regulacji prawnych, itd. Tylko towarzyszące rozwojowi technologicznemu nowego typu kompetencje medialne mogą tu zagwarantować faktycznie uspołecznioną kulturę mediów.

Spór o technikę zakorzenił się w wyobraźni społecznej i kulturowym dyskursie tak głęboko, że jego założeń nie są w stanie naruszyć ani radykalne zmiany technologiczne, które odmieniły oblicze technologii medialnych (cyfrowość, sieci i nowe media), ani rynkowe i polityczne narracje opiewające medialną „wiosnę ludów”. Rzeczywistość społeczna będzie się w tym zakresie zmieniała wolniej od okoliczności politycznych i technologicznych, stosowne zmiany zostaną społecznie wychwycone z czasem i dopiero wtedy status technologii komunikacyjnych ma szansę na zmianę. Analogiczny los spotka zapewne wyobrażenie o obywatelu zanurzonym w medialny świat. Postrzega on i rozumie siebie jako medialnego partyzanta, który znajduje się po przeciwnej niż technologia stronie barykady i stara się medialne maszyny, języki i ekosystem przechytrzyć, wykorzystać i/lub ośmieszyć. Z tego stanu rzeczy wywodzą się wszystkie najpopularniejsze medialne scenariusze rozpoznawane przez antropologów, takie jak przywołane „dzikie instynkty” piractwa, hakingu, anonimowych działań stadnych. Te wszystkie elementy współtworzą taktyczny opór wobec medialnego systemu i jego strategii, jakby to można określić odwołując się do terminologii Michela de Certeau.

W tej sytuacji kluczem do zrozumienia potencjału cyfrowej zmiany może okazać się poziom indywidualnych relacji z medialnymi technologiami. Jeśli wyjść poza narrację społecznego konfliktu o media, ich język, zasoby, ideologie, itd., wówczas dyskurs o medialnej rewolucji warto zdyskontować na polu antropologii mediów. Jak wspomniałem, generalny konflikt o media zawiera w sobie dualizm figur przypisywanych jednostkom, które stają w obliczu medialnego świata. Dyskurs poświęcony analogowej kulturze masowej uprzedmiotowił kulturowy podmiot, obarczając go cechami bierności, konsumeryzmu, podatności na manipulacje i nazywając nieznaczącym fragmentem masy, biernym konsumentem (teoria kultury masowej). Z czasem te jednoznacznie brzmiące określenia złagodzono pod postacią prosumenta, czyli aktywnego konsumenta (Toffler), odbiorcy świadomego i partyzancko walczącego z dominującą siłą medialnej ideologii na poziomie semiotycznym (studia kulturowe), współtwórcy przekazu (Eco, Barthes). Wreszcie w mitologii cyfrowej rewolucji upokarzana i niedoceniana w epoce mediacji masowych jednostka ustawiona zostaje w centrum medialnego ekosystemu. Wciąż jednak to „ja” nie istnieje tu bez „my”. Nie ma go bez społeczności, którą współtworzy i która go w medialnym świecie legitymizuje.

Ned Rositter, socjolog zajmujący się sieciowymi społecznościami, przekonuje, że w dyskusjach na temat kultury sieci często pojawia nadmierny zachwyt nad zdolnością do samoorganizacji, świadomością i autokrytycyzmem biorących udział w wirtualnych przedsięwzięciach. Jego przedmiotem jest przede wszystkim szybkość i sprawność, z jaką internauci nawiązują ze sobą kontakty, jak efektywnie i w większości wypadków mało kolizyjnie potrafią ze sobą twórczo i efektywnie współpracować. Sprawnie tworzą struktury, które, w przeciwieństwie do tradycyjnych form organizacji pracy i społecznych, mają wymiar wertykalny, są przede wszystkim oparte na podtrzymywaniu wielkiej liczby wzajemnych relacji i związków, nie zaś na pionowym zarządzaniu przepływem zasobów i władzy i wspierającą je hierarchiczną dyscypliną. Zaintrygowanych fenomenem tej sieciowej współpracy najczęściej nurtuje pytanie o to, jak sprawić, aby równie sprawne, oparte na sieciowej ekologii mechanizmy działania zaczęły pojawiać się w praktyce funkcjonowania świata offline, czyli w codziennym działaniu takich instytucji, jak przedsiębiorstwo, państwo, uniwersytet, instytucje religijne, działalność społeczna. Mówiąc inaczej: hierarchiczny świat jest zauroczony zdolnością do kreatywności i elastyczności sieciowych form współpracy realizowanych za pośrednictwem mediów cyfrowych. Stare, odchodzące powoli do lamusa, formy instytucjonalne, które starają się obserwować sieciowe zmiany i wyciągać z nich wnioski dla swojej tożsamości, można nazwać „usieciowionymi organizacjami”. Według Rosittera zastępować je będą coraz skuteczniej „zorganizowane sieci”, które będą powstawać przez przenoszenie sieciowych mechanizmów do życia offline, ich adaptację wewnątrz struktur już istniejących instytucji i tworów życia zbiorowego. „Zorganizowane sieci” oferują restytucję uśpionych w strukturach hierarchicznych form i reguł współpracy ponad wytyczonymi podziałami organizacyjnymi, świeżość i kreatywność w rozwiązywaniu skomplikowanych problemów, nieograniczoną potencję rozwoju oraz przyciąganie i zdolność do absorpcji i przetwarzania nieograniczonych zasobów. Te niewątpliwe przymioty równoważą jednak niedoskonałość strukturalną i organizacyjną sieci. Z praktyki internetowego działania wynika, że nie chaotyczne, przygodne formy kontaktu i działania sieciowego są najbardziej skuteczne, lecz te, w których nad dezorganizację przedkładana jest z czasem skutecznie zabezpieczająca efektywność forma organizacyjna [53].

Mamy w tym przypadku sprzężenie zwrotne. Sieć, ulegając prymitywnym instynktom ludzkich węzłów w niej, staje się niewydolna, popada w chaos i dezintegruje się, tracąc zdolność do praktycznego i efektywnego działania. W konsekwencji jej kreatywny potencjał domaga się klasycznych rozwiązań organizacyjnych, a tradycyjne procedury pracy i zarządzania mają doskonałą szansę adaptowania sieciowych protokołów i obyczajów, które te tradycje ożywią i wprowadzą weń ożywczego ducha kultury sieciowej. Zdezorganizowana siła sieci może skutecznie wedrzeć się ze swoją relacyjną, wszechkoneksyjną logiką do tradycyjnych reguł społecznych jedynie idąc na kompromis z już istniejącymi tu siłami i formami. Organizacja sieci na wzór tradycyjnych instytucji i form życia społecznego może okazać się dla starających się nad cyberprzestrzenią zapanować i zawłaszczyć ją siłom politycznym i technokratycznym twardym orzechem do zgryzienia. Trudno im będzie walczyć z nowym typem społecznego zaangażowania medialnego przy użyciu ich własnych narzędzi i metod [54].

Jednocześnie widać w tym rozdarciu sieciowego świata dążenie do synergii rozciągających go energii i wektorów. Sprzeciw i niechęć wobec wszelkich reguł systemowych powoduje odrzucenie także i sprawdzonych, pragmatycznych mechanizmów działania, których obecność okazuje się elementem koniecznym. W tym samym czasie tradycyjne formy organizacji społecznych otwierają się na reguły sieciowe, usieciowiają się. W obliczu tych zmian pojawiają się także mechanizmy hybrydyczne, które łączą nie tylko sieciową chaotyczną i twórczą energię i żywotność z pragmatyką i strukturami form hierarchicznych. Dochodzi w nich do połączenia czynnika ludzkiego z logiką samych maszyn i sterującego nimi hardware. Twórcy przedsięwzięcia o nazwie MobileWorks stworzyli, to jeden z przykładów na ten temat, oprogramowanie, które samodzielnie zarządza pracą wielu gotowych wykonać pojedyncze drobne zlecenia. Logując się do bazy otrzymują z niej zadania do wykonania wybrane zgodnie z ich predyspozycjami, kwalifikacjami, zdolnościami i czasem, który gotowi są poświęcić na to działanie. Pojedynczy pracujący w takich wirtualnej chmurze/firmie nie musi znać ogólnego celu swojej pracy, nie posiada wglądu w pracę pozostałych, ale realizując zlecone w ten sposób zadanie jest stroną relacji pracodawca-pracownik [55].

Nasz zachodni sąsiad, Niemcy, już od jakiegoś czasu przygotowuje się na Energiewende (an energy turn, czyli zwrot energetyczny), który ma polegać na poszukiwaniu i eksploatacji niekonwencjonalnych, odnawialnych i ekologicznych źródeł energii, oraz na gruntownej zmianie sposobu pracy infrastruktury energetycznej, tj. na decentralizacji całego systemu jej przesyłu, wykorzystania i magazynowania. Zwrot energetyczny miałby w konsekwencji charakter zbliżony do zwrotu społecznościowego (liberalnego) dokonującego się w medialnym świecie. Zmiana ta miałaby spełniać rolę przejścia od hierarchii nadawczej systemu mediów masowych do ekosystemu mediów społecznościowych. Czyż elektrowni nie odpowiada elita produkująca treść kultury, czy nadajniki to nie to samo, co słupy i sieci przesyłowe? I czy sieci społecznościowe, aktywizm społeczny i kulturowy dokonujący się za pośrednictwem technologii sieciowych i cyfrowych to niewcielone w życie założenia przyświecające twórcom Energiewende? W rezultacie Energiewende to społeczności użytkowników-producentów energii miałyby decydować o wykorzystaniu jej źródeł, zaś same źródła zmieniłyby swoją formę z pojedynczych dostawców-gigantów (tradycyjne elektrownie) w rozproszoną sieć mniejszych, uruchamianych w zależności od potrzeb i konfiguracji, generatorów [124]. Energiewende to nie tylko przestawienie gospodarki i systemu politycznego na energię ze źródeł odnawialnych, to przede wszystkim decentralizacja wytwarzania energii, społeczne zarządzanie jej zużyciem, dystrybucją i powstawaniem. To wywłaszczenie energii z rąk państwa, systemu ekonomicznego, itd., i społeczne uwłaszczenie się w tym zakresie, które doprowadzi do dekonstrukcji polityki energetycznej i jej rozbrojenia–dekonstrukcji do formy sieciowej, społecznościowej alternatywy.

Sądzę, że taka „wielka nieobecność” elektryczności w codziennej, bezpośredniej kontroli mediów cyfrowych jak i w ich medioznawczej, kulturowej teorii została nie tylko ustanowiona za sprawą wymogów miniaturyzacji hardware, bezpieczeństwa użytkowników, kwestii ekologicznych czy problemów funkcjonalnych. Elektryczność znajduje się po tej samej stronie kulturowo-naturalnych podziałów, po której znajduje się wnętrze ludzkiego ciała przesłonięte przed zmysłami szczelną granicą skóry poprzecinaną jedynie wyspami naturalnych „sensorów”. W siebie samych, w sensie fizycznym, nie mamy przecież wglądu. O tym, co się wewnątrz naszych organizmów dzieje, wiemy jedynie w przybliżeniu z podręczników anatomii i fizjologii oraz na skutek nieoczekiwanych wypadków, podczas których naruszona zostaje nasza fizyczna integralność. Osobną rolę odgrywają w poznawaniu naszego wnętrza maszyny medialne – RTG, USG, skanery na lotniskach, stetoskopy, itd. Na razie rolę anatomów i fizjologów elektryczności wewnątrz cyfrowych organizmów spełniają jedynie wybrane elity inżynierów. Można się jednak spodziewać, że podobnie jak wokół software i programowania, a zatem wokół matematyczności wcielonej w cyfrowe formy, narodziły się oddolne środowiska i ruchy obnażające, projektujące i wykorzystujące jej zasady dla własnych celów – takie jak ruchy Wolnego Oprogramowania, społeczności programistów i hakerów, tak i elektryczność hardware doczeka się z czasem podobnego w skali i zakresie zainteresowania i popularyzacji. Już dzisiaj z rosnącym wzięciem funkcjonują projekty społeczne i kulturowe, które eksperymentują z hardware i improwizują w oparciu o napędzającą go elektryczność. O tym jak bardzo potrzebne są w kulturze cyfrowej różne warianty jej wykorzystania i oswajania, różne towarzyszące jej dyskursy, niech świadczy wielka popularność ruchów DIY hardwaretweak hardware. Pośród nich najprężniej funkcjonują środowiska skupione wokół idei otwartego hardware i jego społecznościowych przekształceń dokonywanych na bazie mikrokomputerów Arduino, czy Raspberry Pi. Społeczności te wspólnie projektują, testują, przekształcają, popularyzują i wdrażają przeróżne cyfrowe systemy i instalacje w oparciu o te urządzenia; wynajdują dla komputeryzacji niezwykłe zastosowania, programują dedykowany im software, dobierają stosowny hardware i zajmują się upowszechnianiem budowanej w ten sposób bazy wiedzy o możliwościach alternatywnego wobec korporacji i systemów państwowych rozwoju projektu cyfrowego.

Stwierdziłem wcześniej, że kod cyfrowy to jednocześnie znaki, którymi w przypadku zapisu binarnego są cyfry 0 i 1, oraz łącząca je w różne formy gramatyka, w tym przypadku matematyka. Bez określonej metody operowania znakami niemożliwe byłoby budowanie na ich podstawie złożonych wypowiedzi, co w kontekście technologii cyfrowych oznacza, że bez logicznie poprawnych matematycznych formuł, algorytmów i protokołów nie można by zmusić maszyn kalkulujących do poprawnego działania. Ich funkcje odpowiadają podstawowym zasadom regulującym formy języka – konstrukcjom zdaniowym, leksykalnym, relacjom pomiędzy elementami słownika, bez których język przypominałby bezładne, sylabiczne guganie. W przestrzeni cyfrowej protokoły są regulatorami wszelkiej wymiany, transferów, łączenia się ze sobą urządzeń w sieciach. Działają jako organizatorzy i zarządcy cyfrowego świata. W mojej postmedialnej perspektywie ich działanie jest ważne o tyle, że powstały i funkcjonują nie tylko jako wyrażenia matematyczne i reguły elektryczne, są także instrukcjami (rozkazami), którym cyberprzestrzeń jest posłuszna na najgłębszym poziomie swojego istnienia. W takim sensie cyfrowy kod i elementy systemu hardware można postrzegać jako kodeks, zaś protokoły jako wcielone w technologiczne formy jego przepisy i paragrafy. Tym razem idzie tu jednak o społeczną funkcję kodyfikacji prawa, a nie o jej medialną formę, o której pisałem analizując językowe afiliacje kodu cyfrowego, o polityczną ekonomię kodu, a nie jego semantyczną naturę.

W powszechnym doświadczeniu protokoły pozostają niewidocznymi siłami, które implikują założone konsekwencje/limity regulujące kształt cybernetycznego świata hardware i software. Zamiast świadomości tego działania i wiedzy o jego skutkach mamy, jako użytkownicy cyfrowego świata, raczej intuicje i podejrzenia związane z takim stanem rzeczy. Zarówno jedne, jak i drugie wyraziła Ellen Ullman już ponad dekadę temu, pisząc:

Lubię myśleć o komputerach jako neutralnych narzędziach […] ale jest coś w systemach cyfrowych, w formalnej logice działania obliczeniowego i pracy baz danych, co nie pozwala nam na poczucie pełnej nad nimi kontroli, co tworzy ich własny, nieprzenikniony świat […] przychodzi taki moment w kontakcie z komputerem, kiedy jego wewnętrzna, tajemna logika przejmuje kontrolę nad spotkaniem człowieka z cyfrowym światem [144].

Szczególnym, wystawionym na oddziaływanie polityczne, przykładem funkcjonowania cyfrowych technologii według reguł wytyczanych przez protokoły jest sieć. Spotykają się w niej autonomiczne maszyny cyfrowe, które wyposażone są przez protokoły ITC IP we własną „podmiotowość” i dzięki niej zdolne są do nawoływania się (ping, przydzielanie adresów w sieci), nawiązywania połączeń między sobą oraz konstruowania trwałych relacji sieciowych, a pośród nich także i hierarchii zależności i władzy odzwierciedlających istniejące kształty analogowego społeczeństwa i sposoby zarządzania nim z poziomu władzy politycznej. Protokoły są matrycami (Thacker), diagramami (Deleuze) istniejącymi zarówno na poziomie rozwiązań kodowych, jak i materialnymi koordynatorami elektryczności zasilającej cyfrowe maszyny.

Sieci i przede wszystkim sieć sieci – Internet, właśnie przez pryzmat polityki i ideologii realizowanej za pomocą protokołów postrzegają w swojej teorii sieci amerykańscy teoretycy Galloway i Thacker [146]. Internet, szczególnie po wydarzeniach terrorystycznych z roku 2001, jest dla nich areną dynamicznego utrwalania relacji władzy i przestrzenią nasilającej się kontroli. Odwołując się do Foucaultowskiej, biopolitycznej koncepcji władzy i obserwacji Deleuze na temat społeczeństwa kontroli, definiują protokoły wychodząc daleko poza ich technologiczne desygnaty. Widzą w nich zarówno aparaturę, za pomocą której fizycznie spinana są węzły sieci, ale i polityczne narracje (programy, kody), które wpisane są w hardware’owe formy umożliwiające protokołom działanie [147].

Media taktyczne to media kryzysu, krytyki i opozycji […] ich typowymi bohaterami są: aktywista, nomadyczny wojownik mediów, pranxter, uliczny rapper, kamikadze podręcznej kamery wiecznie działający na ulicy, nieustannie szukający wroga [148].

Jak stwierdziłem, protokoły są także, poza ich natywną funkcją zarządzania relacji software/hardware/Network, technologicznymi wcieleniami/przedłużeniami władzy politycznej i towarzyszącej jej ideologii, szyfrem i mechanizmem przenoszącym analogowe struktury i hierarchie do cyfrowego świata. Spełniają rolę regulacji prawnych wszytych na stałe w technologiczną postać cyberprzestrzeni. Prawa te tworzą, implantują do wewnątrz maszyn i kulturowych przestrzeni cyfrowych technokratyczni specjaliści, którzy ustanowili swoją społeczną pozycję i zabezpieczyli wpływy dzięki wiedzy na temat logiki funkcjonalnej techniki oraz kontroli nad sposobami jej wykorzystania. W połowie lat 90. Arthur Kroker, jeden z najgłośniejszych krytyków cyberkultury i jej technologii, w książce Data Trash: The Theory of the Virtual Class wystąpił z kulturoznawczą krytyką rozwoju technologicznego uwikłanego w tego typu rynkowe, ekonomiczne, polityczne i związane z globalnymi grami gospodarczymi mechanizmy i struktury [150]. Sugerował wówczas narodziny „klasy wirtualnej” towarzyszącej coraz bardziej powszechnej obecności cyfrowych maszyn w życiu publicznym. Władza tej nowej klasy rządzącej polegać miała na realizowanej za sprawą standardowych mechanizmów ekonomicznych i politycznych (Kroker odwołuje się do klasycznych diagnoz krytycznej teorii kultury jako ideologii) kontroli nad społecznym sensem cyfrowej rewolucji. „Klasa wirtualna” w przestrzeni cyfrowej szuka kolejnego terytorium kulturowej kolonizacji według starych, dobrze już w życiu społecznym rozpoznanych mechanizmów przemysłu kulturowego. Wirtualna klasa zyskała społeczną i kulturową władzę dzięki regulowaniu rozwoju sfery high-tech i ustanawianiu dla niej stosownych kontekstów społecznych uwikłanych w mechanizmy kontroli własności intelektualnej (debaty wokół redefinicji praw własności intelektualnej i praw autorskich), sposoby tworzenia i cyrkulacji cyfrowych zasobów (polityki digitalizacji), reguły konstruowania i podtrzymywania interakcji i wymiany w sieciach (protokoły, infrastruktura przesyłowa). Władza także i w cyfrowym świecie pilnuje, aby narzucane przez nią autorytarnie reguły technologicznego bycia pozostały skuteczne i trwałe – zabiega o to, aby użytkownicy technologii informacyjnych nie stali się świadomi i krytyczni wobec dostępnych dla nich cyfrowych maszyn, a pozostawali jedynie ich nieświadomymi, biernymi konsumentami. Wirtualne zasady dotyczą np. bezkrytycznego zanurzenia ciała w cyfrowy świat oraz dokonującej się przy tej okazji dekompozycji podmiotowości. Wydaje się, że protokoły – choć to tylko czubek góry lodowej kryjącej pod powierzchnią oceanu technologicznego podobne mechanizmy – to najbardziej radykalne dziś reguły wpisane w konstytucję cyfrowego świata. To kulturowy kodeks pisany przez technokratyczną klasę wirtualną.

Protokoły pilnować mają zrębów międzynarodowej ekonomii informacyjnej [151], która, najpierw pod amerykańskim szyldem propagandowym information highway, a następnie jako mitologiczne narracje poświęcone popularyzacji Internetu i komputeryzacji, ma spełniać rolę wytycznej rozwoju gospodarek kapitalistycznych opartych na przetwarzaniu informacji. W gospodarce tak pomyślanej środki produkcji w coraz większym stopniu zależą od nauki i technologii oraz od jakości dostępnych informacji i jakości zarządzania nimi w procesie produkcji, konsumpcji, dystrybucji i handlu (rola wiedzy stosowanej). Dokonuje się w niej przejście od produkcji wytworów materialnych do aktywności polegających na działaniach związanych z obrabianiem informacji. Widać to zarówno we wzroście udziału tego typu produkcji w skali PKB, jak i w przełożeniu na ilość zatrudnionych w powiązanych z informacjami profesjach i sektorach rynku. W gospodarce tej następują głębokie transformacje w zakresie organizacji produkcji i generalny wzrost aktywności ekonomicznej. To zmiany, które widać w przejściu od standardowej produkcji na masową skalę do elastycznej produkcji na mniejsza skalę, produkcji wertykalnej. To także wzrost roli średnich i małych przedsiębiorstw (sektor MSP) na niekorzyść zbiurokratyzowanych megakorporacji. Nowa ekonomia ma charakter globalny. Kapitał, produkcja, zarządzanie, rynki, siła robocza, informacja i technologie przenikają tradycyjne granice narodowych państw i ich gospodarek. Chociaż narodowe państwo wciąż pozostaje wiodąca narracją polityczną, militarną i administracyjną, to ekonomia informacyjna wymknęła się spod jego kontroli. Zmiany ekonomiczne i organizacyjne w światowym krajobrazie gospodarczo-finansowym dokonują się w trakcie cyfrowej rewolucji technologicznej. Jądrem tej rewolucji są wszelkiego rodzaju technologie informacyjne oraz zasilająca je politycznie rola USA [152].

Odpowiedzią na nasilającą się kontrolę społeczną, odgórne regulacje komunikacji społecznej i dążenie do rozszerzania pola relacji technologicznego podporządkowania i zależności w cyberprzestrzeni może być restytucja krytycznej teorii kultury rozumianej jako krytyka ideologii. Krytyczna teoria klasy wirtualnej (obejmująca także krytyczną teorię wirtualności i mediów cyfrowych) miałaby, według Krokera, polegać na odszukiwaniu i nazywaniu miejsc niszczonych/zagrożonych przez autorytarne dążenia do technoutopii o określonym profilu politycznym, gospodarczym i społecznym. Kroker wskazuje precyzyjnie na mechanizmy takiego działania. Są nimi następujące projekty ideologiczne: utożsamienie tego, co wirtualne z tym, co dobre i progresywne w opozycji do tego, co tradycyjnie polityczne i ekonomiczne; podważenie reguł estetycznych i dążenie do zaniku solidarności w społeczeństwie pożądającym liberalnych relacji sieciowych i interakcji; wywołanie kryzysu demokracji i upłynnienie zasad ekonomicznych mające zmiękczyć wiedzę i wrażliwość na mechanizmy globalnego rynku i konsumpcjonizmu; semiotyczne osłabianie i maskowanie realiów politycznych i ekonomicznych, takich jak bezrobocie, wykluczenie, rozwarstwienie.

Zapożyczone z języka fotografii, kina i telewizji gesty i metafory związane z poruszaniem się po medialnej przestrzeni (przywołany zoom właściwy dla kamer filmowych i telewizyjnych czy przewijanie strony naśladujące czytanie zwojów) to tylko namiastka możliwości operacyjnych, które wywołać można w środowisku bazy danych. Współcześnie to inne praktyki infrastrukturalne związane z nawigowaniem pośród danych stanowią o zasadniczej różnicy pomiędzy analogowym i cyfrowym ekosystemem informacyjnym. Mam tu na myśli indeksowanie danych – czyli nadawanie im znaczeń i symbolik kulturowych za pomocą tagów, katalogowania, znakowania, geolokalizacji, kontekstualizacji. Indeksowanie realizowane za pomocą tych i innych działań otwiera dane na znaczenia wykraczające poza ustanowione przez twórców konkretnych baz podziały i mapy technologiczne. Wprowadza alternatywne porządki zawartości cyfrowych magazynów i sieciuje ich zawartość z innymi tego typu bazami. Dla indeksowania nie ma wielu pierwowzorów i ekwiwalentów w gramatykach mediów analogowych i w ich kulturze. Przekształcanie danych w znaki i teksty to kulturowy rewanż za semantyczną jałowość technologicznej formy cyfrowego kodu – przypisywanie znaczeń wartościom 0 i 1 oraz ich cyfrowo-kulturowa ekonomia to świadectwo przejmowania kontroli nad matematyczną naturą technologii i kodu przez kulturę, dowód na semantyczną chłonność, płynność i otwartość cyfrowego świata. Hermeneutyczne informowanie danych wobec surowych: abstrakcyjnych, matematycznych kalkulacji elektryczności to pogranicze, na którym trwa spór o panowanie w cyfrowym świecie.

Wspomniałem o trudnościach związanych z oszacowaniem wielkości danowych zasobów istniejących w cyfrowym świecie. Ilość danych i ich przyrost to zjawisko bez kulturowego czy społecznego precedensu. W cyberkulturowej nowomowie pojawiło się nawet dedykowane temu problemowi określenie – big data, które i ja przyjmuję jako właściwy tag do dalszej analizy problemu danych. Czy i jak można zjawisko big data oszacować? Jak zmierzyć i zważyć kryjący się za nim danowy ocean i jak zastosowane do takiego pomiaru jednostki mają się do znanych kulturze kwantyfikatorów świata? Tę kulturową arytmetykę danych zacznijmy od poziomu jednostki zanurzonej w cyfrowy świat. Lingwiści szacują, że w ciągu swojego życia przeciętny człowiek wchodzi w kontakt, czyli wypowiada i słyszy, ilość słów, która przy obecnych metodach kodowania cyfrowego i przechowywania tekstu w elektronicznej pamięci przekłada się na około 1TB danych tekstowych. Ta wielkość daje nam wyobrażenie o skali zjawiska, z którym borykamy się na co dzień zarządzając transferami, odczytaniami i przetwarzaniem danych, które dalece tę liczbę przewyższają – przy zastrzeżeniu, że nieuprawnione byłoby stawianie na równi cyfrowej wersji tekstu z zakodowanym w ten sposób komunikatem audio czy wideo. Popatrzmy także na inne niesamowite wielkości związane z obecnością danych: w roku 2010 ludzkość przechowywała ilość danych wystarczającą do wypełnienia 60000 Bibliotek Kongresu. Na świecie mamy już 4 miliardy użytkowników telefonów komórkowych, pośród których 1200000000 to użytkownicy smartfonów, którzy nieustannie pobierają i wysyłają dane, wykorzystują już istniejące i tworzą własne. YouTube chwali się, że na jego serwerach co minutę przybywają 24 godziny materiału wideo. Liczba smartfonów rośnie o 20% rocznie, a liczba różnego typu sensorów i czujników, które automatycznie generują dane i ich sieciowy ruch wzrasta każdego roku o jedną trzecią, zaś liczba krótkich wiadomości umieszczanych na Twitterze ma przekroczyć 500 mln dziennie do końca 2012 roku [182]. Analitycy IBM twierdzą, że 90% istniejących danych powstało w okresie ostatnich dwóch lat [183].

Pojedyncze bazy są fragmentami oceanu cyfrowego świata, w którym łączą się ze sobą za pośrednictwem podejmowanym przez ich dysponentów działań i rozwiązań strukturalnych i wymieniają między sobą zasobami. Szacuje się, że obecnie (pierwsza połowa 2012 roku) objętość danych w skali globalnej oscyluje wokół liczby 3 tysięcy zettabajtów [184]. Dalszemu wzrostowi tej liczby sprzyjają taniejące i coraz bardziej dostępne i pojemne nośniki danych, rozwijające się sieci, a także podejmowane przez różnego rodzaju podmioty decyzje o upublicznianiu i udostępnianiu zbieranych przez lata danych.

Po fali mniej lub bardziej dramatycznie brzmiących ostrzeżeń przed zalewem, potopem, smogiem danych (informacji), pojawiających się zarówno w dyskursie naukowym jak i codziennej debacie społecznej, pojawiało się wiele racjonalnych i profesjonalnych narzędzi i strategii zarządzania danymi, które pozwalają w mniej lub bardziej udany sposób żeglować po wodach i głębinach informacyjnego oceanu. Do nadmiaru danych jak i do ich samych zaczynamy podchodzić coraz bardziej świadomie, postrzegając ich zasoby jako elektroniczne surowce naturalne, w które bogate są cyberkulturowe lokalizacje. Uczymy się także systematycznie ich ekologii i ekonomii. Instytucje ekonomiczne, wojsko, biznes, rozrywka już tę dziejową zmianę zaczęły sprawnie do swoich potrzeb wykorzystywać. Biznes świetnie radzi sobie z generowaniem wiedzy handlowej na bazie ruchu sieciowego i zarządzania danymi przez użytkowników – wystarczy tu wspomnieć o sugestiach zakupowych amazon.com, podpowiedziach wyszukiwarek czy serwisów społecznościowych. Wiedza i nauka właśnie wchodzą w ten obszar, powoli zdając sobie sprawę jak wielki oferuje on potencjał poznawczy, ale jednocześnie stąd biorą się najważniejsze środowiskowe opory, jak bardzo będą się musiały zmienić sposoby budowania wiedzy, dostępu do niej i jej trwałość/adekwatność kiedy badania naukowe zaczną wyglądać dokładnie tak, jak wyglądają dzisiaj działania analityczne podejmowane na ogromną skalę przez przedsiębiorstwa, państwa, wojsko [185]. Przy okazji powstaje pytanie o wspomniane kulturowe mechanizmy radzenia sobie z nadmiarem danych i zarządzania big data. Rozmiar danowej lawy zwiastuje kryzys indywidualistycznego doświadczenia medialnego świata charakterystycznego dla dziecięcgo okresu cyberkultury i jej emancypacyjnej mitologii. Obok prywatnego charakteru nowomedialnego zaangażowania potrzebne będą także zbiorowe mechanizmy – jednostki najprawdopodobniej nie będą w stanie radzić sobie w tak obszernym świecie zasobów do przetworzenia i wykorzystania.

Zanim przejdę do omówienia tych nowych metod działania, które łączą pracę naukową z innymi sposobami generowania wiedzy dostępnymi w kulturze i pokażę ich relacje, sięgnę do pracy Bena Fry poświęconej nowym kompetencjom, potrzebnym w epoce informacji badaczom chcącym korzystać w swojej pracy z cyfrowych zasobów. Fry dowodzi jak bardzo wieloma „skilami” musi dysponować w cyfrowym świecie jego analityk, jak wiele pragmatyk, semantyk, logik musi brać pod uwagę poszukując odpowiedzi na zadawane informacyjnemu uniwersum pytania. Według Amerykanina, choć to w coraz większym stopniu także i powszechne odczucie związane ze zmieniającym się światem nauki, współczesny badacz musi mieć kompetencje w zakresie informatyki, aby sprawnie pozyskiwać i technicznie organizować dane; matematyki i statystyki, aby był w stanie tworzyć zaawansowane modele abstrakcyjne, które będą zdolne do przekładania skomplikowanych semantycznie zapytań na skomplikowane zapytania bazodanowe; projektowania graficznego i design, aby móc otrzymane wyniki badań przedstawić w prostej, zrozumiałej dla laików formie; wreszcie winien mieć także kompetencje w zakresie projektowania informacji i rozwiązań interfejsowych, aby sprawnie eksportować wyniki badań do przestrzeni naukowej i publicznej [188]. Fry w gruncie rzeczy zgłasza postulat, który i ja w tym tekście zdążyłem już sformułować – w nowych, cyfrowych okolicznościach potrzebne są kompetencje i postawa właściwe dla homo faber.

Google’owa wiedza bierze się nie tylko z tego, o czym stworzony przez korporację software automatycznie dowiaduje się z zasobów Internetu, indeksując je według zadanych kryteriów. Olbrzymie jej pokłady odkrywa Google wtedy, gdy swoje narzędzia analityczne przykłada do danych gromadzących się za sprawą śladów pozostawianych podczas korzystania z tego serwisu przez jego użytkowników [192]. Mają oni swoje zwyczaje, zadają bardzo konkretne pytania, w określony sposób poszukują określonych zasobów, różnie się nimi dzielą i na różne sposoby ich używają. Monitorowanie użytkowników, analizowanie reguł i semantyki ich zachowań to właśnie bazodanowe narzędzia i metody, za pomocą których powstaje pozaakademicka socjologia, psychologia, wiedza o kulturze i o świecie w ogóle. Wynika z tego, że sens medialnej rewolucji 2.0 nie polega jedynie na przejęciu medialnej władzy przez cyfrowy vox populi. Zjawisko ma także drugą stronę: jest nią społeczny i kulturowy kapitał zakodowany do postaci cyfrowych śladów i tropów, które pozostawiamy po sobie za każdym razem, kiedy znajdujemy się w przestrzeni danych. Jednym z najważniejszych wyzwań nauki i edukacji w tym kontekście będzie możliwość konkurowania z rynkowymi, a więc partykularnymi, interesami korporacji gromadzących dane, które mają na tym polu osiągnięcia dalece wyprzedzające współczesne instytucje i metody naukowe, i obnażania wszelkich innych mechanizmów kontroli i nadzoru, uruchamianych zgodnie z zasadą wielokierunkowej, rizomatycznej struktury komunikacji i przepływów danych w cyberprzestrzeni. Nowe oblicze starej newtonowskiej zasady mogłoby dzisiaj wyglądać w następujący sposób: każdemu pozyskanemu z cyberprzestrzeni zasobowi informacyjnemu towarzyszy zasób udostępniony. Wrócę do tej tematyki szerzej raz jeszcze omawiając problem nadzoru w cyfrowej przestrzeni danych.

Przeciwieństwem kultury selekcji jest dla Weibla kultura Web 2.0. Pomijam w tym miejscu spory na temat zasadności i ograniczenia tego sformułowania, podzielam – podobnie jak sam Weibel – ponad nie jego olbrzymią siłę semantyczną, której sens wynika z prostej zakodowanej (zaprojektowanej designersko na poziomie samego znaku) w nim konstatacji o radykalnej zmianie w obszarze kultury medialnej. W logice 2.0 Weibel upatruje fundamentów nowego krajobrazu kultury. Rolę analogowej arki zajmują w nim dyskowe przestrzenie magazynowe, które oferują swoim użytkownikom nieograniczoną chłonność i dostępność. Pomieszczą każdą ilość cyfrowo zakodowanych opowieści o świecie, jego digitalnych reprezentacji i alterwersji (technologiczne marzenia o infinity storage). W obliczu gigantycznych baz danych otwierających swoje podwoje na wielu poziomach naszej immersji w cyberprzestrzeń, a w szczególności metabazy danych (jednocześnie bazy metadanych), jaką jest Internet (na ten temat więcej niebawem), metafora arki wyczerpuje swój dotychczasowy sens. Kultura nie jest już (wpływ tego mechanizmu jest radykalnie osłabiony i ograniczony do wybranych obszarów rynkowych, politycznych, gospodarczych, takich jak instytucje kultury, jej ministerstwa, fundacje organizujące prace artystów i wydarzenia kulturalne) zasobem poddawanym selekcji (cenzurze) elit koneserów i urzędników, limitowana przez znawców i systemy cyrkulacji. Wraz z pojawieniem się cyfrowej nakładki na rzeczywistość stała się miejscem schronienia dla wszystkich chętnych. Sceną, na której amatorzy pokazują mniej lub bardziej udane, unikalne i powielane po wielokroć dzieła (teksty). W tym nowym krajobrazie masy produkują na masową skalę sztukę (kulturę) dla samych siebie, nie dbając o jakiekolwiek uwierzytelnienia czy świadectwa jakości ze strony starego systemu elit i ich oragnzacji. Ekosystem baz danych oznacza kulturową platformę sztuki dla mas tworzonej i konsumowanej przez nie same.

Co jednak w takim razie z tradycyjnymi instytucjami, takimi jak muzeum, szkoła, uniwersytet, biblioteka, galeria, archiwum w obliczu tych przeciwieństw? Wszystkie one działają w duchu elitarnych selekcji informacji i masowej, bezzwrotnej ich transmisji. Weibel słusznie obawia się o ich motywacje i zdolność do adaptacji. Dla wielu instytucji zmiana 2.0 oznacza w perspektywie radykalny kryzys tożsamości. Wiele z nich z pewnością okaże się mało podatnych na zmiany, nie mając na nie, na dodatek, ani ochoty, ani niespecjalnie czując potrzebę adaptacji do nich. Jeśli taką zdystansowaną postawę uznamy za reprezentatywną dla oficjalnej polityki państw i poszczególnych sektorów działań kulturalnych i społecznych, to wokół sporu o oficjalną selekcję i dystrybucję informacji oraz nowe społeczne formy i cyrkulacje informacji może narastać nie tylko finansowy czy polityczny konflikt, ale także pokoleniowe, cywilizacyjne pole sporne i objawiać się mogą potencjalne przestrzenie nowego rodzaju wykluczenia kulturowego i społecznego. Do tego wątku powrócę jeszcze przy okazji rozważań na temat alternatywnych obiegów danych.

Po gałęziach tego drzewa wędruje w ciągu swojego życia człowiek-pielgrzym, starając się dotrzeć z zapisanego mu początku istnienia do miejsca pożądanego. Hierarchicznym drzewem są w konsekwencji tradycyjne systemy społeczne, religijne i polityczne z monarchą-pniem i ludem bożym-liśćmi, drzewiasta jest wiedza i edukacja w swoim rozkładzie na dyscypliny i sposobach ich transmisji do obywateli, wreszcie drzewiasty model komunikacji realizują także systemy technologiczne mediów masowych (analogowych), wypełniające wzorcowo bezzwrotny model transmisji jeden-do-wielu.

Współczesna kultura postrzega drzewo życia w konsekwencji tych i wielu innych zdarzeń już tylko jako jedną z możliwych porządkujących ją i objaśniających metafor. W duchu tych przemian nie zaskakuje dla przykładu skojarzenie ziaren piachu Victorii Vesny przywołane już wcześniej. Ta i podobne nowe figury, kryjące się za nimi kształty i opowieści zasilają współczesną wyobraźnię z siłą, która systematycznie wypiera okrzepłe w niej i oswojone kształty, takie jak mityczne drzewo. Jedną z najchętniej przywoływanych nowych metafor, w której jak w soczewce skupiają się nadzieje, obietnice i perspektywy związane ze zmianami społecznymi i kulturowymi, jest dzisiaj sieć. Odwołuje się ona do kształtu pajęczej lub rybackiej (dziś poszukiwanie precyzyjnych odniesień i pierwotnych kontekstów nie ma już racji bytu) sieci, której struktura składa się z przecinających się nawzajem linii tworzących siatki. Sieciowa metafora stała się ikoną globalnej w zasięgu metabazy danych (a zarazem bazą metadanych), jaką jest elektroniczna infrastruktura komunikacyjna zorganizowana i zarządzana w zdecentralizowany sposób. Na skutek popularności nowej figury elektroniczne sieci uznać trzeba również za semantyczne środowisko cyfrowych danych, w którym połączone są ze sobą generujące je, przechowujące i transmitujące maszyny cyfrowe wymieniające się nieustannie się tymi danymi przy świadomym współudziale użytkownika lub bez niego. Sieć to wirtualna przestrzeń, w której dane znajdują się w nieustannym ruchu, przekraczając tradycyjne ograniczenia kulturowe i technologiczne (czas, miejsce, kultura, geografia, hierarchie społeczne) wedle zarządzeń swoich właścicieli, administratorów czy tymczasowych dysponentów (piraci, hakerzy) po to, by na ustanawiać nowe, sieciowe związki między sobą.

Dywersyfikująca się wokół figur drzewa i sieci wyobraźnia kulturowa różni społeczeństwa tradycyjne od nowoczesnych, hierarchiczne od liberalnych. Żyjące według nich i praktykujące je społeczeństwa, kraje i kultury nie rozumieją siebie nawzajem, a ludziom stającym wobec siły takich wyobraźni często trudno się ze sobą porozumieć, razem pracować. Sięgnijmy dla zilustrowania tej tezy po przykład. Kiedy współcześni muzycy wychowani i wyedukowani w tradycji zachodniej z jej abstrakcyjnymi regułami próbują muzycznie porozumieć się i współbrzmieć z innymi, bardziej pierwotnymi tradycjami muzycznymi, dochodzi do ciekawych zgrzytów. Bill Viola, uznawany za jednego z najważniejszych artystów pracujących z technologiami medialnymi, zastanawiając się nad antropologiczną i artystyczną logiką danych cyfrowych, opisuje przypadek swojego kolegi – muzyka, który badał tradycje muzyczną wysp Java. Wyobraźnia amerykańskiego muzyka była już sieciowa, gotowa do wielu abstrakcyjnych działań w ramach danego tematu muzycznego: skłonny był powtarzać poszczególne sekwencje, odgrywać je jako poszczególne fragmenty, reinterpretować i przetwarzać strukturę kompozycji, posługiwać się technikami wielościeżkowej rejestracji, itd. Wszystkie tego typu formalne zabiegi, tak charakterystyczne dla abstrakcyjnej nowoczesnej kultury zachodniej, okazywały się nie do pomyślenia dla muzykujących „klasycznie” autochtonów [197]. Można sięgnąć po wiele innych przykładów bazodanowych form zastępujących tradycyjnie linearne teksty kultury. Jednym z nich będzie choćby format składanki stosowanej w muzyce popularnej (miks tape, kompilacja), która jest bazą danych przygotowaną w oparciu o przeróżne nagrania selekcją/nawigacją, która ma stanowić jakąś estetyczną całość, wywoływać elementy z bazy danych kultury według określonych kryteriów. Inny przykład odnosi się do dyskursu naukowego i popularności w nim prac pod redakcją, tzw. zbiorówek. W obu przypadkach widać systematyczne odchodzenie od tradycyjnych linearnych form narracyjnych: wielkich form muzycznych znanych z historii muzyki (opery, symfonie, cykle) czy wielkich teorii humanistycznych zapisywanych w postaci nieraz wielotomowych rozpraw i traktatów.

Schyłek drzewa i narodziny sieci rozpalają także i popkulturowe wyobraźnie i stają się inspiracją dla tworzonych i rekonstruowanych w nich mitologicznych opowieści. Topos ten eksploatuje np. coraz częściej kino i pozostałe media masowe: weźmy choćby motyw drzewa życia obecny w mitologiach i tradycji wielu kultur, skomentowany ostatnio w głośnym Avatarze J. Camerona. W popularnych technokratycznych i popkulturowych narracjach zdehierarchizowaną antystrukturę sieci przeciwstawia się hierarchicznie uwikłanym drzewom. Powiązanych jest z nią zatem – nie wchodzę tu w źródła różnego typu ideologizacji, relacji władzy i estetyk wiążących w praktyce społecznej znaczenia z tym terminem – wiele społecznych nadziei związanych z równością, innowacyjnością, kreatywnością, sprawiedliwością, wyzwoleniem spod jarzma władzy i kontroli, nowymi możliwościami komunikacyjnymi społeczeństwa kapitalistycznego, które wybrało drogę liberalizmu, demokracji i poszanowania indywidualnych strategii życiowych. Sieć to metaforyczny lejtmotywów społeczeństwa demokratycznego, liberalnego, otwartego wobec upłynnionej nowoczesności, pogodzonego z ryzykownymi wyborami codzienności i strategiami życia, gotowego na nieustanną transformację i rekonstrukcję.

Do analiz baz danych można wykorzystać także figurę roju, którą zaproponował amerykański badacz nowych technologii Richard Galloway. Podobnie jak poprzednie metafory, także i ta wywodzi się z obszaru botaniki. Rój miałby być społeczną logiką, która reguluje wewnętrzny kształt sieci. Lokalne interakcje wytwarzają w niej złożone organizacje wyższego rzędu, jednostki działając z pozoru chaotycznie tworzą zbiorowe wzorce i matryce. Dynamikę roju cechuje jednocześnie „amorficzność” i skoordynowany „porządek”, balans sił i wypadkowych wszystkich biorących w nim udział [198]. To formuła zdolna do podtrzymywania własnego status quo i regulowania wszelkich zmiennych jej dotyczących.

Poznaliśmy metaforyczne i ikoniczne zarazem figury, których zderzenia w kulturowej wyobraźni tworzą grunt pod bazodanową gramatykę komunikacyjną. Sfera zbiorowej wyobraźni, wyobraźni kulturowej jest przy tym efemeryczna, nie ma zgody co do jej rzeczywistego, a przynajmniej dającego się w prosty sposób zmierzyć wpływu na kulturowe status quo. Dlatego moje poszukiwania bazodanowych źródeł skieruję teraz na obszar bardziej konkretnych, namacalnych dzieł, wydarzeń i stanów medialnych kultur i sztuk. W zmieniających się językach medialnych wypowiedzi, w obszarze sztuki zanurzonej w elektrycznym, analogowym otoczeniu technologicznym, szukać będę zarówno sytuacji poprzedzających interesującą mnie nowomedialną formę, jak i skutków jej obecności. Patrząc z perspektywy cyfrowej archeologii wiele z mających miejsce w kulturze działań i powstających w ich wyniku tekstów można uznać za pionierskie rozpoznania kondycji bazodanowej. Zobaczmy, jak tekstualność i literatura, wizualność i jej sztuki, audialność i muzyka popularna, a także architektura odczytują zmieniającego się ducha czasów i w jaki sposób jego esencję współtworzą.

Cyfrowych danych nie da się kontrolować w sposób, w jaki możliwa była na masową skalę kontrola transferów informacji w epoce mediów analogowych. Jak pokazuje praktyka społeczna, dane skutecznie wymykają się politycznej, administracyjnej czy militarnej kontroli. Ich transfery odbywają się niezależnie od oficjalnie zaprojektowanych porządków, reguł i limitów połączeń. Information wants to be free często powtarzają cyberideologowie [229]. Powszechnie znana jest skala zjawiska ikonicznego dla tych alternatywnych szlaków danych, czyli piractwa. Pojęciem tym dziś nie opisuje się już tylko nielegalnej wymiany plików w sieciach komputerowych, to klamra spinająca ideologiczne postulaty ruchu społecznego, który w kilku europejskich krajach dorobił się nawet reprezentacji parlamentarnych i jednoczy więcej ilości ludzi także w realu [230]. Podstawową zasadą pirackiego bycia i działania w środowisku danych jest podważanie istniejących protokołów nowymi regułami, jeszcze bardziej skutecznie omijającymi reguły i kanały kontroli. To nieustanny wyścig technokracji i technologicznych partyzantów (hakerów), którzy natychmiast po prawnym, instytucjonalnym czy ekonomicznym wyłączeniu/unieważnieniu swoich działań przygotowują ich następne, jeszcze doskonalsze i trudniejsze do zablokowania odmiany. Piraci rzucają wyzwanie państwom, korporacjom, polityce i ekonomii – podejmują walkę o liberalizację technologii i obiegu informacji, znajdując się na terytorium wroga, czyli w obszarze hardware i fizycznych sieci, pod okiem nieustannego monitoringu. Nie mam możliwości wejść tu głębiej w ten fenomen, ale stwierdzę, że regulowanie informacyjnego krajobrazu i zarządzanie krążącymi danymi wymyka się coraz bardziej spod kontroli przemysłu kulturalnego i jego tradycyjnych sprzymierzeńców. Brak skutecznej kontroli nad ekosystemem danych, ich przecieki, niejawne transfery to pięta achillesowa cyfrowego wcielenia technopolu [231]. Jej istnienie oznacza, że piraci – niezależnie od aksjologicznej i prawnej oceny tego procederu – tworząc alternatywny ekosystem danych i sposoby ich wymiany współtworzą trzon rozpoznanej przez współczesną ekonomię gospodarek liberalnych siły równoważącej (countervailing power) wpływy korporacji, państw i innych hierarchicznych regulatorów przestrzeni informacyjnej [232].

Na podstawie temperatury toczącego się nieustannie sporu wokół piractwa i alternatywnych obiegów danych można sądzić, że gra idzie tutaj o bardzo wysoka stawkę. Dla sektora rozrywkowego, organów administracji i korporacji medialnych potencjalna w tym sporze przegrana oznacza zupełną zmianę reguł gry, rozstanie się z tak wydajnym i zapewniającym przez lata doskonałą kontrolę nad tym, kto, kiedy i jak informacyjnie odbiera (konsumuje) i do czego ma dostęp, społecznym modelem transmisji hierarchicznej i jednokierunkowej. Poddanie tego modelu oznacza przekazanie części zdobywanej przez lata władzy i kontroli nad medialnym krajobrazem w ręce nowych, niemieszczących się w obecnym układzie sił graczy, w dużej mierze dotąd jeszcze niezidentyfikowanych, którzy dotychczasowy system rozregulują i/lub zupełnie rozbroją. W perspektywie przeciętnych użytkowników, różnych ich grup i środowisk to równie ważna rozgrywka. Chodzi o podważenie kontrolnej i regulacyjnej władzy systemu medialnego nad zasobami kultury, podcięcie infrastrukturalnemu drzewu korzeni i stworzenie alternatywnych struktur transferowych/komunikacyjnych, niezależnych od obowiązujących tradycyjnie regulacji, przejęcie kontroli nad informacyjną rewolucją i ustalenie nowych reguł własności zasobów kultury oraz zdolności do korzystania z niej.

Zgodnie z techniczną specyfiką cybernetycznych mediów epizody tej rozgrywki dokonują się przede wszystkim na poziomie rozwiązań software’owych, do których amatorzy mają łatwiejszy dostęp niż do infrastruktury hardware i fizycznych sieci. To działania o obrębie danych i software są synonimem uwalnianej, otwierającej się na użytkowników kultury, jej emblematem. Komunikacyjny hardware wciąż pozostaje w przeważającej mierze pod kontrolą systemowego technopolu. W ramach tworzonej przez państwa i korporacje infrastruktury Internauci skutecznie zaszczepiają jednak także i w nim swoje niepokorne, bardziej sprytne od dozorujących narzędzia, aplikacje i praktyki użytkowe. Ich przykładami są rozwiązania typu p2p, protokoły oparte na sieciach wi-fi, komunikatory internetowe, pirackie serwisy oferujące darmowy dostęp do różnych zasobów kultury, wikileaks, itd.

O tym jak rozmijają się technokratyczne interpretacje alternatywnych obiegów danych z ich faktyczną semiotyką kulturową, przekonuje coraz więcej różnego typu analiz i badań. Ostatnio opublikowany u nas raport Obiegi kultury. Społeczna cyrkulacja treści dowodzi, że w praktyce kulturowej do granic rozpoznawalności rozmywają się istniejące opozycje i nowego znaczenia nabierają takie kategorie jak legalne/nielegalne; konsumpcja/tworzenie, ściąganie/udostępnianie, dostęp do kultury i aktywność kulturowa i komunikacyjna [233].

Informowanie danych to praktyka, którą na co dzień w mniejszym lub większym stopniu podejmuje każdy z użytkowników cyfrowego świata. Ogólnie można powiedzieć, że zamiana danych w informacje ma dwa oblicza. Pierwszym jest ich informowanie sensu stricte, czyli nadawanie im znaczenia od podstaw – przechodzenie od technologicznej surowości kodu do czytelnych kulturowo znaczeń. Drugim, węższym co do zakresu, jest ich indeksowanie, czyli oznaczanie już wstępnie poinformowanych danych znacznikami (tagami) według określonych kryteriów – to działanie prostsze, polegające na tworzeniu/wykorzystaniu semiotycznych „półproduktów”. Indeksowanie przejawia się najczęściej przez segregowanie plików pomiędzy folderami, tagowanie ich i ich fragmentów (czyli np. oznaczanie i komentowanie zdjęć w prywatnych zbiorach na komputerach oraz tych, które publikowane są w serwisach internetowych, nadawanie różnym artykułom w sieci statusów „lubię to”, „wykop”, itp.), tworzenie play list z wybranych empetrójek, określanie stylów akapitowych w edytorze tekstowym. Wystarczy polubić jakieś wydarzenie na Facebook.com, aby stać się częścią społecznej taksonomii danych, których znaczenia są w coraz większym stopniu generowane i zarządzane społecznie. Użytkownicy wielu sieciowych serwisów głosują na najbardziej lubiane przez siebie wiadomości, oceniają w ten sposób komentarze innych, opisują fotografie, tagują artykuły i różnego typu materiały publikowane w sieci. Powstaje w ten sposób zbiorowa semantyka cyberprzestrzeni danych, która jest niejednorodna, heterogeniczna i rizomatyczna. Nie obowiązują w niej nieodwołalnie tradycyjne reguły semantyczne ani polityki i ideologie sytemowego osadzania znaczeń. Inaczej mówiąc: zdolność do indeksowania danych, którą wypracowali użytkownicy danych, podkopała systemowe sposoby ich znakowania, katalogowania i strukturyzowania. Wszystkie tego typu działania semiotyczne polegają na przypisaniu danym, lub całym ich bazom, określonych znaczeń. Chodzi o to, by dane znaczyły tyle, ile chcemy, aby znaczyły i na warunkach, jakie w tym zakresie ustalimy.

Potrzeby związane z rozumieniem danych rosną w tempie, w jakim przybywa samych danych – przypomnę tu kategorię Big Data – i w jakim osiągalne dzięki nowym narzędziom stają się kolejne bazodanowe logiki poznawcze. Jak poradzić sobie poznawczo z tak wielką ilością danych? W języku angielskim pojawiło się sformułowanie, które daje poglądową odpowiedź na to pytanie. Brzmi ono data mining i oznacza wkopywanie się w ocean danych w celu jego eksploracji, roboty odkrywkowe w poszukiwaniu w nim wiedzy na poziomie metadanych, wydobywanie z danych informacji [241]. To strategia, z której obecnie korzystają głównie profesjonalni analitycy operujący na olbrzymich bazach danych, takich jak zbiory korporacyjne, czy administracyjne. Poszukują w nich ukrytych przed jednostkową analizą wzorców i prawidłowości. Jednak wiele już dzisiaj wskazuje na to, że możliwości takich osób staną się niebawem osiągalne także w powszechnym użyciu. Przybywa publicznych i prywatnych podmiotów, które decydują się na upublicznianie swoich archiwów w postaci otwartych baz danych dostępnych dla zainteresowanych. W roku 2009 Barack Obama inaugurował pierwszy publiczny serwis z dostępem do olbrzymiej ilości danych, które przez lata zgromadziły agendy amerykańskiej administracji. Serwis został uruchomiony pod adresem data.gov i można w nim znaleźć zasoby dotyczące przeciętnej i zmieniającej się w zależności od pory roku głębokości amerykańskich rzek, surowe dane i statystyki na temat przestępczości w poszczególnych stanach i miastach z podziałem na rodzaj użytej broni i kolor skóry przestępców, itd. Niedługo potem w ślad za tworzącym nowy publiczny obyczaj rządem USA poszły inne kraje: Australia, Nowa Zelandia czy Wielka Brytania, gdzie misję stworzenia nowego portal powierzono wynalazcy www Sir Timowi Berners-Lee. Obecność tych w przestrzeni publicznej należy potraktować jako zaproszenie do ich interpretacji do wkopywania się w nie i poszukiwania wiedzy w nich zakodowanej. Bazy danych można w tym kontekście uznać za posiadający szczeliny (to praca specjalistów) sezam, który czeka na swoje powszechne otwarcie i odczytanie nagromadzonych w nim skarbów.

Zanim do danowego „Eldorado” przenikną tabuny różnego pokroju poszukiwaczy, widać już, że przeszukiwanie danych to działanie intratne, i, obok ich wizualizowania, stanowi fundament nowego ekosystemu informacyjnego. Niech świadczą o tym narodziny data journalism, czyli specjalistycznego rzemiosła dziennikarskiego, które polega na wynajdywaniu, generowaniu i/lub zestawianiu określonych danych i zadawaniu im algorytmicznych zapytań, by z wyników takich kwerend poczynić następnie gotowe fakty medialne. Najczęściej chodzi o pozyskanie wiedzy, której nie sposób udowodnić w żaden klasyczny dziennikarski sposób [242] i która domaga się nietekstualnych reprezentacji, co znaczy że najbardziej popularne są wśród nich wspomniane już wcześniej interpretacje wizualne [243]. Najprężniej działające redakcje medialne już od jakiegoś czasu otwierają swoje danowe archiwa (już o tym pisałem) ale i powołują do życia wyspecjalizowane działy, którym powierzają prowadzenie działań w zakresie analizy danych pod kątem publikacji medialnych – tak działa np. brytyjski Guardian.

Inaczej mówiąc: technologie cyfrowe dopiero wtedy stały się siłą sprawczą w kulturze i życiu społecznym, kiedy ich wewnętrzny język (kod zer i jedynek) został przetłumaczony na dominujący w kulturze mediów masowych język obrazów, kiedy można było zwizualizować i zobaczyć skomplikowane operacje na kodzie, podejrzeć pracujące algorytmy i nawiązywane połączenia sieciowe, by następnie za sprawą tych obrazów sprawować nad nimi we względnie prosty sposób, czyli przez odwołania do powszechnie rozpoznawalnych znaków, mitów, procedur i kodów komunikacyjnych, kontrolę. Dzięki obrazom – choć z całym analogowym dobrodziejstwem inwentarza, schedą po masowej kulturze wizualnej mediów analogowych – zrozumieliśmy komputeryzację i nauczyliśmy się ją wykorzystywać na potrzeby naszej codzienności. Wraz z nimi komputery zostały zaszczepione w cywilnym życiu, stając się powszechnie stosowanymi i adaptowanymi maszynami medialnymi, których możliwości obejmują już nie tylko specjalistyczne zadania militarne, naukowe czy infrastrukturalne.

Inny porządek w ewolucji obrazów i wizualność dostrzega Oliver Grau [245]. Austriackiego teoretyka interesuje ich historyczna immersyjność, czyli pochłanianie przez język wizualności kolejnych idei, wyobraźni i stanów kulturowych. Chłonność obrazów wynika z potrzeby ich przyciągania: angażowania wzroku w sensie biologicznym, ale i możliwie pełnego angażowania estetycznego i politycznego spojrzenia. Technologiczne formy i kulturowe estetyki obrazów mają w rezultacie prowadzić do pierwiastka coraz głębszego, bardziej zaangażowanego, bliskiego naturalnym stanom wizualności, choć jednocześnie konkurującego z nimi o uwagę kultury. W ten sposób analogowe obrazy immersyjne przekształcają się w przestrzeni historii sztuki w obrazy immersyjne technologicznie, obrazy wirtualne. Szczególne znaczenie ma w tej historycznej prawidłowości współczesna faza obrazów cyfrowych, w której objawiły się takie stany, jak: teleobecność i telematyka, sztuczna inteligencja i obrazy samogenerujące się.