Czytaj książkę z rozdziału: Informowanie danych

Pisałem o wizualizacjach danych jako interfejsowej estetyce coraz bardziej powszechnej na styku cyfrowości i kultury. Za pomocą wizualizowania możliwe jest kulturowe wykorzystywanie danych jako zasobów informacyjnych i wpuszczanie ich w szeroki obieg kultury. Analizowałem także różne cyrkulacje i obiegi danych, które da się zauważyć w cyfrowym ekosystemie. Chciałbym teraz zwrócić uwagę na zjawisko łączące dwa poprzednie. Chodzi o kulturowe i społeczne informowanie danych. To zbiór praktyk, których wspólnym zadaniem jest tworzenie zasobów wiedzy i kultury w oparciu o surowe dane, translacja surowych danych na pełnowartościowe semiotycznie informacje. Nie ma przy tym znaczenia ani pochodzenie danych, ani ich rodzaj – wszystkie dane na jakimś etapie kontaktu z nimi domagają się takich interpretacji. Tylko wtedy możliwe jest osiągnięcie nad nimi poznawczej władzy, kontrolowanie ich formy i efektywne wykorzystywanie, kiedy zostają oznaczone, posegregowane według semiotycznych kryteriów i przetłumaczone na dostępne w kulturze kody komunikacyjne (interfejsy).

Informowanie danych to praktyka, którą na co dzień w mniejszym lub większym stopniu podejmuje każdy z użytkowników cyfrowego świata. Ogólnie można powiedzieć, że zamiana danych w informacje ma dwa oblicza. Pierwszym jest ich informowanie sensu stricte, czyli nadawanie im znaczenia od podstaw – przechodzenie od technologicznej surowości kodu do czytelnych kulturowo znaczeń. Drugim, węższym co do zakresu, jest ich indeksowanie, czyli oznaczanie już wstępnie poinformowanych danych znacznikami (tagami) według określonych kryteriów – to działanie prostsze, polegające na tworzeniu/wykorzystaniu semiotycznych „półproduktów”. Indeksowanie przejawia się najczęściej przez segregowanie plików pomiędzy folderami, tagowanie ich i ich fragmentów (czyli np. oznaczanie i komentowanie zdjęć w prywatnych zbiorach na komputerach oraz tych, które publikowane są w serwisach internetowych, nadawanie różnym artykułom w sieci statusów „lubię to”, „wykop”, itp.), tworzenie play list z wybranych empetrójek, określanie stylów akapitowych w edytorze tekstowym. Wystarczy polubić jakieś wydarzenie na Facebook.com, aby stać się częścią społecznej taksonomii danych, których znaczenia są w coraz większym stopniu generowane i zarządzane społecznie. Użytkownicy wielu sieciowych serwisów głosują na najbardziej lubiane przez siebie wiadomości, oceniają w ten sposób komentarze innych, opisują fotografie, tagują artykuły i różnego typu materiały publikowane w sieci. Powstaje w ten sposób zbiorowa semantyka cyberprzestrzeni danych, która jest niejednorodna, heterogeniczna i rizomatyczna. Nie obowiązują w niej nieodwołalnie tradycyjne reguły semantyczne ani polityki i ideologie sytemowego osadzania znaczeń. Inaczej mówiąc: zdolność do indeksowania danych, którą wypracowali użytkownicy danych, podkopała systemowe sposoby ich znakowania, katalogowania i strukturyzowania. Wszystkie tego typu działania semiotyczne polegają na przypisaniu danym, lub całym ich bazom, określonych znaczeń. Chodzi o to, by dane znaczyły tyle, ile chcemy, aby znaczyły i na warunkach, jakie w tym zakresie ustalimy.

Jednokierunkowe media analogowe (radio, telewizja) takich semiotwórczych możliwości nie udostępniały. Media cyfrowe wykonują cały cykl semiotyczny, czyli komunikują od znaku do odbiorcy i z powrotem ze wszystkimi tego procesu konsekwencjami i dla znaków, i dla odbiorców. Telewizja, to najważniejsze z mediów masowych współczesności, nie zdaje sobie sprawy z faktu, że jest oglądana na konkretnym odbiorniku telewizyjnym, a radio nie wiedziało i nie wie, kiedy kto i gdzie go słucha – w domenie cyfrowej takie sprzężenie jest regułą naturalną i zasadniczą dla charakteru tej mediacji. W tym sensie bazy danych można rozumieć jako poststrukturalną przestrzeń dyskursywną. Ich techniczna specyfika otwartości na zarządzanie i niekategoryzowanie jakości i parametrów tego zarządzania powołują do życia bazodanowych aktorów, którzy wirtualnie tworzą w nich realny kapitał symboliczny, konstruując w ten sposób cyfrową przestrzeń dyskursywną. Baza danych dodatkowo utrwala w czasie przebieg tego dyskursu, czyli oferuje nieustanne zapętlenie pomiędzy dokonującą się komunikacją a jej utrwaloną historią. W rezultacie w bazach danych ma miejsce nieustanna negocjacja relacji władzy, nadzoru i kontroli nieustanny dyskurs dotyczący kultury i życia społecznego w ogóle [238]. Ich indeksy są logicznie otwarte i podatne na strukturalne, a w konsekwencji na semiotyczne zmiany – bazy danych to format, który urzeczywistnia płynność znaczeń we współczesnej kulturze i inspiruje ich semantyczną ruchliwość. Można powiedzieć, że na skutek tak daleko posuniętej niestabilności i otwartości indeksów, które nadajemy danym, one same stają się elementem drugorzędnym. Chyba najbardziej dosadnym przykładem takiego społecznego indeksowania danych są krążące w cyberprzestrzeni memy obrazkowe, które stają się ikonami określonych, ale – co ciekawe – zmiennych w czasie, tekstów kultury. Takimi memem stało się zdjęcie sowy z szeroko otwartymi oczami, która symbolizuje zdziwienie i dystans poznawczy wyrażony za pomocą podpisu O’RLY (od ang. zwrotu: oh, really?, co na polski można przetłumaczyć jako: czyżby?). Stają się memami także wycięte z filmów pojedyncze sceny wypełnione charakterystyczną mimiką aktorów czy wypowiadanymi przez nich zdaniami [239].

Oprócz społecznego indeksowania danych wymieniłem także informowanie danych jako jedną z praktyk wchodzenia w świat danych i rozumienia go. Tę strategię poznawczą doskonale skomentowano w jednej z pierwszych prac sztuki nowych mediów refleksyjnie podchodzących do problematyki przeładowania danymi. Chodzi o Legible City autorstwa Jeffreya Shawa z przełomu lat 80. i 90. ubiegłego wieku [240]. Wewnątrz instalacji na dużym ekranie znajduje się wirtualna makieta przestrzeni, w której zamiast budynków znajdują się słowa. Wchodzący do pracy interaktor pedałuje na zsynchronizowanym z miastem-bazą danych rowerze przemieszczając się w danowej przestrzeni. Praca doskonale pokazuje bazodanowy ekosystem, który wydaje się nie mieć granic i w którym każdorazowe przyspieszenie, skręt czy zatrzymanie wprowadza jadącego w nowe obszary, ale jednocześnie oddala od innych. Tak wygląda wciąż jeszcze, mimo iż od publicznego debiutu pracy Shawa minęło już ponad 30 lat, sytuacja człowieka postawionego w obliczu danych. Istnieją jednak przesłanki, które świadczą o tym, że przygodną/chaotyczną podróż można wzbogacić o skuteczne narzędzia i strategie przeglądania danych, efektywnego pływania w bazodanowym oceanie.

Potrzeby związane z rozumieniem danych rosną w tempie, w jakim przybywa samych danych – przypomnę tu kategorię Big Data – i w jakim osiągalne dzięki nowym narzędziom stają się kolejne bazodanowe logiki poznawcze. Jak poradzić sobie poznawczo z tak wielką ilością danych? W języku angielskim pojawiło się sformułowanie, które daje poglądową odpowiedź na to pytanie. Brzmi ono data mining i oznacza wkopywanie się w ocean danych w celu jego eksploracji, roboty odkrywkowe w poszukiwaniu w nim wiedzy na poziomie metadanych, wydobywanie z danych informacji [241]. To strategia, z której obecnie korzystają głównie profesjonalni analitycy operujący na olbrzymich bazach danych, takich jak zbiory korporacyjne, czy administracyjne. Poszukują w nich ukrytych przed jednostkową analizą wzorców i prawidłowości. Jednak wiele już dzisiaj wskazuje na to, że możliwości takich osób staną się niebawem osiągalne także w powszechnym użyciu. Przybywa publicznych i prywatnych podmiotów, które decydują się na upublicznianie swoich archiwów w postaci otwartych baz danych dostępnych dla zainteresowanych. W roku 2009 Barack Obama inaugurował pierwszy publiczny serwis z dostępem do olbrzymiej ilości danych, które przez lata zgromadziły agendy amerykańskiej administracji. Serwis został uruchomiony pod adresem data.gov i można w nim znaleźć zasoby dotyczące przeciętnej i zmieniającej się w zależności od pory roku głębokości amerykańskich rzek, surowe dane i statystyki na temat przestępczości w poszczególnych stanach i miastach z podziałem na rodzaj użytej broni i kolor skóry przestępców, itd. Niedługo potem w ślad za tworzącym nowy publiczny obyczaj rządem USA poszły inne kraje: Australia, Nowa Zelandia czy Wielka Brytania, gdzie misję stworzenia nowego portal powierzono wynalazcy www Sir Timowi Berners-Lee. Obecność tych w przestrzeni publicznej należy potraktować jako zaproszenie do ich interpretacji do wkopywania się w nie i poszukiwania wiedzy w nich zakodowanej. Bazy danych można w tym kontekście uznać za posiadający szczeliny (to praca specjalistów) sezam, który czeka na swoje powszechne otwarcie i odczytanie nagromadzonych w nim skarbów.

Zanim do danowego „Eldorado” przenikną tabuny różnego pokroju poszukiwaczy, widać już, że przeszukiwanie danych to działanie intratne, i, obok ich wizualizowania, stanowi fundament nowego ekosystemu informacyjnego. Niech świadczą o tym narodziny data journalism, czyli specjalistycznego rzemiosła dziennikarskiego, które polega na wynajdywaniu, generowaniu i/lub zestawianiu określonych danych i zadawaniu im algorytmicznych zapytań, by z wyników takich kwerend poczynić następnie gotowe fakty medialne. Najczęściej chodzi o pozyskanie wiedzy, której nie sposób udowodnić w żaden klasyczny dziennikarski sposób [242] i która domaga się nietekstualnych reprezentacji, co znaczy że najbardziej popularne są wśród nich wspomniane już wcześniej interpretacje wizualne [243]. Najprężniej działające redakcje medialne już od jakiegoś czasu otwierają swoje danowe archiwa (już o tym pisałem) ale i powołują do życia wyspecjalizowane działy, którym powierzają prowadzenie działań w zakresie analizy danych pod kątem publikacji medialnych – tak działa np. brytyjski Guardian.