Czytaj książkę z rozdziału: Medialne/artystyczne źródła/następstwa

Poznaliśmy metaforyczne i ikoniczne zarazem figury, których zderzenia w kulturowej wyobraźni tworzą grunt pod bazodanową gramatykę komunikacyjną. Sfera zbiorowej wyobraźni, wyobraźni kulturowej jest przy tym efemeryczna, nie ma zgody co do jej rzeczywistego, a przynajmniej dającego się w prosty sposób zmierzyć wpływu na kulturowe status quo. Dlatego moje poszukiwania bazodanowych źródeł skieruję teraz na obszar bardziej konkretnych, namacalnych dzieł, wydarzeń i stanów medialnych kultur i sztuk. W zmieniających się językach medialnych wypowiedzi, w obszarze sztuki zanurzonej w elektrycznym, analogowym otoczeniu technologicznym, szukać będę zarówno sytuacji poprzedzających interesującą mnie nowomedialną formę, jak i skutków jej obecności. Patrząc z perspektywy cyfrowej archeologii wiele z mających miejsce w kulturze działań i powstających w ich wyniku tekstów można uznać za pionierskie rozpoznania kondycji bazodanowej. Zobaczmy, jak tekstualność i literatura, wizualność i jej sztuki, audialność i muzyka popularna, a także architektura odczytują zmieniającego się ducha czasów i w jaki sposób jego esencję współtworzą.

Przegląd artystycznych predefinicji dzisiejszych baz danych zacznę od pierwszego z mediów masowych, tj. literatury i towarzyszącego jej dyskursu literaturoznawczego. Piśmienność i jej media: tekstualność, literaturę, druk, prasę uznać trzeba za logikę medialną, której kultura zawdzięcza (wielu dopowie, że to raczej skaza i obciążenie) wynalezienie, uprawomocnienie i usytuowanie linearności, narracyjności, hierarchicznych relacji pomiędzy autorami i odbiorcami, a potem także dodatkowo wydawcami. Wszystkie te elementy złożyły się na tradycyjnie uznawaną za modelową i nieodwołalną komunikacyjną gramatykę kultury określanej od czasu jej mechanizacji w okresie renesansu epoką Gutenberga.

Szczególnie w XX stuleciu pojawiło się wewnątrz niej wiele prób przełamania tradycyjnych zasad, medialnych reguł i sposobów komunikacji – okazała się w dużej mierze autokrytyczna. Na formalny ferment w obszarze tekstualności, a w dalszej kolejności w teorii literatury, składają się dokonania i idee takich ikon współczesnej kultury, jak James Joyce, Jose Louis Borges, eksperymentatorzy z grupy Oulipo, semiotyk, filozof i teoretyk kultury Umberto Eco z jego wspomnianą już teorią dzieła otwartego, Roland Barthes wieszczący śmierć autora, czy Julio Cortazar. Ich dokonania w zakresie krytyki tekstualności i warsztatu literackiego dotyczą nie tylko wewnętrznych stanów w tej przestrzeni kultury. Okazały się także znamienną krytyką technologicznego wymiaru gutenbergowskiej kultury, dotyczyły ograniczeń zamkniętej formalnie i ograniczonej funkcjonalnie konstrukcji medium książki i jej wpływu na odbiór i kondycję tekstualności [199]. Chociaż jedynie w niewielkim stopniu można by je powiązać z rozwojem technologicznym maszyn kalkulujących, to miały one niepodważalny wpływ na ich kulturowe osadzenie na terytorium zdominowanym przez tekstualność. Doprowadziły bowiem do wykrystalizowania się idei cyber- i hipertekstu, a jednocześnie zainicjowały pozatechnologiczny (analogowy) nurt rozwoju tekstualności, który nazywany bywa liberaturą[200].

Nie będę wchodził głębiej w dokonania przywołanych twórców, bo są one powszechnie znane i dobrze już opisane także na polu medioznawczym – choćby w teorii hipertekstu. Odniosę się jedynie do konkluzji, jakie na temat zmian w tym obszarze zgłosili Eco i Barthes. W sformułowanej na początku lat 60. ubiegłego wieku koncepcji dzieła otwartego Umberto Eco zwracał uwagę na dokonującą się w kulturze zmianę ról. Relacja autor-dzieło traci na znaczeniu wobec relacji odbiorca-dzieło. Swoją władzą nad tekstami kultury ich autorzy muszą dzielić się z ich odbiorcami, którzy interpretują je, przekształcają i czytają wciąż na nowo [201]. Kilka lat później tę argumentację dobitnie wyraził Roland Barthes w słynnym eseju obwieszczającym śmierć autora jako jedynowładcy dzieła. Francuz potwierdzał w nim diagnozę Eco co do fundamentalnych zmian w obrębie literatury, rynku wydawniczego i czytelnictwa, jakie miały miejsce w XX wieku [202]. Dla obu wyśmienitych analityków obserwacje kulturowej tektoniki miały dużo większą siłę sejsmicznego rażenia niż tylko w obszarze literatury i tekstualności jako takich. W ich projekcjach stawały się one teoriami ogólnych zmian w kulturze współczesności, w której brak ciągłości, a przygodność, niejednoznaczność i nieokreśloność to stany naturalne. Otwartym dziełem nie włada już autorytarnie sam autor (ewentualnie także jego dysponent, wydawca) – staje się ono otwartym zasobem kultury, którego przeznaczeniem jest być wielokrotnie dekodowanym, dekonstruowanym. Konstatacje obu autorów mogłyby z powodzeniem znaleźć się w instrukcjach obsługi do technologicznych form baz danych. Wyrażają ich kulturowy potencjał i definiują nowy układ ról w kontakcie z uniwersum informacji, stając się w ten sposób klasycznymi tekstami cyfrowego dyskursu.

W historii dyskursu nowomedialnego wymienia się jednym ciągiem opowiadanie Borgesa o ogrodzie z tysiącami rozwidlających się ścieżek z początku lat 40. ubiegłego wieku, które odbiło się olbrzymim echem w obszarze teorii literatury, a także konceptualne prace pionierów kultury cyfrowej, takie jak koncepcja hipertekstowej maszyny przeszukującej dane i utrwalającej nielinearne skojarzenia użytkownika o nazwie MEMEX autorstwa V. Busha z połowy ubiegłego wieku jako zdarzenia fundujące kulturę i technologię danych w początkowej postaci konceptualnego hipertekstu. Hipertekst uznać można za historyczny prototyp technologii i kultury baz danych. To także pierwsze bezpośrednie rozwiązanie nowomedialne, które można uznać za fundament interfejsowy projektu komputeryzacji w ogóle. Jeszcze przed pojawieniem się baz danych w ich dzisiejszej formie hipertekst okazał się formą o wewnetrznej strukturze odpowiadającej myśleniu, które tu określam jako bazodanowe. Zdefiniowana na nowo w tej cyfrowej formie tekstualność stała się otwarta, wielowątkowa i multinarracyjna, są w niej nie tylko z góry wyznaczone ścieżki, ale i potencjał czytania na wiele nieokreślonych z góry sposobów. W cyfrowym środowisku zyskała nowe oblicze [203].

Kilkadziesiąt lat później, po kilku etapach ewolucji komputeryzacji, myślenie o alfabecie, tekście i jego literackich formach w kategoriach baz danych i zarządzania nimi nie jest niczym niezwykłym. Bazodanowa wyobraźnia poszerza i otwiera na nowe możliwości formalne całą tekstualność. Jako przykład komentujący i ilustrujący bazodanowego ducha, którego cień systematycznie kładzie się na tekstualności, wybieram jedną z prac niemieckiego designera, Borisa Müllera, zatytułowaną Fast Faust, z roku 2000. Wizualna postać tej pracy (plakat wydrukowany w formacie A1) powstała w wyniku algorytmicznych obliczeń częstotliwości występowania w oryginalnym tekście Fausta Goethego poszczególnych słów. Na plakacie występują wszystkie słowa, które znajdują się w tekście poematu. Zmienia się jednak ich kolejność i wygląd; te, które pojawiają się w tekście najczęściej, znajdują się na górze zestawienia i są wydrukowane większym i grubszym rozmiarem kroju czcionki. Im mniejsza ilość lokalizacji w tekście danego słowa, tym mniejsza jego wielkość i pozycja na wizualizacji. Powstała w ten sposób nie tylko alternatywna wizualizacja tekstowej bazy danych, za jaką może być uznane dzieło literackie w cyfrowych okolicznościach, ale także algorytmiczna analiza praktyki autorskiej, z której lektury uważny czytelnik z pewnością wyniesie wiele cennej, nieoczywistej i trudnej do pozyskania tradycyjnymi metodami wiedzy na temat kanonicznego dla światowej literatury utworu [204].

Tekstualność, na której formalnych podwalinach zasadza się projekt cyfrowy, to nie jedyny trop medialny dający się wykorzystać w poszukiwaniach kulturowych i artystycznych prototypów nowej organizacji wiedzy i informacji w formie baz danych. Tekstocentryczne analizy kondycji nowych mediów, które postrzegają hipertekstualność jako najważniejszy z kulturowych kształtów cyfrowości, wraz z rozwojem technologicznym przesunęły się na drugi plan, ustępując miejsca obrazom i ustanowionej w oparciu o ich język kulturze wizualnej. Oznacza to, że w domenie technologii cyfrowych to metafory, gramatyki i logiki wizualności odgrywają dziś decydującą rolę, definiują sens i wyznaczają porządek cyfrowego świata. Nie wchodząc na razie w szczegóły dotyczące znaczenia i historii zwrotu wizualnego w kulturze – wrócę do tego wątku niebawem – można powiedzieć, że ogólnie losy komunikacyjnej powłoki cyfrowych maszyn w ostatnich trzydziestu latach polegały na systematycznej ich emigracji z terenu tekstualności i zagnieżdżaniu się wewnątrz wizualności – potwierdza to historyczne następstwo technologii interfejsowych, które w pierwszej fazie swojego istnienia były mechaniczne, następnie tekstualne, aż wreszcie – to właśnie faza obecna – wizualne. Ten proces opowiadany z perspektywy historii technologii cyfrowych i sieciowych można rozumieć paralelnie wobec historii komunikacji w ogóle: jako przechodzenie od pisma i tekstualności (epoka Gutenberga) do fazy dominacji kultury wizualnej. Powszechna komputeryzacja możliwa dzięki interfejsom graficznym i wizualizacji środowiska cyfrowego to jedna z przestrzeni, w których doskonale widać dominację kultury wizualnej we współczesności [205].

Medialne technologie wizualne wraz z rozwijającymi się w XIX i XX wieku, głównie w opozycji do nich i w reakcji na ich obecność, sztukami wizualnymi wygenerowały spory zasób form, tekstów i ikon, które można uznać za wprowadzające w bazodanową ekologię. Widać je, kiedy spojrzymy na reakcję sztuki postawionej w obliczu fotografii, a następnie fotografii, kina i sztuk malarskich w obliczu telewizji. Eksperymenty formalne kubistów, impresjonistów i, najogólniej rzecz biorąc, kierunek działań awangardy były poszukiwaniem prawdy w malarstwie, które zostało w swej klasycznej estetyce i gramatyce zagrożone przez niezwykle wierną rzeczywistości, prostą i przystępną w obsłudze fotografię. Prace takich artystów jak Pablo Picasso, Paul Klee, Piet Mondrian świadczą o potrzebie przewartościowania wiedzy o malarskich estetykach, zwracaniu się do punktów i ich zbiorów, wariacyjnych perspektyw i sposobów postrzegania oraz interpretowania rzeczywistości – konstruowania nowatorskich reprezentacji świata, który malarstwu wykradały mechaniczne technologie wizualne.

Konkurencja malarstwa z fotografią zogniskowała się także wokół techniki fotograficznej nazywanej kolaż czy asamblaż. Jej reguła – powstała na skutek wielu innych dokonujących się w dobie ówczesnego kryzysu przedstawienia poszukiwań artystycznych – polega na zestawianiu przeróżnych elementów, materiałów i znaków w ramach pojedynczej kompozycji – dzieła. W ten sposób malarz może do namalowanej przez siebie farbą części dzieła dołączyć pocięte szmaty, wycinki z gazet, elementy wystroju wnętrz, itd. Jak się z czasem okazało, ta technika i forma w sztukach malarskich zyskały sporą, choć niedorównującą ich karierze w gramatyce języka obrazów technicznych, popularność.

Rozpoczęte w obszarze malarstwa poszukiwania podejmują także fotografia i kino, dominujące w pierwszej połowie XX wieku media wizualne. Mają one po temu naturalne techniczne predyspozycje, bowiem ich medialne języki biorą się z faktu technicznej manipulacji preparowanym obrazem. Szczególnie kino, które technicznie rzecz ujmując jest zwielokrotnioną i przyspieszoną w czasie iluzją wizualną opartą na fotografii, złudzeniem optycznym zmieniających się w tempie niezauważalnym dla ludzkiego oka klatek-zdjęć. Jednym z naturalnych elementów gramatyki tego medium jest montaż, który polega na manipulowaniu utrwalonymi na celuloidowej taśmie sekwencjami zdjęć – cięciem i sklejaniem celuloidowej taśmy, nakładaniem na siebie poszczególnych klatek, wycinaniem z pojedynczych utrwalonych tam obiektów, itd.. Naturalne dla tego medium jest w związku z tym także sekwencyjne przedstawianie opowieści. To, co można zrobić z filmową taśmą w procesie jej obróbki i montażu, okazało się również treścią samego medium. Ze współczesnej, bazodanowej perspektywy kinowy styl i takie jego formalne elementy, jak ujęcia, sceny, montaż, można uznać za nowatorskie działanie na wizualnej bazie danych. W klasycznej, celuloidowej wersji do filmu zastosować można, co prawda, dosyć ograniczoną ilość „algorytmów”, ale i tak jego narracyjność jest dalece bardziej wariacyjna, niż to miało miejsce w przypadku zamkniętego medium książki czy też dzieł malarskich, a nawet fotograficznych kolaży. To dlatego, że technologia kinowa oferuje znacznie większą ilość możliwych ingerencji, poprawek, ulepszeń, wariacji wobec scenariuszowej narracji niż te wcześniejsze media. Są nimi odpowiadające zabiegom wobec taśmy przenikania w scenach (audio i wideo), „szycie” scen „na zakładkę”, osobne manipulowanie kanałem audio i wideo, np. ich desynchronizacja, itd.

W filmie Spotkanie w Palermo (oryg. Palermo Shooting), wyreżyserowanym i napisanym przez przywołanego już w tej części Wima Wendersa w roku 2008, główny bohater to poszukujący sensu życia i inspiracji dla tworzonych przez siebie obrazów wzięty europejski fotograf [206]. Na co dzień posługuje się technikami manipulacji komputerowej wobec swoich zdjęć, dbając o zagwarantowanie ich atrakcyjności. Podmienia w nich zbyt chłodne słońce zachodzące nad miastem na jego bardziej południową, „słoneczną” wersję; chmury do niepełnego miejskiego krajobrazu wycina i wkleja z fotografii naturalnego krajobrazu; komputerowo usuwa niepotrzebne odcienie i refleksy światła. Dodatkowo niezwykle inwazyjnie zachowuje się wobec komponowanych przez siebie scen aranżowanych na potrzeby fotografii komercyjnych. Ten artysta mierzy się w technokratyczny i właściwy imagologom wizualnej kultury Zachodu, wyposażonej w coraz doskonalsze techniki manipulacji, z wizualnością tak, jakby była ona rzeczywiście zbiorem atomów odbijających światło, domagającym się nieustannego zarządzania, selekcji danych, ich aranżowania i zapętlonego w czasie burzenia ich w poszukiwaniu kolejnych wersji uchwyconych na kolejnych klatkach. Wenders niewątpliwie niezwykle poetycko diagnozuje w swoim filmie stan współczesnej wizualności technologicznej dekonstruującej wizualność i rozkładającej obrazy na atomy/piksele podlegające nieustannemu przetwarzaniu.

Współczesne kino dzięki swoim cyfrowym mediom jest w gruncie rzeczy dalece bardziej otwarte i podatne na wariacyjność i algorytmiczne gry z formą, niżby to wynikało z wendersowskiej opowieści. Za pioniera takiej estetyki uznać można polskiego reżysera Zbigniewa Rybczyńskiego. Dokonania Rybczyńskiego w zakresie dekonstrukcji mediów filmowych, twórczego eksplorowania technicznych ograniczeń doprowadziły go do momentów, w których filmowe rzemiosło uczynił jeszcze w analogowych czasach tej technologii ideowo-cyfrowym, bazodanowym. Peter Weibel nazywa wręcz Zbigniewa Rybczyńskiego matematykiem obrazów [207]. Jakie jest to protobazodanowe kino Rybczyńskiego? Aby odpowiedzieć na to pytanie, sięgnę tu do okresu jego analogowej twórczości. Jego „bazodanowe” Tango zostało nagrodzone Oscarem w latach 80. ubiegłego stulecia. Dla polskiego twórcy, doskonale świadomego technologii wizualnych i potrafiącego z nich na wysokim poziomie warsztatowym kreatywnie i krytycznie zarazem korzystać, technologiczny obraz oferowany przez media jest zbiorem świecących punktów, które z natury rzeczy poddają się wszelkim możliwym procedurom matematycznym. Rybczyński dał się poznać jako mistrz w ich formułowaniu i implementowaniu, czyli mozolnym zmuszaniu niegotowych na takie rozwiązania analogowych maszyn za sprawą różnych, mniej lub bardziej wywrotowych i subwersywnych w stosunku do nich, działań. Jego twórczość to zarządzanie pikselami technologicznych obrazów i odpowiadająca im logika zarządzania czasem, przestrzenią i bohaterami na semantycznym poziomie tworzonych obrazów – cięcie kliszy na drobne elementy składowe kompozycji i ich kolaż, zapętlanie ujęć, ich rewersy, negatywy, przyspieszenia, zwolnienia, przenikania, itd. Weiblowskie określenie Rybczyńskiego można, w kontekście współczesnych form baz danych i możliwych wizualnych operacji na nich, uzupełnić. Filmy Rybczyńskiego to pionierskie potraktowanie medium (wszystkim jego ograniczeń i możliwości) w wyrafinowany technologicznie sposób, który poprzedza myślenie o nim w kategoriach stricte cyfrowych: obraz to pierwsza z baz danych, którą ono zarządza, a jego piksele (wiedza Rybczyńskiego o ekranach telewizyjnych, liniach pikseli w systemach PAL/NTSC, przeplocie) to baza wizualnych danych otwarta na zarządzanie. W Nowej książce z roku 1975 czy w zrealizowanym kilka lat później Tangu widzimy także bazodanowe myślenie o semantyce filmowego przekazu. W pierwszym z tych filmów w podzielonym na dziewięć identycznych mniejszych części ekranie obserwujemy dziewięć dziejących się symultanicznie scen, które jednak – jak się okazuje – zostały pierwotnie nakręcone jako klasyczna filmowa sekwencja. W Tangu mamy do czynienia z bazodanowym majstersztykiem. Mozolnie pocięte i ponakładane na siebie, w rewolucyjny jak na tamte lata sposób, ujęcia pokazane są jednocześnie jako filmowy kolaż doskonały. Reżyser dodatkowo zapętla pojedyncze z nich w taki sposób, że pojawiają się jako sekwencje trwające dłużej niż pojedynczy „take”, tworząc w ten sposób wizualny loop. Widać w tej pracy inspiracje technologiami wielośladowej reprodukcji dźwięku, myślenie w kategoriach wychodzenia poza linearną narracyjność kina. Rybczyński myślał o filmowych ujęciach, taśmach i maszynach edycyjnych jako o bazach danych i przykładanych do nich algorytmach, choć dopiero od niedawna jego analogowe prace można interpretować w cyfrowych kategoriach. Jego kino jest w gruncie rzeczy w duchu cyfrowe, wyprzedzające epokę i formy techniczne, które reżyser wykorzystał, nawet wtedy, kiedy jest technologicznie analogowe: obecne jest w nim nieustanne przeliczanie klatek, scen, kompozycji i samej technologii, tak jakby robiły to dzisiejsze algorytmy w odwołaniu do cyfrowych wizualnych baz danych.

Skoro już jesteśmy przy kinie, to nie sposób pominąć technologii rejestracji i dystrybucji tworzonych nagrań muzycznych, których znaczenie dla filmu – jak w przypadku Rybczyńskiego, ale i dla całej współczesnej kultury – jest równie fundamentalne. To w środowisku twórców muzyki, jej studyjnych inżynierów, producentów i realizatorów powstały chyba najbardziej bliskie bazodanowej ekologii i poetyce formy i teksty. Obecnie zaś wielu teoretyków kultury próbuje dowartościować jej audialne zaplecze na tle humanistycznych opowieści o dominacji kultury wizualnej [208].

W przypadku medium masowego, jakim jest muzyka popularna, mamy do czynienia z wieloma elementami, które można by uznać za protobazodanowe. Kluczowym z nich jest bez wątpienia rozwój technologii wielośladowej rejestracji i remiksu nagrań oraz zmiany w kulturze muzycznej, które wywołał. Jak wiadomo pierwsze nagrania muzyczne powstawały w oparciu o homogeniczny zestaw rejestrujący składający się ze „słyszącego” otoczenie interfejsu-mikrofonu oraz kompletu urządzeń przetwarzających i rejestrujących, którymi początkowo były walce powleczone tworzywem poddającym się rejestrującej igle, żłobiącej w nich porowatą ścieżkę, po której podróżowała następnie igła przekładająca powstałe w ten sposób rowki na drgania i dalej na modulowane elektrycznie sygnały, które, po odpowiedniej obróbce, np. wzmocnieniu, wprawiały w ruch membranę głośnika (interfejsu wyjścia). W zasadzie tej formule podporządkowane były zarówno płyty gramofonowe, jak i współczesne nośniki cyfrowe CD, DVD, BR, których ścieżki składają się z wypalonych/wytłoczonych dołków układających się w spiralną linię. Pojawienie się zapisu na taśmach magnetycznych przyczyniło się do powstania technologii wielośladowej, czyli takiej, w której można zarejestrować, a następnie poddać strukturalnej obróbce zapis z wielu źródeł: mikrofonów, instrumentów, efektów jednocześnie. Dostępne dzisiaj cyfrowe techniki nagraniowe oferują możliwość rejestracji i miksu w praktyce nieskończonej ilości ścieżek. Oferują także możliwość pracy z tymi ścieżkami w niemal nieograniczony sposób – każdą z nich można indywidualnie przetwarzać, a całą powstającą z ich wymieszania kompozycję można jeszcze, dodatkowo, poddawać bardziej całokształtnej obróbce.

Dzięki technologiom symultanicznego miksu wielu osobno rejestrowanych ścieżek nagrania muzyczne stały się czymś zgoła innym od granej „na żywo”, z konieczności homogenicznej formalnie muzyki. Nowa formuła oferuje możliwość niezależnego od siebie zarządzania wieloma danymi w ramach jednego utworu; w ten sposób powstają miksy i remiksy muzyczne, których logika polega na tym, aby zgodnie z wyobraźnią realizatorów i producentów (algorytmami) zaaranżować określony układ i zależności ścieżek przekładających się na brzmienie utworu. Korzystając z wielośladowych nagrań pojedynczy muzyk może, o ile potrafi, nagrać kilkadziesiąt kolejnych śladów-ścieżek pojedynczych instrumentów, wokaliz, efektów i skompilować na ich podstawie gotową aranżację akustyczną. Inni muzycy, realizatorzy, producenci, którzy do takich nagranych i trzymanych formalnie w separacji, choć w razie potrzeby współbrzmiących, ścieżek mają dostęp, mogą nimi po swojemu „zarządzać”. W ten sposób swoje płyty nagrywali tacy muzycy popularni, jak np.: Paul McCartney, Beck, Wojciech Waglewski czy Prince.

Rozwój technologii muzycznych danych poszedł jednak jeszcze dalej, kiedy okazało się, że z poszczególnych, sklejonych wcześniej, studiach utworów-aranżacji można „pozyskać” (działania te są kontrowersyjne z punktu widzenia tradycyjnych praw autorskich) najdrobniejsze elementy już istniejących dzieł, by wykorzystać je jako składniki w nowych utworach. Taki sposób „recyklingu” muzyki określono mianem samplowania. Ta technika wywodzi się także z alternatywnego wykorzystania innej technologii muzycznej: gramofonu i interfejsu winylowych płyt. Od studyjnej rejestracji i miksu pojedynczych śladów samplowanie z winylowych płyt różni subwersywy charakter takiego działania. Podejmowali je i stworzyli jego estetykę ludzie, który nie byli ani profesjonalnymi muzykami, ani inżynierami dźwięku – mowa o kulturze didżejskiej i czarnoskórych selekcjonerów puszczających muzykę z płyt na tanecznych soundsystemach w Afryce i Ameryce Północnej. Poszukując form sklejania różnych muzycznych „kawałków” w dansingowe sety, stworzyli własną estetykę, dla której kategoriami kluczowymi stały się takie hasła, jak sample (pojedyncze cząstki gotowych utworów wykorzystywane w oderwaniu od nich), scratch (ręczne poruszanie płytą gramofonową dające specyficzny efekt dźwiękowy), loop (rytmiczne zapętlanie sampli). Te trzy element okazały się później zrębem etosu i najważniejszą figurą estetyczną (obok rapu) muzyki hiphopowej. Jej klasyczne dokonania bazują na utworach powstających przez pożyczanie wyłuskanych z istniejących nagrań gitarowych riffów, akordów różnych instrumentów, elementów wokaliz, itd. Hiphopowy twórca z samych tylko sampli potrafi stworzyć linię melodyczną i rytmiczną swojej kompozycji. Radykalnym co do formy i wyrafinowanym estetycznie przykładem takiego działania niech będzie twórczość grupy Skalpel, której muzycy pieczołowicie wycinali sample brzmień jazzowych ze starych polskich produkcji i stworzyli z nich własne utwory.

Poetyka didżejska zrodziła z czasem zupełnie nowe „gatunki” i formaty muzyczne: powstała kategoria chill out music, czyli sety różnych utworów muzycznych dobieranych według różnych kryteriów w poprzek istniejących gatunków i estetyk, a także format muzycznej składanki, tj. kompilacji nagrać przygotowanych w określonym celu, według założonego kryterium semantycznego. Wszystkie te gry z technologiami rejestracji, remiksowania i odsłuchiwania nagrań to estetyka, którą można by zawrzeć w kategorii kultura remiksu [209]. To działanie i estetyka, które stały się zasadniczą regułą pracy z bazami danych. W tym kontekście można mieć uzasadnione – alarmujące głosy podnoszą w tym zakresie wydawcy muzyki – obawy o śmierć albumu jako formy dystrybucji muzyki, śmierć pojedynczego utworu jako zamkniętej formy technologicznej i estetycznej, czy dalszą karierę algorytmów w powszechnym odbiorze muzyki – pierwszym i najbardziej znanym z nich jest odtwarzania w przypadkowej kolejności utworów z płyty, inne dotyczą kompilowania play list według licznych kategorii i tagów (random play, shuffle) [210].

Jednak nie tylko w technologiach audialnych widać tropy wiodące do wyobraźni bazodanowej. Są one także obecne w przemianach, które dotyczyły muzyki w ogóle. Wytyczyły je takie postaci XX-wiecznej muzyki, jak Pierre Schaeffer (inżynier i teoretyk muzyki), John Cage (awangardowy kompozytor współczesny), Glen Gould (wybitny pianista) czy Brian Eno (twórca muzyki ambient). Ich artystyczne i teoretyczne poszukiwania polegały najpierw na poszerzaniu pola muzyki przez wciąganie do niego dźwięków naturalnych i cywilizacyjnych, takich jak odgłosy przyrody, dźwięki miasta i przemysłowe, anektowaniu ciszy, przekraczaniu ograniczeń instrumentów – np. uderzania w fortepian różnymi przedmiotami, modyfikowaniu ich kształtów i majsterkowaniu przy ich konstrukcji (Cage). Powstały w ten sposób koncepcje słuchania akuzmatycznegoobiektu dźwiękowego (Schaeffer), rozciągające formalne reguły rzemiosła muzycznego i estetyki akustycznej do rozmiarów olbrzymiej bazy danych, w której muzyk w tradycyjnym sensie stawał się postacią anachroniczną, nieodpowiadającą już wyzwaniom, które w jego imieniu mieli przejąć także architekci muzyczni (Cage) oraz towarzyszący im producenci, inżynierowie, a w późniejszym czasie także i didżeje.

Jednym z najbardziej znanych utworów Johna Cage’a jest Imaginary Landscape No. 4, w którym audialny efekt powstaje za sprawą regulacji długości fal oraz głośności dobiegających z 12 radioodbiorników obsługiwanych przez 24 osoby. W Imaginary Landscape No. 5 grają 42 wskazane przez artystę płyty gramofonowe. Cage wprowadza w ten sposób do muzyki przypadkowość, a jednocześnie do nieznanego wcześniej poziomu rozbija harmonię klasycznego instrumentarium, stawiając na wariacyjność i algorytmiczność – atrybuty późniejszych baz danych.

Pierre Schaeffer korzysta w tworzeniu swojej muzyki konkretnej ze wszelkich możliwych modulacji i wariacji, jakie da się osiągnąć manipulując maszynami do rejestracji, miksowania i odtwarzania dźwięków. Z jego doświadczeń narodziła się muzyka określana jako plądrofonia – czyli taka, która powstaje z już istniejących, przetworzonych technologicznie nagrań muzycznych. Jest ona mało znanym zalążkiem wszystkiego, co dziś znane jest w estetyce audialnej (i nie tylko) jako kultura remiksu.

Glen Gould będąc u szczytu sławy jako wybitny pianista klasyczny zrezygnował z występów koncertowych, poświęcając się pracy studyjnej. Nie wierząc w potencjał nagrań na żywo rozpoczął w studiu bazodanowe eksperymenty mieszając różne części nagrywanych przez siebie kolejnych wersji tych samych utworów i z każdej z nich wybierając najlepsze fragmenty. Powstawały w ten sposób miksowane nagrania, które brzmiały zdaniem artysty lepiej niż wierne zapisy pojedynczych take’ów.

Brian Eno poszukując nowych form muzycznych podążył w stronę muzyki samogeneratywnej, która powstawała – podobnie zresztą jak tworzone przez niego dzieła wizualne – na zasadzie wariacji algorytmicznych w obszarze skończonej liczby dostępnych sampli, taktów i brzmień. Ambientowe utwory powstające w ten sposób są nieustanną pracą algorytmu na bazie danych – potencjalnie nigdy się nie kończą, generując cały czas nowe wariacje.

W przestrzeni audialnej bazodanowe tropy obejmują dodatkowo nowego typu instrumentarium, takie jak samplery, sequencery, miksery, software służący do miksowania nagrań, sprzęt do odtwarzania nagrań (programowanie kolejności odtwarzania i brzmienia). Bazodanowa muzyka koncentruje się na wszystkim tym, co można z zarejestrowanym materiałem audio zrobić za pomocą przeróżnych technologicznych maszyn i wpuszczonych na ich terytorium algorytmów.

Od jakiegoś czasu także i w architekturze pojawiają się bardzo dosłowne nawiązania do baz danych. Przykładem takiej estetyki niech będzie tu projekt ekologicznej struktury modułowej o nazwie Eco-Pod zaprojektowanej przez jedno z amerykańskich biur architektonicznych, która ma być samoregulującym się – zarówno w sensie funkcjonalnym jak i architektonicznym – systemem hodującym wykorzystywane do wytwarzania czystej energii algi. Budynek zarządza sam sobą, przestawiając moduły w razie potrzeby – dopasowuje się do klimatu otoczenia, według określonych kryteriów wybrane moduły wynosi na górne piętra, inne przestawia na pozycje fasadowe z wnętrza konstrukcji. Być może takie będą budynki przyszłości – samoorganizujące się „organizmy” architektoniczne nieustannie zmieniające swój kształt i układ strukturalny [211]>.