Przejdę teraz do analizy wspomnianej potencjalnej konkurencji, jaką dla świata nauki stanowią „świeckie” sposoby i narzędzia pozyskiwania i analizy danych. W roku 2008, Chris Anderson w jednym ze swoich felietonów na łamach „Wired”, krytycznie pisał o dotychczasowych sposobach uprawiania nauki i konstruowania wiedzy, twierdząc, że nadchodzi koniec ich modelu w obliczu big data. Prowokacyjnie obwieszczał koniec teorii, który będzie miał miejsce w zderzeniu z Petabyte Age (to dla niego synonim big data) i bazodanową logiką cyberkultury [186]. Publicysta dowodził wyższości matematycznych i statystycznych działań – trudno nie dostrzec w takiej optyce mającego korzenie w projekcie modernistycznym konfliktu pomiędzy „prawdziwymi” sciences a „nonszalanckimi” humanities – realizowanych w oparciu o olbrzymie, wielowątkowe bazy danych nad tradycyjnym instrumentarium i metodyką pracy naukowej. Przekonywał, że wyrafinowana technicznie analiza danych jest metodą oferującą niegraniczone możliwości poznawcze; bazom danych możemy zadawać nieograniczoną ilość pytań ,a same pytania mogą być niezwykle złożone, wielowymiarowe (wielowariantowe). Jednocześnie dostęp do danych i ich olbrzymia ilość to dzisiaj elementy natywne w środowisku cyfrowym, dostępne w większości dla każdego zainteresowanego i otwarte na wszelkie potencjalne zapytania. Właściwie zapytane bazy danych nie potrafią kłamać ani manipulować informacjami, oferują odpowiedzi w trybie natychmiastowym, pozwalają na nieustanne zmienianie hipotez badawczych, na procesualne zachowanie badającego algorytmu, update nowymi danymi i algorytmami pytającymi, ich przenikanie i remiksowanie, itd. Innymi słowy: wewnątrz baz danych znika potrzeba spekulacji i tworzenia modelowych wizji, wystarczy, mając dostęp do konkretnych danych, pozwolić kalkulującym maszynom działać w oparciu o zdefiniowane przez badacza zapytania/algorytmy.

Skomentuj