Poszukując granic humanistycznego przełomu

Poszukując granic humanistycznego przełomu
Debates in the Digital Humanities, red. Matthew K. Gold

Cyfrowa humanistyka jest zróżnicowanym nurtem badań. Z tego powodu osoby identyfikujące się z nią dokładają starań, by określić, czym jest i gdzie przebiegają jej granice. Jedną z prób podsumowania tych starań jest publikacja Debates in the Digital Humanities (Dyskusje w obrębie cyfrowej humanistyki). W 2012 roku ukazała się w postaci drukowanej jako tom pod redakcją Matthew K. Golda, profesora City University of New York, a wydanej przez University of Minnesota Press. Rok później opublikowano ją w formie serwisu internetowego w otwartym dostępie (co twórcy podkreślają), wzbogacając o interaktywne funkcjonalności: czytelnik może – po zalogowaniu się – komentować fragmenty tekstu, indeksować lub zaznaczać je jako warte uwagi. Funkcje te mogą okazać się przydatne przy poruszaniu się po publikacji: wiadomo, które fragmenty wzbudziły żywsze zainteresowanie (np. ile razy dany fragment został oznaczony jako „interesujący”, albo ile oznaczeń uzyskał każdy rozdział). Jednocześnie nie zostały przygotowane inne formaty publikacji: ani pdf, mobi czy e-pub.
Debates... zostały poddane tradycyjnej anonimowej recenzji w wydawnictwie, ale najpierw autorzy i zaproszeni akademicy komentowali eseje na witrynie zabezpieczonej hasłem (redaktor tomu uznał ten na wpół publiczny model za nowatorski i niezwykle konstruktywny – w tej fazie prac autorzy zapoznali się z esejami kolegów, dzięki czemu mogli odnieść się do nich w swoich; wskutek dyskusji w tym czasie prowadzonym powstało kilka nowych tekstów).
Wśród autorów znajduje się 43 cyfrowych humanistów, zarówno praktyków, jak i teoretyków, w tym grono najbardziej rozpoznawalnych postaci z tego obszaru, m.in. Daniel J. Cohen, Johanna Drucker, Kathleen Fitzpatrick, Matthew Kirschenbaum i Tom Scheinfeldt, jak również badacze dopiero rozpoczynający swoje kariery akademickie.
W tomie zamieszczono eseje napisane specjalnie z myślą o Debates... oraz takie, które wcześniej znalazły się w innych zbiorach lub na blogach. Zostały one pogrupowane w sześciu częściach, których tytuły są propozycją usystematyzowania dyskusji toczących się w ramach cyfrowej humanistyki.

Część I poświęcona jest problemowi definiowania cyfrowej humanistyki. Czy jest odrębną dyscypliną? Gdzie przebiegają jej granice? Jakimi cechami musi charakteryzować się praca, by móc określić ją jako cyfrową humanistykę? W jakim stopniu DH jest ekskluzywne, a w jakim otwarte na szerokie grono naukowców?
Próby zdefiniowania DH przyniosły podzielane przez wiele osób przekonanie o niemożliwości wypracowania takiej definicji. Rafael C. Alvarado (The Digital Humanities Situation) wyraża ten wniosek wprost.
Lisa Spiro w eseju “This Is Why We Fight”: Defining the Values of the Digital Humanities argumentuje, że cyfrowi humaniści potrzebują określenia wspólnych wartości. Pozwolą one uniknąć jałowości dyskusji „kto jest w środku, a kto na zewnątrz dużego namiotu” (o metaforze dużego namiotu – patrz niżej). Aby deklaracja wartości nie stała się ideologią, musi zostać sformułowana przez całą społeczność cyfrowych humanistów. Spiro przedstawia swoje propozycje wartości cyfrowej humanistyki.
Pierwszą z nich jest otwartość. Otwartość ma tu przede wszystkim dwa aspekty: otwarty dostęp do publikacji i danych naukowych ułatwia kolejne badania, a otwarcie na społeczeństwo pozwala pozytywnie wpłynąć na rzeczywistość. Ważnym celem humanistyki jest bowiem demokratyzacja wiedzy, a nie ograniczanie jej do wąskiego grona specjalistów. Przejawem doceniania otwartości przez cyfrowych humanistów jest silne zalecenie NEH (National Endowment  for the Humanities), by oprogramowanie wytworzone w ramach projektów wspieranych przez tę instytucję miały otwarty kod źródłowy (open-source). Otwartość cyfrowej humanistyki obejmuje wiele obszarów: otwarty dostęp do treści naukowych, otwarte dane badawcze, otwarte oprogramowanie, ale także otwarte zasoby edukacyjne.
Kolejną wartością cyfrowej humanistyki proponowaną przez Spiro jest współpraca. Projekty cyfrowej humanistyki wymagają często współpracy wielu osób o różnych kompetencjach (np. programistycznych). Nie sama konieczność kooperacji jest jednak wartością. „Społeczność cyfrowej humanistyki wspiera etos uwzględniający współpracę jako istotę swojej pracy i misji (nawet jeśli przyznaje, że część pracy lepiej wykonuje się w samotności)”1.  Ze współpracą związane są ściśle kolejne wartości: kolegialność i pozostawanie w stałym kontakcie, umożliwiające udzielanie pomocy kolegom.
Kathleen Fitzpatrick w eseju The Humanities. Done digitally postawiła pytanie, czy należy mówić o jednej cyfrowej humanistyce, czy raczej o wielu cyfrowych humanistykach? W tym samym tekście pojawia się, powtarzający się wielokrotnie, podział cyfrowych humanistów na tych, którzy coś budują (cyfrowe archiwa, narzędzia lub metody) oraz tych, którzy interpretują. Uważa, że na dzisiejszy stan cyfrowej humanistyki wpływa w znacznym stopniu twórcze napięcie „między tymi, którzy pracują w dyscyplinie od dawna, a tymi, którzy pojawili się niedawno, między dyscyplinarnością a interdyscyplinarnością, między tworzeniem a interpretowaniem, między historią dyscypliny a jej przyszłością”2.
Ważną metaforą w dyskusjach o tym, czym jest cyfrowa humanistyka, jest metafora dużego namiotu, wraz z pytaniem, „kto jest w środku, a kto na zewnątrz”. Patrik Svensson w eseju Beyond Big Tent opisuje spór o zasięg „dużego namiotu” (czyli granic cyfrowej humanistyki) m.in. w kontekście – dość późnego – zaangażowania się naukowców z uniwersytetu Yale w cyfrową humanistykę i sporu, czy cyfrowi humaniści muszą programować, czy wystarczy, że ich przedmiotem badań są zjawiska związane z kulturą cyfrową. Nie pozbawione znaczenia miało przeświadczenie części uznanych cyfrowych humanistów, że Yale, jedna z najbardziej prestiżowych uczelni w USA, stara się poniekąd zawłaszczyć ich dorobek przyznając tytuł cyfrowych humanistów osobom, od których nie wymagano umiejętności programowania (tę kontrowersję należy oceniać mając w głowie częste w środowisku cyfrowych humanistów alternatywne kariery akademickie – patrz niżej). Svensson dochodzi do wniosku, że najlepszym rozwiązaniem byłaby w ogóle rezygnacja z metafory „namiotu” i zastąpienie jej na przykład ideą „miejsca spotkań”.
Tom Scheinfeldt (Where’s the Beef? Does Digital Humanities Have to Answer Questions?) wyostrza problem definiowania cyfrowej humanistyki: na jakie pytania cyfrowa humanistyka pozwala odpowiedzieć, na jakie bez niej udzielenie odpowiedzi byłoby niemożliwe? Przestrzega przed brakiem cierpliwości. Historia nauki pokazuje, że nieraz trzeba było długo czekać, by przekonać się o poznawczym potencjale odkryć. Nowa technologia nie od razu pozwala postawić wszystkie pytania, tym bardziej nie od razu umożliwia udzielenie innowacyjnych odpowiedzi.

Część II Debates... zawiera teksty stawiające sobie za cel teoretyzację cyfrowej humanistyki. Zderzają się one z materią pod wieloma względami podobną do tej, z jaką mierzyli się autorzy esejów poświęconych poszukiwaniu definicji cyfrowej humanistyki. Kluczowym problemem jest podział cyfrowych humanistów na dwie grupy: dla jednych konstytutywne jest posługiwanie się narzędziami cyfrowymi do badania rzeczywistości niekoniecznie cyfrowej. Dla drugich nie są istotne formy pracy: cyfrowe lub tradycyjne. Określają się poprzez przedmiot swoich badań, czyli rzeczywistość cyfrową. Pierwsi często utożsamiają cyfrową humanistykę z budowaniem narzędzi, a drudzy – z interpretowaniem zjawisk.
Autorzy zastanawiają się, w jakiej relacji cyfrowa humanistyka znajduje się w stosunku do tradycyjnej humanistyki. Johanna Drucker (Humanistic Theory and Digital Scholarship) wyraziła to następująco: „po kilku dekadach cyfrowej pracy, pozostaje otwarte pytanie, czy humaniści robią coś innego niż dotychczas, czy tylko rozszerzają aktywności, które zawsze należały do ich podstawowych zainteresowań”3.
W tym samym eseju Drucker formułuje poważny zarzut pod adresem kultu wizualizacji. „Uważam, że ideologia prawie wszystkich współczesnych wizualizacji informacji jest przekleństwem dla myśli humanistycznej, jest wroga jej celom i wartościom”4. Oskarża o reifikację informacji, polegającą na ograniczaniu się do graficznego przedstawiania danych. Wywierają te praktyki niszczący wpływ na krytykę i interpretację. Humaniści, aby wejść do świata informatycznego, zapłacili bardzo wysoką cenę: musieli w pełni dostosować się do reguł gry panujących wśród programistów i zrezygnować z tego, co charakterystyczne dla tradycyjnej humanistyki. To, co ze swej natury jest niejednoznaczne i wyrażane implicite, na potrzeby cyfrowego przedstawienia należy sztucznie ujednoznacznić, spłaszczyć i wyrazić explicite.
Obok sporu o napięcie między wizualizacją a interpretacją danych istotny jest spór między zwolennikami teoretyzowania a zwolennikami „czystej” metodologii. Tom Scheinfeldt na swoim blogu umieścił wpis Why Digital Humanities Is “Nice”, przedrukowany również w omawianym tomie. Stwierdził, że cyfrowi humaniści są „mili”, ponieważ koncentrują się nie na trudno rozwiązywalnych (jeśli w ogóle) problemach teoretycznych, ale na metodzie. W debatach metodologicznych argumenty są zaś zwięzłe: jedna ze stron wygrywa, co jest empirycznie weryfikowalne. Rozwija ten tok rozumowania w eseju Sunset for Ideology, Sunrise for Methodology? Zauważa, że od lat 90-ych XX w. nie pojawiają się nowe teorie, ale nowe metodologie (przynajmniej w naukach historycznych, których jest przedstawicielem).
Z tym punktem widzenia gorąco polemizuje Jamie „Skye” Bianco, która podchodzi do kwestii (This Digital Humanities Which Is Not One) od strony etycznej. Brak teoretyzowania, według tej autorki, grozi bierną agresją i podtrzymywaniem niesprawiedliwych relacji władzy.

Część III Debates... to krytyka cyfrowej humanistyki. Etyczne podejście do zagadnienia przybiera w esejach zamieszczonych w tej części konkretny wymiar: Tara McPherson (Why Are the Digital Humanities So White? or Thinking the Histories of Race and Computation) przygląda się problemom związanym z rasą, Bethany Nowviskie (What Do Girls Dig?) – z płcią, a George H. Williams (Disability, Universal Design, and the Digital Humanities) – z inwalidztwem. Z kolei Elizabeth Losh (Hacktivism and the Humanities: Programming Protest in the Era of the Digital University) przygląda się relacji haktywizmu i humanistyki: czy cyfrowi humaniści powinni angażować się w spory polityczne jako strona konfliktu, jak miało to miejsce np. w Iranie, gdzie przyczynili się do paraliżu działalności w internecie instytucji rządowych w tym kraju w 2009 r., a także w Egipcie w 2011 r., gdzie projekt HyperCities stworzony przez cyfrowych humanistów z Los Angeles pomagał w antyrządowych protestach poprzez integrację mediów społecznościowych i map Google.
Nie od strony etyki, ale funkcjonalności przeprowadza analizę krytyczną cyfrowej humanistyki Charlie Edwards (The Digital Humanities and Its Users). Widzi on niedostatki w myśleniu o użytkowniku przez realizatorów projektów cyfrowej humanistyki, choć dostrzega pozytywne zmiany. Skoncentrowanie na użytkowniku pozwala przejść od hermeneutycznych rozważań „czy cyfrowa humanistyka jest inkluzywna?” do praktycznych pytań: „które funkcjonalności cyfrowej humanistyki jako systemu wspierają lub utrudniają dostęp i partycypację?” Partycypacja użytkowników jest zaś potrzebna, by uniknąć wielu błędów, które zostałyby wychwycone, gdyby choćby kilka osób mogło obejrzeć efekty prac przed ich ostatecznym sfinalizowaniem.
Rozproszenie cyfrowej humanistyki i brak wyraźnego centrum – kontynuuje Edwards – jest źródłem największego problemu z funkcjonalnością: wiele razy odkrywa się koło, ponieważ brakuje skutecznego przepływu informacji.

Część IV, „Praktykowanie cyfrowej humanistyki”, poświęcona jest kilku zagadnieniom, jakie pojawiają się przy bieżącej pracy. Jaka jest przyszłość konkurencyjnych praktyk: close reading (wnikliwa analiza pojedynczych tekstów, rozwinięta przez tradycyjną humanistykę) i distant reading (analiza dużej liczby tekstów metodami statystycznymi z pomocą komputerów)?Matthew Wilkens postawił pytanie o sens i możliwość utrzymania kanonu literackiego w sytuacji, gdy liczba publikacji przyrasta lawinowo. Wilkens uważa, że distant reading pozwoli sformułować pytania potrzebne do owocnego close reading.
Paul Fyfe zatrzymuje się przy procesie edycji, recencji i poprawiania błędów. Otwarte recenzje i elektroniczna postać tekstów sprawiają, że zmienia się rola korektora. Fyfe nawiązuje do tekstu Daniela J. Cohena The Social Contract of Scholarly Publishing (również zamieszczonego w tomie), w którym ten ostatni uznał, że przed epoką publikacji elektronicznych istniał „społeczny kontrakt”, na mocy którego „magia” wydawnictw akademickich powstawała poprzez dodanie 5% pracy dzielących manuskrypt od książki naukowej opatrzonej starannymi przypisami i estetycznie zformatowanej. Możliwość łatwego poprawienia tekstu wydanego w otwartym dostępie powoduje zmianę „społecznego kontraktu”. Teraz czytelnik akceptuje drobne błędy, ponieważ łatwe do wprowadzenia są korekty popublikacyjne. „Magiczne 5%” można uznać za fetyszyzm i jedyne uzasadnienie biznesu wydawniczego. Różne modele otwartego recenzowania wykorzystujące nowe technologie pozwalają zrezygnować z kosztowanych „5%”.
Praktykowanie cyfrowej humanistyki jest ściśle związane z instytucjonalnym zapleczem. Neil Fraistat opisuje funkcję centrów cyfrowej humanistyki, jakie powstały przy różnych ośrodkach akademickich. Z kolei Julia Flanders, między innymi na własnym przykładzie, pokazuje przebieg kariery cyfrowych humanistów – często rozwijającej się alternatywnie w stosunku do typowych karier naukowych (w części VI David Greetham posłużył się nawet określeniem „gettoizacja” na określenie pozycji cyfrowej humanistyki w środowisku akademickim – The Resistance to Digital Humanities).

Część V poświęcona jest nauczaniu. Refleksja nad potrzebą uczynienia z cyfrowej humanistyki obowiązkowego przedmiotu nauczania na kierunkach humanistycznych na uniwersytetach dobrze koresponduje z problemem alternatywnych karier akademickich. Czy poruszanie się w środowisku cyfrowym i posługiwanie się takimi narzędziami jest elementem jeszcze nie zdefiniowanej do końca „cyfrowej piśmienności”? Mark L. Sample w krótkim rozdziale What's Wrong with Writing Essays przyznaje, że rezygnuje z uczenia swoich studentów pisania esejów. Nie chce uczynić z nich „miniaturowych kopii” jakiegokolwiek profesora. W zamian stara się nauczyć ich kreatywnego korzystania z różnych mediów.

Ostatnia część Debates... skierowana jest ku przyszłości i przewidywaniom, jak potoczy się historia cyfrowej humanistyki. Przewidywania te wracają do podstawowych pytań o charakter cyfrowej humanistyki i jej granice. Pojawia się ponownie przekonanie, że cyfrowa humanistyka jest dopiero na początku swojej drogi, więc należy być gotowym na sporą liczbę błędów. Duży potencjał kryje się w uspołecznieniu pracy badawczej.
Dave Parry (The Digital Humanities or a Digital Humanism) zauważa, że nie mówi się o „humanistach długopisów” lub „humanistach maszyny do pisania”. Dlaczego zatem mówi się o „cyfrowych humanistach”? Czy dodanie przymiotnika „cyfrowy” zmienia istotę tego, czym się zajmują cyfrowi humaniści? Czy zmienia istotę humanistyki? Parry powtarza, że są dwa rodzaje cyfrowego humanizmu (digital humanism): pierwszy to zestaw narzędzi stosowanych do badań humanistycznych, podczas gdy drugi traktuje cyfrowość jako przedmiot badań. Autor wyznaje, że ten pierwszy rodzaj raczej go nudzi. Nie interesuje go liczenie słów w prozie Jane Austen. „Mam nadzieję, że cyfrowa humanistyka może być czymś więcej, niż szybciej przeprowadzaną analizą tekstu”5.
Kathleen Fitzpatrick w eseju Beyond Metrics: Community Authorization and Open Peer Review opisuje alternatywne metody oceny prac naukowych. W kulturze manuskryptów autorytet znajdował oparcie w rzadkich zasobach, które kontrolował wydawca i to on gwarantował odpowiednią jakość publikacji. Dziś, gdy elektroniczne teksty można publikować w internecie bez ograniczeń, mechanizm tworzenia autorytetu może się zmienić. Imprimatur daje już nie wydawca – którego znaczenie zmniejsza się – ale społeczność. To odbiorcy dokonują selekcji tego, co wartościowe. Selekcja dokonuje się więc na etapie konsumpcji, a nie produkcji. Należy jednak stosować narzędzia mierzące tę konsumpcję. System ewaluacji powinien odpowiadać aktualnym potrzebom. Fitzpatrick wskazuje na szereg wskaźników, np. czas spędzany na stronie internetowej, pozwalające precyzyjnie określić zainteresowanie czytelników.

Tematy, jakie nurtują cyfrowych humanistów, zgodnie z obrazem przedstawionym w Debates..., to przede wszystkim spór o granice cyfrowej humanistyki: czy cyfrowy humanista musi sam programować, czy wystarczy, że bada cyfrową rzeczywistość? Z tym sporem wiążą się wątpliwości o znaczenie wymiaru etycznego. Czy na cyfrowych humanistach nie ciąży obowiązek wpływania na społeczeństwo, by stawało się lepsze dzięki ich pracy? Wartości przyświecające cyfrowym humanistom nie muszą jednak wiązać ich z jedną ze stron tego sporu. Wartości cyfrowej humanistyki to także otwartość (w różnych aspektach) i nastawienie na współpracę. Te wartości mogą być realizowane także przez tych badaczy, którzy ograniczają się do budowania narzędzi.
Cyfrowi humaniści mają silne poczucie, że znajdują się na początku drogi. Ich dyscyplina (o ile cyfrową humanistykę można nazwać oddzielną dyscypliną) jest młoda i dopiero się kształtuje. Tym tłumaczone są niedoskonałości i niepewność co do jej istoty. Ta młodość jest też powodem, dla którego cyfrowi humaniści czują się wyobcowani z tradycyjnego życia akademickiego. Ich kariery często rozwijały się alternatywnie do karier kolegów z typowych dyscyplin.
Debates... jest książką poświęconą cyfrowej humanistyce, ale rzuca światło na szerszą kwestię: czy rozwój cyfrowej humanistyki oznacza przełom dla humanistyki w ogóle? Czy nowoczesne technologie – zarówno jako narzędzie, jak i przedmiot badań – odmieniają istotę nauk humanistycznych?

Nauka wymyślana na nowo

Maciej Chojnowski

Nielsen opisuje narzędzia i rozwiązania, które jego zdaniem stanowią moduły nauki przyszłości. Pomysł ten jest przekonujący, jeśli chodzi o przedstawione możliwości techniczne, może jednak budzić wątpliwości z uwagi na pewną naiwność autora względem ludzkiej natury. Nauka przyszłości to dla autora Reinventing Discovery coś na kształt otwartej krynicy mądrości, z której do woli czerpać mogą wszyscy spragnieni wiedzy – profesjonaliści, zdolni dyletanci czy zwykli śmiertelnicy. Rzecz w tym, że taki demokratyczny udział w naukowym dorobku ludzkości wymagałby dziś kategorycznej zmiany modeli biznesowych funkcjonujących w nauce i wokół niej, a także zasad, wedle których przeprowadza się ewaluację badaczy.

 

Wielki naukowiec to ktoś zdolny nie tylko do nadzwyczaj głębokiego rozumienia natury, ale także potrafiący po mistrzowsku korzystać z ogólnodostępnego zbioru informacji (czyli uprzednio opublikowanej wiedzy naukowej) i posiadający umiejętność tworzenia na tej podstawie. W tym sensie nauka to jedna wielka współpraca, odbywająca się w oparciu o powszechnie dostępne informacje.
Michael Nielsen

 

Wznowienie przez Princeton University Press eseju Reinventing Discovery Michaela Nielsena – australijskiego fizyka, programisty i orędownika na rzecz otwartości w nauce – to dobra okazja, by przypomnieć polskiemu czytelnikowi tę publikację, która od chwili pierwszego wydania trzy lata temu zdążyła zebrać wiele pozytywnych recenzji.
Książka Nielsena, będąca rozwinięciem idei naszkicowanych przezeń po raz pierwszy w 2008 roku w artykule The Future of Science, stawia pytania o to, jak nowoczesne narzędzia komunikacji dostępne dzięki Internetowi mogą wpływać na sposób uprawiania nauki, następnie – jak można przyczynić się do lepszego wykorzystania możliwości oferowanych przez te narzędzia, wreszcie – dlaczego ten ogromny potencjał pozostaje do tej pory właściwie niewykorzystywany.
Nielsen wymienia trzy główne obszary, w których jego zdaniem we współczesnej nauce zachodzą zasadnicze zmiany. Dotyczą one po pierwsze tworzenia nowej wiedzy, po drugie odnajdywania znaczenia w wiedzy już istniejącej, po trzecie relacji między nauką a społeczeństwem. Mimo że obszary te nie są tożsame, to istnieją między nimi punkty styczne, co sprawia, że ostatecznie nie sposób myśleć o stanie współczesnej nauki, nie uświadamiając sobie tych wzajemnych zależności.

Wykorzystanie zbiorowej inteligencji
Wraz z XXI wiekiem w historii nauki rozpoczyna się nowy rozdział. Wkraczamy w erę nauki w sieci: nowe narzędzia oferują niespotykane wcześniej możliwości komunikacyjne, pozwalając na rozwijanie zbiorowej inteligencji w celu szybszego i bardziej efektywnego rozwiązywania problemów badawczych. Jak przekonuje Nielsen, nowe narzędzia dostępne online mogą pomóc ludziom łatwiej zdecydować, gdzie powinni kierować swoją uwagę, by optymalnie wykorzystywać własną mikrospecjalizację, nie tracąc czasu na mozolne rozpoznawanie problemów oraz identyfikowanie miejsc, w których ich wiedza mogłaby znaleźć właściwe zastosowanie. Nielsen nie jest gołosłowny – swoje twierdzenia opiera na konkretnych przykładach, wskazując na różnorakie narzędzia czy projekty, które okazały się skuteczne (np. Polymath Project). Owe nowoczesne rozwiązania pozwalają na budowanie tzw. architektury uwagi, która pomaga zaoszczędzić czas i sprawia, że pomysły nie trafiają w próżnię, ale stymulują innych, dzięki czemu potencjał intelektualny jest realnie wykorzystywany i w rezultacie można mówić o wytwarzaniu się dyskusyjnej masy krytycznej. Jest ona efektem dynamicznego podziału pracy, który każdorazowo ustala się spontanicznie w zależności od sytuacji i tym różni się od podziału statycznego, że ten ostatni – choć gwarantuje precyzyjne rozplanowanie procesów i zakresu obowiązków – siłą rzeczy uniemożliwia najbardziej kreatywne działania z powodu uwzględnienia w procedurach jedynie przewidywalnych problemów.

Zaplanować przypadek
Przewaga dyskusji online nad tradycyjną rozmową polega na skali poznawczej różnorodności, którą umożliwia współpraca w sieci. Nielsen używa w tym kontekście oksymoronu, który dobrze ilustruje istotę nowego modelu: zaplanowany szczęśliwy traf (designed serendipity) – chodzi o stworzenie swoistej przestrzeni potencjalności. Idealna architektura uwagi umożliwia optymalne wykorzystanie dostępnych kompetencji przez największą, najbardziej merytorycznie różnorodną grupę.
Ten nowy model działania charakteryzują następujące elementy:
– modularyzacja (nie trzeba rozumieć całości projektu, by w nim partycypować);
– mikrokontrybucja (wnoszenie nawet niewielkiego wkładu do projektu jest wartościowe);
– rozwój bogatych i dobrze zaprojektowanych otwartych baz informacji (information commons) umożliwiających ponowne wykorzystanie wcześniej zdobytej wiedzy;
– mechanizmy sygnalizujące ułatwiające skierowanie uwagi we właściwe miejsce.
Paradygmatycznym przykładem tego nowego modelu działania jest open source, który choć powstał w świecie programistów, to pozostaje ogólnym wzorem projektowania możliwym do zastosowania w każdej dziedzinie wykorzystującej informacje przetwarzane cyfrowo.
Podstawą zbiorowej inteligencji jest przekształcenie indywidualnego rozumienia w rozumienie grupowe. Owa zbiorowa inteligencja wydaje się szczególnie odpowiednia w domenie nauki. Jednak jej efektywne wykorzystanie nie jest proste. Przeciwdziałają temu różne czynniki, m.in. skłonność grup do dyskutowania o kwestiach, co do których panuje powszechna zgoda, czy przecenianie opinii osób o najwyższym statusie, zaś deprecjonowanie tych wyrażanych przez osoby ze statusem niższym. Generalnie podstawowym warunkiem zastosowania zbiorowej inteligencji jest tzw. wspólna praxis, czyli określony zakres wiedzy i technik umożliwiający szybkie porozumienie i weryfikację informacji. Wspólna praxis jest warunkiem skalowalności zbiorowej inteligencji. Jednak nie wszystkie dziedziny mają jedną wspólną praxis – tak dzieje się (przynajmniej częściowo) w naukach humanistycznych, gdzie różne środowiska intelektualne może dzielić brak owego wspólnego obszaru podstawowego (np. w sztukach pięknych czy krytyce literackiej). Nielsen podkreśla, że owej wspólnej praxis nie należy wszakże traktować jako czegoś prostego i klarownego. Codzienność nauki jest bowiem faktycznie pełna nieporządku, spekulacji, błędów i sporów.

Kultura otwartości potrzebna od zaraz
Dla urzeczywistnienia wizji tego nowego rynku współpracy ekspertów online najistotniejsze jest oparcie nauki na kulturze otwartości. Oto wyłaniają się nowe metody odkryć naukowych – odpowiednie narzędzia pozwalają na przeszukiwanie już zdobytej wiedzy i odkrywanie w niej nowych znaczeń, powiązań i wcześniej niedostrzegalnych zależności. Otwieranie zbiorów danych przez instytucje z całego świata umożliwia stawianie nowych, odkrywczych pytań. Jest to swego rodzaju odmiana sytuacji opisanej wcześniej jako zaplanowany szczęśliwy traf. Tym razem jednak chodzi już nie o wysyłanie pytań w świat, lecz o udostępnianie danych w oczekiwaniu, że to inni postawią im nieoczekiwane pytania, co pozwoli twórczo je wykorzystać.
Obecnie zmianie ulega relacja między prowadzeniem obserwacji o analizą danych. Coraz częściej analizy danych przeprowadzane są przez osoby spoza laboratoriów. Dynamicznie rozwijają się związane z przetwarzaniem danych nowe dziedziny wiedzy, np. bioinformatyka. Dane zwykle chętniej otwierane są w przypadku dużych projektów. Ich udostępnianie zawsze jednak powinno być użyteczne dla innych, co wiąże się z koniecznością opatrywania ich odpowiednimi metadanymi. Większość naukowców wciąż jednak nie dostrzega korzyści w udostępnianiu tego typu zbiorów informacji. Co więcej, brakuje też przepisów, które regulowałyby korzystanie z cudzych danych. Nielsen wieszczy jednak nadejście ogólnej sieci wiedzy z danymi czytelnymi zarówno dla urządzeń, jak i ludzi, co pozwoliłoby na stworzenie opartej na algorytmach inteligencji zasilanej danymi. Ten nowy rodzaj wykorzystywania wiedzy byłby na swój sposób komplementarny wobec zbiorowej inteligencji.
Zdaniem Nielsena taka sieć danych przekształci naukę na 2 sposoby:
– nastąpi przyrost różnorodności pytań, które można postawić i na które można odpowiedzieć;
– dotychczasowy model wyjaśniania przeobrazi się w kompleksowy model statystyczny z miliardami parametrów.

Era wolontariatu
Do niedawna złożoność naukowych wyjaśnień ograniczały możliwości naszych umysłów. Obecnie komputery pomagają nam tworzyć i wykorzystywać bardzo złożone modele. Owa zmiana w naturze wyjaśniania idzie w parze z demokratyzacją nauki i wyłonieniem się tzw. nauki obywatelskiej, polegającej na pozyskiwaniu wolontariuszy gotowych włączyć się w badania naukowe online.
Nauka obywatelska wspiera inteligencję zasilaną danymi, pozwalając na pozyskiwanie i/lub analizę dużych ilości danych. Większość projektów obywatelskiej nauki wciąż nie jest jednak ustrukturyzowana na tyle, by zapewnić uczestnikom rozwój i opiekę mentorską, które dostępne są dla profesjonalnych naukowców.
Nielsen przekonuje, że rolę nauki w społeczeństwie można zmienić dopiero wtedy, gdy zmieni się sposób, w jaki instytucje odpowiadają na fundamentalne pytania:
– kto finansuje naukę?
– jak nauka włączona jest w politykę rządową?
– kto może być naukowcem?
Rynek i szkoły to typowe instytucje łączące świat nauki ze społeczeństwem. Jednak narzędzia sieciowe to urządzenia zarówno wytwarzające nowe instytucje, jak i przekształcające te, które już istnieją. W powstawaniu nowych instytucji łączących naukę i społeczeństwo pomaga otwarty dostęp. Gdy więc nauka obywatelska zmienia warunki określające, kto może być naukowcem, otwarty dostęp modyfikuje to, kto może mieć dostęp do nauki. W ten sposób, przekonuje Nielsen, tworzy się nowa kultura umożliwiająca rozwiązanie problemów trapiących społeczeństwa, które niegdyś nie były możliwe ze względu na tzw. niedobór pomysłowości. Dzisiejsze narzędzia sieciowe dają szansę zasypania tej przepaści, tworząc nowe instytucje zmieniające relacje między społeczeństwem a nauką.

Trwałe nawyki
Niestety, zmiana technologiczna nie przekłada się na zmianę w modelu biznesowym. Jednak, jak zauważa Nielsen, przejście od zamkniętej kultury odkrycia naukowego do bardziej otwartej nauki nowoczesnej to jeden z najważniejszych momentów w historii nauki, mający miejsce w XVII wieku. Dzięki temu powstała zbiorowa pamięć długoterminowa, która stanowi bazę rozwoju naukowego ludzkości. Narzędzia online pomagają wzbogacić ową pamięć długoterminową, jak też dają szansę stworzenia krótkoterminowej zbiorowej pamięci roboczej – miejsca dyskusji i szybkiej wymiany informacji.
Co zatem stoi na przeszkodzie efektywnemu wdrożeniu tych wszystkich innowacyjnych narzędzi i rozwiązań? Zdaniem Nielsena kluczowym problemem jest głęboko zakorzeniony opór naukowców wobec przedsięwzięć, które nie są ukierunkowane na publikowanie artykułów i pozyskiwanie grantów. Badacze nie mają interesu w tworzeniu narzędzi typu wiki-science. Naukę w sieci w znacznym stopniu powstrzymuje zamknięta kultura naukowa, którą wzmacniają patenty i komercyjny zysk.
Tajemnica handlowa to względnie nowe zjawisko na uczelniach. Niegdyś funkcjonował klarowny podział na badania podstawowe oraz stosowane, które finansowano z funduszy prywatnych. Dziś rządy i instytucje finansujące badania coraz częściej dążą do uznania kryterium patentowego i innych praw własności intelektualnej za główne czynniki warunkujące wsparcie określonych badań.

Imperatyw otwartości i niewidzialna ręka
Otwarte dane i otwarty dostęp to istotne działania w kierunku otwierania nauki. Nielsen postuluje wprowadzenie polityki obligatoryjnego udostępniania danych w określonych formatach i w konkretnych repozytoriach. Podkreśla zarazem konieczność logiki zbiorowego działania.  I choć instytucje finansujące badania de facto sprawują rządy w republice nauki, to nie mogą one jedynie poprzestać na wymuszeniu otwartości – chodzi przede wszystkim o wytworzenie autentycznego porozumienia z całym środowiskiem, co pozwoli uniknąć powierzchownego traktowania nowych wytycznych.
Zachęta do otwartej nauki musi wiązać się z nowymi rozwiązaniami w zakresie mierzalności cytowań, ponieważ prawo własności intelektualnej prowadzi do ekonomii opartej na reputacji, przez co powstaje niewidzialna ręka nauki, która silnie motywuje naukowców do dzielenia się wynikami ich pracy (jednak na określonych warunkach!). W nauce liczy się to, co mierzalne. Narzędzia przyszłości umożliwią pomiar cytowalności danych. Nie należy oczywiście spodziewać się, że wszystko odbędzie się bez komplikacji, jednak systemy, w jakich funkcjonujemy, nie są dziełem natury, lecz rezultatem społecznej konstrukcji, stąd można (a niekiedy wręcz trzeba) je zmieniać.

Republika marzeń?
W swoim eseju Nielsen, odwołując się do różnych przykładów wziętych z sieci, opisuje praktyki, narzędzia i rozwiązania, które jego zdaniem stanowią moduły  nauki przyszłości. Pomysł ten jest dość przekonujący, jeśli chodzi o przedstawione możliwości techniczne, może jednak  budzić wątpliwości z uwagi na pewną naiwność autora względem ludzkiej natury. Zresztą sam Nielsen, niejako uprzedzając ewentualne zarzuty, zaznacza, że wizja zawarta w jego książce nosi znamiona utopii i że w praktyce realizacja tych pomysłów byłaby znacznie bardziej skomplikowana. Zdaje sobie także sprawę z ewentualnych minusów, które mogłyby wynikać z nieograniczonego dostępu do wyników badań. Generalnie jednak nauka przyszłości to dla autora Reinventing Discovery coś na kształt otwartej krynicy mądrości, z której do woli czerpać mogą wszyscy spragnieni wiedzy – profesjonaliści, zdolni dyletanci czy zwykli śmiertelnicy. Rzecz w tym, że taki demokratyczny udział w naukowym dorobku ludzkości wymagałby dziś kategorycznej zmiany  modeli biznesowych funkcjonujących w nauce i wokół niej (nierzadko nastawionych na zysk), a także zasad, wedle których przeprowadza się ewaluację badaczy. Co więcej, wymagałby także od samych naukowców sporo dobrej woli i przynajmniej krzty idealizmu w postrzeganiu przez nich swojego powołania i własnej kariery.
Czy wizja Nielsena się ziści, czy pozostanie tylko naukową republiką marzeń? To zależy zarówno od postaw przyjmowanych w środowiskach badaczy, jak i od decyzji wielu instytucji, które dostarczają funduszy na finansowanie badań. Nacisk, jaki pod koniec swojego eseju Nielsen kładzie właśnie na ten odgórne działania, pozwala mieć nadzieję, że nacechowane realizmem podejście pozwoli zbliżyć się w praktyce do jego idealistycznej wizji.

 

Michael Nielsen, Reinventing Discovery. The New Era of Networked Science, Princeton University Press 2012.

 

Maciej Chojnowski – ukończył polonistykę na Uniwersytecie Warszawskim, jest redaktorem, prowadzi serwis Otwarta Nauka w Centrum Otwartej Nauki ICM UW.

 

Additional information