Motto:
Istnieją dwie zasady, tkwiące w samej naturze rzeczy, które powracają w jakichś szczególnych wcieleniach we wszystkich badanych dziedzinach: duch zmiany i duch zachowania. Bez tych zasad nie może istnieć nic rzeczywistego. Sama zmiana bez zachowania to przejście od niczego do niczego. Jej ostateczne zsumowanie daje w efekcieAlfred N. Whitehead, Nauka i świat nowożytny, 1987, strona 270.
Źródła niepokoju i związanego z nim stresu są powszechnie znane. Wymienimy tu przede wszystkim lęk przed odczuwalnym obniżeniem jakości życia i widmo bezrobocia w obliczu groźby likwidacji instytucji, lub stanowiska pracy. W przypadku bibliotek mamy do czynienia z dodatkowym poziomem trosk: obawami o możliwość pełnienia ustalonej przed wiekami misji biblioteki. Można by to nazwać lękiem instytucjonalnym. Już ponad trzydzieści lat temu Leon Carnovsky [1968] w pierwszym zdaniu wstępu do książki „Library Networks - Promise and Performance” napisał gorzko: „Niemoc większości bibliotek w zakresie spełniania pewnych funkcji powszechnie im przypisywanych nigdy nie przestała być zmartwieniem tej profesji”.
W końcu lat dziewięćdziesiątych sytuacja
wydaje się być znacznie bardziej dramatyczna. Przytoczmy tu jedną z
syntetycznych, dobrze udokumentowanych opinii dnia dzisiejszego [Dillon, 1999]:
„Jako bibliotekarze wiemy, że gdy przebudzimy
się jutro, ludzkość odkryje jeszcze więcej informacji, która powinna być w
naszych bibliotekach, i zanim zacznie się następny tydzień, biblioteki cofną się
jeszcze bardziej wstecz w swojej odpowiedzialności za stan swoich zasobów, niż
to ma miejsce dzisiaj. Bibliotek nie zaprojektowano z myślą o stawieniu czoła
takiej sytuacji. Większość obecnych bibliotek bazuje na roboczym modelu
wypracowanym w XIX wieku i ich struktura nie jest w stanie obsłużyć obecnego
wolumenu książek, czasopism, multimediów i zasobów elektronicznych”.
Warte podkreślenia jest ograniczenie się Dillona do trudności o charakterze
organizacyjnym, a nie ekonomicznym. Problemem dla niego jest obsłużenie
wielkiego wolumenu nabytków, a nie zdobycie funduszy na kontynuację prenumeraty.
Ot po prostu embarras de richesse. Nie inaczej opisują to Case i Jakubs
[1999].
W podobnym do Dillona stylu, całkiem świeżo, o szukanie nowego
modelu apeluje Brindley [1998]: „główne
wyzwanie, wobec którego staną biblioteki naukowe w latach 90-tych, to
opracowanie modelu, za pomocą którego wgląd w drukowane czy rękopiśmienne formy
naszego dziedzictwa kulturowego może być korzystnie powiązany z dostępem do
informacji elektronicznej w szerokim spektrum jej form”.
Zatem
nawet z amerykańskiego punktu widzenia nowy model nie istnieje i nie należy
przypuszczać, że w przewidywalnym czasie zostanie złożony jako kompletna całość
a - co najważniejsze - zaakceptowany przez wszystkie biblioteki. Spektrum usług,
których czytelnik dziś oczekuje od biblioteki, i których oczekiwać będzie
czytelnik jutrzejszy - nieustannie ewoluuje. Jeszcze raz oddajmy głos Dillonowi:
„Jak to zauważył Seneca dwa tysiące lat temu
“Dla żeglarza który nie wie do
jakiego portu podąża, niepomyślny jest każdy wiatr” [przekład W.
Kornatowski, Seneca 1998]. Wśród
bibliotekarzy, których znam, wiatr wieje z każdego kierunku. Oni nie wiedzą, czy
stać się wydawcami, nauczycielami na odległość, administratorami systemów
Web-owych, bibliotekarzami zbiorów specjalnych, trenerami, specjalistami od
multimediów, prawnikami specjalizującymi się w kontraktach, czy po prostu rzucić
to wszystko i zabrać się za robotę w stylu demonstrowanym przez holenderskie
konglomeraty wydawnicze.”
Obecna sytuacja bibliotek jest więc
klasyczną grą strategiczną, znanym z literatury zadaniem, w którym myśliwy
strzelając do biegnącego w poprzek linii strzału zająca, musi mierzyć w ten
punkt, w którym zająca jeszcze nie ma, ale w którym prawdopodobnie się znajdzie.
Przed myśliwym stoi wybór. Nacisnąć kurek spustowy, albo odwiesić dubeltówkę na
ramię. Dla rodziny szarak, albo w desperacji ścięta na bruździe główka kapusty,
której nie zjadł zając; zastąpiona niczym obolem dwoma złotymi pozostawionymi w
torebce foliowej dla właściciela pola. Pasztet albo pokorne przejście wraz z
całą rodziną na wegetarianizm. Sapienti sat.
Dillon w
podsumowaniu swych przemyśleń ostrzega, ale jest jednak optymistą. Piszący te
słowa w samym wniosku końcowym podziela jego zdanie. Z pewnością tragedii nie
będzie. Wielcy się jakoś wyżywią (nieprzyjemne skojarzenia z niedawną
przeszłością), średnim pod różnymi pozorami odbierze się trochę etatów, nie
przetrwa grupka małych bibliotek publicznych czy zakładowych, do których nikt
nie zechce się przyznać. Już teraz jesteśmy naocznymi świadkami tego
scenariusza.
Obecnie żyjemy w czasach
niesłychanie rewolucyjnych przemian technologicznych, których wpływ na losy
świata jest trudny do przewidzenia. W swojej sztandarowej książce wydanej w 1948
roku przez MIT Press, Norbert Wiener, jeden z najwybitniejszych intelektów w
historii ludzkości, genialny matematyk, ojciec cybernetyki, przewiduje: „Stosując czujniki [...] jesteśmy już teraz w stanie
zbudować sztuczne maszyny wykazujące niemal dowolnie doskonałą sprawność i
precyzję działania. Na długo przed Nagasaki i pojawieniem się bomby atomowej w
świadomości publicznej zdałem sobie sprawę, że stoimy przed innym zjawiskiem
społecznym o niesłychanej wadze, kryjącym w sobie dobro i zło. [...] to nowe
osiągnięcia [...] dadzą [...] rasie ludzkiej zastęp nowych i niesłychanie
sprawnych mechanicznych niewolników, którzy będą pracować zamiast ludzi. [...]
Być może dla ludzkości jest bardzo dobrą rzeczą mieć maszyny, uwalniające ją od
„czarnej” i niewolniczej pracy, a może i tak nie jest. Nie wiem. Tym nowym
możliwościom nie może wyjść na dobre ocenianie ich w kategoriach rynkowych,
operowanie liczbą pieniędzy, które pozwolą zaoszczędzić, a to właśnie są terminy
wolnego rynku, owa ‘piąta wolność’ (fifth freedom). [...] Nowoczesna rewolucja
przemysłowa
[7] zmierza do zdewaluowania ludzkich mózgów, przynajmniej w dziedzinie podejmowania prostszych, bardziej stereotypowych decyzji. Oczywiście, podobnie jak zdolny stolarz, zdolny
mechanik, zdolny krawiec przeżył w pewnym sensie pomyślnie pierwszą rewolucję,
tak zdolny naukowiec, czy administrator przeżyje pomyślnie drugą. Jednakże,
jeśli dokona się druga rewolucja, przeciętny człowiek o średnich, lub mniej niż
średnich uzdolnieniach, nie będzie miał do sprzedania niczego, co byłoby warte
czyichkolwiek pieniędzy. Rozwiązaniem jest oczywiście oparcie społeczeństwa na
wartościach ludzkich, a nie na kupnie i sprzedaży. Na to, by dojść do takiego
modelu społeczeństwa, trzeba wiele walki; w najlepszym razie - walki na
płaszczyźnie idei, a może i poza nią - któż to wie?” [Wiener 1971, strony
52 do 54]. W powyższym cytacie mamy w scenariuszu przetrwania wyraźny adres
osobowy: stolarz, mechanik, krawiec, naukowiec, administrator. To ważny aspekt -
może się wydawać nawet, że winniśmy go od razu postawić na szczycie rozważań
dotyczących scenariuszu przetrwania. Tu jednak, gdy będziemy rozważać implikacje
rewolucji technologicznej w bibliotekach, skupimy się na aspekcie
instytucjonalnym. Od dwóch stuleci w szczególny sposób mówi się o rewolucji,
dodając do tego terminu przymiotniki: przemysłowa, społeczna, technologiczna.
Niedawno temu Harris w tytule swojej pracy zapytał bez ogródek: „Czy rewolucja już się skończyła, czy może właśnie
zaczyna?” [Harris, 1999]. Która to rewolucja, zapytamy? Odpowiedź brzmi:
Technologii Informacji (IT revolution). Więc zaczyna się ona, czy już się
skończyła? Są daleko idące podstawy do tego by przypuszczać, że niestety dopiero
się zaczyna, i to wraz z całą paletą towarzyszących jej zagrożeń.
Te
biblioteki, które chcą przetrwać, muszą zaadaptować się do tego co już jest i do
tego co nadejdzie. Co jest - to już wiadomo; ale co może nadejść? Spojrzyjmy
nieco wstecz, do historii tych, co przed nami to już grali. Nie da się
oczywiście porównać Polski ze Stanami Zjednoczonymi, ani pod względem
gospodarczym ani też organizacyjnym. W dodatku Polski obecnej ze Stanami, sprzed
lat kilkunastu. Sięgnijmy więc do klasyki procesów dostosowania przedsiębiorstw
do nowych sytuacji.
Pionier tej analizy, Alvin Toffler piętnaście lat
temu próbował przekonać czytelnika do swojej wizji współzawodnictwa w gospodarce
super-industrialnej, od której Polskę dzieli jeszcze nieco czasu. Oto jego na
pozór dość zaskakująca argumentacja: „W
przeszłości przedsiębiorstwo, które wiedziało jak najbardziej efektywnie
wprowadzać standaryzację, było w stanie pokonać swą konkurencję. W przyszłości
przedsiębiorstwo, które będzie wiedziało jak efektywnie przeprowadzić
destandaryzację może okazać się zwycięzcą”.
Mocne słowa, ale
rzeczywiście coś w tym jest. Chociaż trudno zgodzić się z tymi tezami w sensie
dosłownym, to jednak jest możliwe nowe odczytanie tezy Tofflera. W tym celu
zwróćmy uwagę na dwa odmienne obszary znaczeniowe pojęcia ‘standaryzacja’. W
pierwszym zdaniu zdecydowanie chodzi o aspekt ‘trzymania się normy, wzorca’ - w
drugim - raczej o aspekt ‘odejścia od unifikacji wzornictwa’. W takim sensie na
przykład, dostarczane użytkownikowi współczesne oprogramowanie staje się
bardziej atrakcyjne, jeśli umożliwia tworzenie przez użytkownika własnego
profilu (definiowania własnej palety barwnej, lokalizacji pamiętanych plików
itp. – tu właśnie występuje tofflerowska destandaryzacja) - zarazem trzymając
się ściśle ogólnie przyjętych standardów (system komputerowy posiada interfejs
okien graficznych z urządzeniem do pozycjonowania kursora wraz funkcjami typu
‘kopiuj - wklej’, interfejs znakowy w oknie konsoli operatora, oprogramowanie
komunikacyjne, w tym pakiety ftp, telnet, poczty elektronicznej, przeglądarkę
dokumentów hipertekstowych, itp.). Tego rodzaju interpretacja wyodrębnia z
tekstów Tofflera nowe rozumienie zagadnień rynkowego uatrakcyjniania produktu
lub usługi i może być doskonałą wskazówką dla placówek szukających sposobów na
usprawiedliwienie potrzeby swojego istnienia.
W powyższej argumentacji
mowa jest oczywiście o przedsiębiorstwie walczącym w warunkach rynkowej
konkurencji o klienta z pieniędzmi. Z pewnością doskonale pasuje to do
komercyjnych systemów informacyjnych. Czy może się także odnosić do bibliotek?
Chyba jednak tak. Punktem zwornikowym tych dwóch obszarów jest pieniądz. Jeśli
zatem biblioteka ma problemy finansowe (a chyba nie istnieje taka, która by ich
nie miała) - wówczas organizacyjne działania biblioteki z konieczności winny
dostosowywać się do oczekiwań strony dającej pieniądze. Warto tu zacytować
twarde przewidywania Chmielewskiej-Gorczycy [1996, strona 11]: „O przetrwaniu biblioteki decydować będą bezwzględne
reguły konkurencji, analogiczne do panujących w produkcji i usługach na rynkach
innych niż informacyjny”.
Przedstawiona wyżej dyskusja skłania do
poważnego potraktowania sprawy pobudzenia innowacyjności bibliotek, jako środka
na sprostanie oczekiwaniom społecznym. Na potrzebę takiego podejścia wyraźnie
wskazuje Champion [1988], upatrujący w biurokracji panoszącej się w wielu dużych
bibliotekach czynnik tłumiący innowacyjność. Clayton [1997 strona 3]
zdecydowanie postrzega innowacyjność jako część dziedziny zarządzania zmianami.
Wojciechowski [1999 strona 11] apeluje do bibliotekarzy o rozsądne wyważenie
zadań: „Bibliotekarstwo ma długie dzieje i nie
ma powodu, by odcinało się od przeszłości, jednak nie rezygnując zarazem ze
zmian. Logika postępu polega na zachowaniu proporcji pomiędzy kontynuacją a
innowacjami - i chyba tak właśnie jest”. Zatem uważne przeanalizowanie
własnej struktury administracyjnej wzbogacone o aktywną pomysłowość winno jawić
się każdemu bibliotekarzowi jako właściwa droga do zabezpieczania przyszłego
bytu zarówno instytucjonalnego i osobistego. Przeto nie pytaj, komu bije dzwon.
Bije on Tobie.
Motywem, który skłonił autora
niniejszej książki do podjęcia tego tematu, było przeświadczenie o możliwości
inspirowania działań ludzkich poprzez słowo pisane. Nie chodzi tu wszakże o
skłonienie kogoś do określonego działania. Chodzi raczej o zrozumienie
nieuchronności zmian, przyjrzenie się bliżej ich naturze i odnalezienie w sobie
cech, które przeciwstawiają się tym zmianom. Historia cywilizacji pokazała, że
innowacyjność może być skutecznym sposobem na przetrwanie.
Nieuchronność
zmian technologicznych wydaje się być oczywista. Również dzieje instytucji
kultury lub pojedynczych jej pomników, jakie ludzkość kreowała od wieków, to
ciąg nieustannych zmian. Ostatnie stulecia przyniosły nam znacznie lepszą
dokumentację tych zmian, niejednokrotnie podpartą znakomitą analizą [Tocqueville
1994]. Z pewną ostrożnością można zaryzykować tezę, że w wielu wypadkach zmiany
te przypominają realizację sformułowanej jeszcze w XVII wieku pierwszej zasady
mechaniki klasycznej (newtonowskiej), że każdemu działaniu towarzyszy
przeciwdziałanie równe co do wielkości i przeciwne co do kierunku. Cykle
obrastania pewnych instytucji, grup społecznych, czy całych narodów zachowawczą
otoczką, a następnie zrzucania jej w jakichś paroksyzmach, do złudzenia
przypominają doroczne zdzieranie przez płazy na kamieniach ciasnej i
nieelastycznej już skóry. Zastanówmy się pokrótce, które czynniki uruchomiły ten
trwający po dziś proces tworzenia wynalazków i kopiowania ich, tworzenia
ograniczeń i przeciwny mu proces ich omijania.
Dawna technologia związana
była z elitarnym, ściśle kontrolowanym dostępem do wiedzy. Imponujące
architektoniczne pomniki przeszłości czy materialne zapisy niematerialnych
wzlotów intelektu (jak kalendarz Majów) otrzymaliśmy w spadku niemalże bez
dokumentacji. Nierzadko główny twórca był zabijany, by więcej nie mógł powtórzyć
swego wielkiego dzieła. Już w zamierzeniu swym miało być unikalne. Chroniono
technologię wytwarzania jedwabiu, porcelany, lakierów pokrywających instrument
muzyczny, leków. Pojedynczy warsztat rzadko ujawniał opis technologiczny. Były
jednak i wyjątki. Ostatnie badania czeskich egiptologów wskazują, że
prawdopodobnie znaleziony został pierwszy opis technologii sporządzania
barwników kosmetycznych. Choć to dopiero pierwsze, ciągle niepewne wyniki,
skłaniamy się do opinii, że może to być tylko przypadek, który potwierdza
regułę. Dawny rzemieślnik w zasadzie nie musiał się specjalnie obawiać, że ktoś
będzie go podrabiać. W zakresie dóbr kultury mały był zarówno rynek producenta,
jak i konsumenta. Organy w Katedrze Oliwskiej Jan Wulf z Ornety (brat Michał)
budował 25 lat. Ile takich instrumentów można wybudować w życiu?
Spróbujmy zebrać podstawowe cechy wytwórczości epoki przedindustrialnej:
Powolne procesy wytwarzania cechowały się wysokimi kosztami i to samo dotyczyło kopiowania. Kopie pierwowzorów były też dziełami sztuki, niejednokrotnie nie mniej wartościowymi niż oryginały (piramidy, średniowieczne iluminowane kodeksy czy kancjonały).
Każda technologia i każdy produkttak długo są bezpieczne przed kopiowaniem, jak długo nie istnieją skuteczne metody analityczne, pozwalające z gotowego produktu odtworzyć skład i sposób wytwarzania.
Przełomy technologiczne wprowadziło pojawienie się pierwszych metod analitycznych: chemicznych, fizycznych i biologicznych.
Z pewnością pierwszym wydarzeniem, które odmieniło zasady kreatywności człowieka było powołanie Urzędu Patentowego. Patent do jakiegoś stopnia ujawniał pewne elementy dotychczasowej, pilnie strzeżonej, - i dziedziczonej z ojca na syna, tajemnicy warsztatu rzemieślnika. Z jednej strony wprowadzenie procedury patentowej było otwarciem – z drugiej zaś zamknięciem procesu odkrywania. Ujawnienie częściowego opisu dzieła było zarazem zamknięciem drugiemu twórcy możliwości “odkrycia” tej samej drogi. Prawdopodobnie jednym z pierwszych w historii był angielski patent na produkcję szkła witrażowego do Kaplicy Królewskiej, przyznany w 1449 r. Johnowi z Utynam przez króla Henryka VI [ Davenport 1989 strona 6]. Że był to wypadek odosobniony świadczy fakt, że następny patent brytyjski (nb. też na produkcję szkła witrażowego) został wydany dopiero po stu latach. Od polotu twórcy zależała efektywność blokady przyszłej konkurencji. Klasyczna literatura z podziwem wspomina genialność Singera, który właściwie nie opatentował samej maszyny do szycia – a sposób szycia igłą, która ma dziurkę na początku, a nie na przeciwległym końcu. Warto zwrócić baczną uwagę na to, że patent musi być jednak tak sformułowany, by nie blokował dalszego rozwoju procesu innowacyjnego. To samo dotyczy ograniczeń związanych z egzekwowaniem praw autorskich. Zacytujmy in extenso brzmienie nowej wersji Ustawy o prawie autorskim i prawach pokrewnych. Artykuł 74 ust. 2 otrzymał brzmienie:
“2. Ochrona przyznana programowi komputerowemu obejmuje
wszystkie jego formy wyrażenia. Idee i zasady, będące podstawą jakiegokolwiek
elementu programu komputerowego, w tym podstawą łączy, nie podlegają ochronie
(podkreślenie autora)” .
A więc idee pozostają własnością
publiczną, dostępną każdemu za darmo. I taki jest warunek wszelkiego rozwoju.
Ale to co dziś jest własnością prywatną – jutro może stać się własnością
publiczną. Może stać się to w drodze wygaśnięcia praw autorskich, aktu
dobrowolnego zrzeczenia się praw lub wreszcie aktu sądowego, czy
administracyjnego (upaństwowienie, pozbawienie lub odebranie praw - aktem takim
było na przykład karne ujawnienie technologii produkcji fotograficznych
materiałów barwnych niemieckiej firmy Agfa po II Wojnie Światowej [Dubiel,
Iliński 1966 strona 26]). Jest rzeczą interesującą, że ten ostatni przypadek to
nie jakiś relikt totalitarnej przeszłości, ale swojego rodzaju codzienność
cywilizacyjna. Świadczą o tym liczne wyroki Sądu Najwyższego Stanów
Zjednoczonych. wymierzone przeciwko największym potęgom przemysłu
informatycznego. Być może jest to swojego rodzaju signum temporis, że jako
najczęstszy motyw wymuszenia podaje się nadrzędność ochrony interesów konsumenta
nad partykularnymi interesami wielkich firm. I tu mamy kolejną ciekawostkę: do
tej chwili tego rodzaju interwencje nie były skierowane przeciwko jednostkom,
lecz zwykle przeciwko korporacjom i nie dotyczyły one obszaru artystycznego,
lecz technologicznego.
Jakie są przyczyny, że utrzymywanie całkowitej
tajemnicy warsztatu jest nieopłacalne? Otóż utrzymanie szczelnej tajemnicy jest
niezmiernie kosztowne. Przyczyną tego jest nieuczciwość ludzka pożeniona ze
współczesną technologią. Jedynym czynnikiem regulującym przepływ technologii we
współczesnym świecie jest pieniądz. Świadczy o tym historia rozprzestrzeniania
technologii atomowej, której nie było w stanie zapobiec żadne embargo. Ale też
świadczy o tym szybkość automatycznego odtwarzania gotowego produktu. Już dawno
temu na Zachodzie ukuto termin reverse engineering, odwróconej inżynierii.
Oznacza on detaliczne zbadanie jakiegoś produktu celem ustalenia i odtworzenia
technologii jego wytwarzania. Chyba nie ma żadnego współczesnego państwa, które
po cichu nie splamiłoby się tego typu kradzieżą dóbr intelektualnych.
Wybuchające po dziś dzień procesy pomiędzy firmami z branży komputerowej w
Stanach Zjednoczonych są najlepszym tego przykładem.
A w bibliotekach co
można poprawić? Jak można je uatrakcyjnić i przyciągnąć już szybko uciekającego
czytelnika? Mamy tu na polskim gruncie kilka dobrych przykładów efektywnej
działalności bibliotek na polu gromadzenia na takie cele funduszy od różnych
fundacji. Z uznaniem należy ocenić wielkie sukcesy dużej grupy bibliotek
akademickich w zakresi w online. Prawdziwą, realizowaną na wielką skalę w Polsce
rewelacją, jest utworzenie graficznego obrazu archiwalnego katalogu
alfabetycznego Biblioteki Jagiellońskiej dostępnego w Internecie wraz z prostym
indeksem alfabetycznym „wirtualnych skrzynek”
[7] . Bardzo pożyteczną inicjatywą jest "podpięcie" do katalogu online przez Bibliotekę Główną Uniwersytetu Gdańskiego pierwszych pełnotekstowych dokumentów z
przygotowanej pod kierownictwem Marka Adamca z Uniwersytetu Gdańskiego,
jakościowo zweryfikowanej i opatrzonej notami biograficznymi Wirtualnej
Biblioteki Arcydzieł Literatury Polskiej (projekt UNESCO,
http://monika.univ.gda.pl/~literat/index.htm). Te podpięte do OPACu cyfrowe dokumenty elektroniczne po raz pierwszy stawiają niewidomego „czytelnika” biblioteki na równi z czytelnikiem widzącym, stwarzając
nowe okoliczności o naturze społecznej. Niewidomy może nie tylko przeglądać
katalog, ale również pobrać wyselekcjonowaną książkę. Biblioteka Uniwersytetu
Warszawskiego oprócz swych wspaniałych zasobów zaoferowała czytelnikowi szereg
budzących wdzięczność dogodności, w tym również bardzo drogie urządzenia
dostępowe dla niewidomych (projekt "Uniwersytet dla Wszystkich"). Nie sposób
zapomnieć o prowadzonych przez długie lata w Bibliotece Głównej Politechniki
Wrocławskiej szkoleniach w zakresie automatyzacji procesów bibliotecznych. I to
są przykładowe propozycje dla bibliotek, które pragną z powrotem odbudować
szybko pogarszającą się pozycję potrzebnej społecznie instytucji kultury i
edukacji.
Przykłady te świadczą, że duch w narodzie nie ginie. Jest
jednak rzeczą zastanawiającą, że w wielu przypadkach po pierwszych sukcesach w
zdobywaniu konkursowych pieniędzy instytucje często wchodzą w wieloletni okres
pasywnej działalności na osiągniętych pozycjach.
Wydaje się, że do przypadku
bibliotek trudno w pełni przykładać miarkę wolnorynkową. Z pewnością przyszłość
inaczej będzie się obchodzić z Biblioteką Narodową czy z dużą biblioteką
akademicką, a inaczej z małą biblioteką publiczną. W każdym wypadku czynnik
ekonomiczny będzie odgrywał poważną rolę, ale nie w każdym wypadku doprowadzi do
likwidacji biblioteki. Przyglądając się na bieżąco sukcesywnej likwidacji w
Polsce małych połączeń kolejowych nie trudno jednak przewidzieć scenariusz
nadchodzących wydarzeń w świecie bibliotek. Utrzyma się to stanowisko pracy,
którego obecność będzie niezbędna dla funkcjonowania biblioteki. Przeżyje ta
biblioteka, która na czas usprawiedliwi, że jest potrzebna. Wychodząc z
amerykańskiej perspektywy taką prognozę daje Cynthia Borys [2000, strona 29]:
Czasy, kiedy
biblioteka była bezdyskusyjnie uznawana za społeczne dobro i filar systemu
edukacyjnego i kultury, należą już do przeszłości. Obecnie, aby przetrwać
w warunkach konkurencji w stosunku do ograniczonych zasobów informacji,
biblioteki i bibliotekarze muszą być postrzegani jako niezbędni dla zaspokojenia
potrzeb informacyjnych klientów i użytkowników
Borys w dalszych
zaleceniach kładzie wyraźny nacisk na potrzebę uświadomienia bibliotekarzom
służebnej roli bibliotek w stosunku do społeczności, która je finansuje.
Powyższy podtytuł jest
oczywiście prowokujący. Może jest nawet i trochę krzywdzący wobec niektórych
przedsięwzięć czy firm. Mam tu na myśli kilka znakomitych inicjatyw
technologicznych. Przyjrzyjmy się im nieco bliżej. Duża firma opracowująca
jakieś nowatorskie, jeszcze zupełnie nieistniejące na świecie rozwiązanie, w
naturalny sposób mogłaby je opatentować i przejąć monopol produkcyjny. A tu
zdarza się, że firma udostępnia za darmo pewne istotne fragmenty technologii
wszystkim, bez ograniczeń. Na wstępie warto tu wymienić holenderską firmę
Phillips, która zdecydowała się oddać światowej społeczności (dodajmy -
społeczności producentów) licencję na ciągle dziś popularną kasetę
magnetofonową. Dobrych kilka lat później IBM - amerykański kolos komputerowy,
zdobywa się na wiekopomny wyczyn udostępniając w postaci otwartej licencji
technologię płyty głównej komputera osobistego wraz z niemal całym kodem
Bazowego Systemu Wejścia - Wyjścia (BIOS). Nie udostępniona część BIOSu nie
miała wpływu na funkcjonowanie systemu operacyjnego komputera. Wkrótce po IBM-ie
podobnego posunięcia dokonuje Osborne Corporation w stosunku do swojego
przenośnego modelu Executive. Kolejnym kamieniem milowym w tym łańcuchu
otwartych licencji będzie ponownie Phillips z technologią CD. Pominęliśmy tu
szereg innych firm, żeby skupić się na mechanizmach towarzyszących tym ważnym
momentom ze świata technologii.
Przekazanie komuś pojedynczego daru o
charakterze konsumpcyjnym nie jest niczym szczególnym. Publiczne udostępnienie
metody robienia pieniędzy budzi zastanowienie. Być może świat producentów
posługuje się inną hierarchią wartości, niż przeciętny zjadacz chleba. Fakt
jednak pozostaje faktem i może być poddawany analizie.
Upowszechniając
licencję na geometrię kasety magnetofonowej, Phillips pobudził co najmniej
cztery rynki, w tym jeden najważniejszy: rynek konsumenta. Magnetofon kasetowy
od razu jawił się przeciętnemu człowiekowi jako tani, osobisty i przenośny
przyrząd, który dawał możliwość swobodnego zapisu dźwięku i odtwarzania go na
każde życzenie. Masowe zapotrzebowanie na sprzęt tego typu pobudził kolejne
rynki: autorski, producenta oraz dystrybutora. Nie ma wątpliwości, że ani
Phillips, ani żadna inna firma na świecie nie jest w stanie nasycić sprzętem
osobistym całego świata. Można stąd wyprowadzić interesujący wniosek. Jeśli
wynalazek jest tej klasy, że staje się obiektem namiętnego pożądania prostego
człowieka, wynalazca poprzez swoją firmę powinien niezwłocznie udostępnić opis
techniczny urządzenia w postaci licencji otwartej. Nie popełnił błędu IBM
trafnie rozpoznając, że nawet pierwotnie dość drogi komputer może stać się
sprzętem osobistym. Przepaść technologiczna jaka dzieli pierwszego IBMowskiego
PC Juniora od dzisiejszych potężnych maszyn jest niewiarygodna. I niewiarygodnie
niska jest zarazem cena jednostki mocy przetwarzania dzisiejszego PC-ta,
jakkolwiek byśmy ją liczyli. Ale zauważmy też, że do dzisiejszego sukcesu
komputera osobistego natychmiast dołożyło swoją Wartość Dodaną grono zacnych
firm. Na swojej dość odmiennej platformie Apple pomysłowo posłużył się
wynalezioną przez Rand Xerox Corporation myszą, budując przyjazny interfejs
graficzny użytkownika (GUI), który oczarował na długie lata całą Amerykę.
Microsoft - jakby tu zgrabnie, a adekwatnie powiedzieć - zmałpował jabłeczne GUI
na platformę PC (co się zresztą skończyło procesem - bynajmniej nie przegranym
przez Microsoft). Tak tworzyły się podstawy obecnych platform MS Windows (wersji
3.1, 3.11, 95, 98, NT, 2000). W tle byliśmy świadkami wojny sprzętowej pomiędzy
producentami procesorów. I tu ciekawostka. Intel nigdy nie decydował się
udostępnić technologii swoich procesorów. Olśniewające sukcesy PC-tów wyrosłych
na bazie procesorów Intela skłoniły jednak kilka firm mikroelektronicznych do
zaprojektowania własnych procesorów mających identyczną listę rozkazów z
intelowskimi. Nie wszyscy wytrzymali tempo tego wyścigu. Z dystansu kilku
ubiegłych lat widać, że na placu boju pozostał Intelowi tylko jeden dobry
przeciwnik (AMD), a przy okazji system patentowy USA po kilku konwulsjach
wyartykułował istotny element nowego typu zastrzeżeń patentowych w zakresie
mikroelektroniki: wynalazca zastrzega system masek litograficznych. Warto
uczynić tu drobną, acz symptomatyczną dygresję o zabarwieniu europejskim. W tym
samym mniej więcej czasie, gdy w USA znalazło się kilka firm, które w krótkim
czasie zaprojektowały i uruchomiły produkcję udanych klonów intelowskiej serii
procesorów x86, w Europie upadła inicjatywa ponad narodowej produkcji własnego
procesora. I to z udziałem takich potęg mikroelektroniki jak Phillips, Siemens,
CSF Thomson czy Olivetti. I to wbrew nadziei, jaką już dawno stwarzało
wymyślenie i uruchomienie produkcji transputerów w Zjednoczonym Królestwie.
Czyżby złożoność procesu produkcji procesorów ujawniła syndrom technologicznej
Wieży Babel w Europie? A może ta prawidłowość dotyczy nie tylko sprzętu? A czyż
rynek europejskiego oprogramowania nie jest zdominowany przez produkt
amerykański, co w szczególności dotyczy systemów stosowanych w bibliotekach?
Udział poza-intelowskich typów procesorów (PowerPC, Alpha) na rynku
szeroko rozumianych komputerów osobistych nie jest duży i w zasadzie jest
zdominowany przez Apple’a, który w oparciu o platformę PowerPC stara się powoli
zdominować rynek poligraficzny, podobnie jak Motorola zdecydowanie dominuje w
sprzęcie telekomunikacyjnym. Widać obecnie, że po kilku roszadach
organizacyjnych i personalnych, pogłębiły się specjalizacje zarówno w
oprogramowaniu, jak i sprzęcie, i znów pojawiają się dominacje o charakterze
monopolistycznym.
Wydaje się, że możemy już mówić o monopolu
konsorcyjnym. Firmy opracowujące oprogramowanie użytkowe (jak np. systemy
obsługi procesów bibliotecznych) wchodzą w porozumienia z firmami wytwarzającymi
oprogramowanie zarządzające bazami danych i oferują bibliotekom oprócz własnej
aplikacji również moduły rozruchowe (Run Time) po bardzo atrakcyjnych cenach.
Równocześnie rychło okazuje się, że użytkownik aplikacji (biblioteka) szybko
wpada w mechanizm oscylatora (przepraszam za aluzję), gdy dowiaduje się, że nowa
wersja oprogramowania bibliotecznego wymaga nowej wersji systemu zarządzania
bazą danych, a być może i nowej wersji pomocniczego kompilatora. Analogiczne
sprzężenia interesów występują między projektantami płyt głównych do komputerów
osobistych, producentami procesorów, pamięci a nawet projektantami interfejsów
oraz oprogramowania systemowego. Jest to zjawisko tak powszechne i negatywne, że
wymaga przeciwdziałań systemowych, które jednak nie będą tu przedmiotem dalszej
dyskusji. Ciekawe uwagi w tej materii znajdzie Czytelnik w książce Coxa [2000],
szczególnie na stronach 202-213.
Dla dodania przysłowiowej kropki nad
‘i’ można powiedzieć, że sam akt „altruizmu licencyjnego” nie musi w efekcie
okazać się korzystny dla firmy. Świadczy o tym najlepiej przykład Osborne Corp.,
która przedwcześnie ujawniła znakomite cechy nowego modelu komputera, przy
ciągle znacznym wolumenie niesprzedanego starego modelu, zalegającego magazyny
punktów dystrybucyjnych. Mimo rozpoczęcia produkcji klonów ‘Executive’ na
Dalekim Wschodzie rynek amerykański Osborna załamał się, ponieważ przedwcześnie
uświadomiony konsument nie chciał już kupować ciągle zalegającego półki,
starego, wyraźnie słabszego modelu. Doskonała firma (model O-1 został nagrodzony
na targach komputerowych w Kalifornii) wpadła w pułapkę kredytową i musiała
ogłosić upadłość.
Interesowni altruiści - w obronie własnej skóry
Pojawienie się globalnej sieci
komputerowej dało konsumentowi do rąk niezwykłe narzędzie: niewiarygodnie tanią
infrastrukturę pracy kooperatywnej w systemie rozproszonym. Połączone siły
intelektu, których nie dzielą morza i oceany, ma niesłychane możliwości
wytwórcze. Konsument, wciskany w pułapkę wyścigu technologicznego i zmuszany do
nieustannego wydawania pieniędzy na coraz to nowy sprzęt i oprogramowanie,
przedzierzga się programistę i rozpoczyna tworzenie globalnych, software'owych
„klocków LEGO”. Jeśli Gaspar zrobi jeden moduł, Mark - drugi, a Roman
[9] - trzeci - to wszyscy trzej mają po trzy moduły, choć każdy z nich zrobił tylko jeden. Potrzebny jest tylko wspólny magazyn. Już od samego początku istnienia Internetu istnieje taka podstawowa
usługa, zwana serwerem FTP. W ramach tego serwera stworzono jednak znakomitą
możliwość: anonimowy dostęp użytkownika - usługę udostępniania nie chronioną
hasłem dostępu. Taki serwer anonimowego dostępu to bezinteresowna przechowalnia
oprogramowania (a niekiedy i danych). To usunęło wszelkie bariery
psychologiczne. Stara idea spółdzielczości natychmiast zaczęła zbierać na sieci
coraz bogatsze żniwo: masowo pojawia się produkt oferowany darmowo (ang.
freeware, Public Domain). W jakimś więc sensie Anonymous FTP realizuje piękną
rzymską maksymę przytaczaną przez Symmachusa (druga połowa IV w. n.e.): Oratio publicata res libera est (mowa
opublikowana jest rzeczą wolną) [Głombiowski, Szwejkowska 1971:56]. Dający nie
pyta, czy biorący sam coś włożył do wspólnego kubła, a biorący nie musi się
tłumaczyć kim jest i po co bierze. Internet stał się osobliwą komuną, całkowicie
dobrowolną, zbiorowiskiem dziwnych ludzi, dla których darzenie innych staje się
szczególną radością (szkoda, że dotyczy to również produkcji wirusów). Czyżby
zaczęły już pobrzmiewać pierwsze świergoty tego wydumanego przed półwieczem
przez Wienera ptactwa wolności, co to chce budować społeczeństwo na innych niż
rynkowe zasadach? Dodajmy, że ta cała darmowa oferta dotyczy głównie
oprogramowania, choć jest też pewna liczba darmowych, kompletnych opisów
technologii sprzętowej, do samodzielnego wykonania w domu.
Wśród
dostępnego za darmo na sieci oprogramowania, specjalną pozycję zajmują produkty
oferowane w postaci kodu źródłowego. Posiadanie kodu źródłowego to fantastyczna
korzyść - kończy się niewolnicza zależność od producenta oprogramowania. Taki
kod można sobie samemu modyfikować na miarę własnych potrzeb. I takie
oprogramowanie tworzone jest i udostępniane od początku istnienia Internetu.
Jednak absolutnie najwyższą pozycję zapewnił tu sobie opracowany w Europejskim
Centrum Badań Jądrowych w Genewie, popularnym CERNie, HyperText Transmission
Protocol (HTTP). Dzięki temu cichemu bohaterowi Internet jest dziś tym, czym
jest: potęgą, do której największe potęgi światowe w pośpiechu dostosowują swoje
prawo. Do publicznie dostępnej specyfikacji protokołu HTTP kolejną Wartość
Dodaną dorzucili ponownie Amerykanie udostępniając darmo światu Mosaic -
pierwszą graficzną przeglądarkę dokumentów hipertekstowych. Wreszcie powstał
system operacyjny LINUX - kolejna darmowa, i niezwykle obecnie popularna mutacja
sprawdzonego przez lata wielozadaniowego i wielodostępnego UNIXa. Jest on
dostępny obecnie nie tylko na komputery z procesorem Intelowskim, ale również i
na inne platformy procesorowe. Pierwotnie lekceważony przez światowych wytwórców
sprzętu i oprogramowania, został wreszcie w pełni doceniony. Nie ukrywajmy:
stało się to oczywiście za przyczyną samego twórcy systemu, Fina Linusa
Thorvaldsa, ale sukces byłby nie do osiągnięcia bez ogromnego, twórczego wkładu
często bezimiennej Sieci. Model Open Source Software stał się już przedmiotem
poważnych badań naukowych; warto tu przytoczyć takie najnowsze publikacje jak:
Sharma et al. [2002], Koch [2002], czy Stamelos et al. [2002].
Z żalem
można zauważyć, że te postawy bezinteresownego dzielenia się własnym dorobkiem
ciągle nie mogą sobie uwić gniazdka w polskich bibliotekach. W ciągłym uganianiu
się za funduszami jak ognia unika się tego, by oddać za darmo coś, podzielić się
z kimś tym, na co się samemu wydało pieniądze. Wziąć coś darmowego? Z największą
radością! Dać coś w darze? A co ja z tego będę miał / miała? Podejrzeć coś, co
ktoś opracował i sam ukrywa? Owszem, udało mi się; potrafię ich obejść! Ale na
uszach będę stawać by inni nie zobaczyli, jak ja to robię i co u mnie jest!
Prace zlecone? Jeszcze podołam. Przeszkolić innych? Podzielić się pracą płatną z
zewnętrznych funduszy? Nie ma potrzeby - sami damy radę, tego nie jest aż tak
dużo!
Ktoś kiedyś musi przekroczyć ten zaklęty krąg. Wierzyć trzeba
głęboko, że właśnie w Polsce wyrasta pokolenie o którym pisał Toffler, pokolenie
zupełnie odmienne od swoich rodziców. Ale też życzyć sobie trzeba, by to
pokolenie nie odrzucało tego, co było w przeszłości dobre, ale tylko to co było
złe. I tak jak to niejeden z nas sobie westchnie: ... i naucz mnie, bym umiał
odróżnić jedno od drugiego.
O bibliotekach od dawna
wypowiadają się wszyscy, którzy mają z nimi cokolwiek wspólnego: czytelnicy,
bibliotekarze i naukowcy. Komentator zwykle kieruje swe oczekiwania pod dwa
adresy: zasobów biblioteki oraz usług oferowanych przez nią. Chociaż biblioteka
nie jest w znaczniejszym stopniu instytucją rynkową, tradycyjnie już afiszowała
się swoim liczeniem się z opinią czytelnika: obsługa czytelniczych dezyderatów
nie jest niczym nowym. Inna sprawa, że czytelnik nie zawsze czuł się należycie
przez bibliotekę zadbany. Czytelnik XXI wieku już został wystarczająco
przetrenowany przez podróże, media i przyjaciół, by wypowiadać swe oczekiwania i
egzekwować prawa. Mówiąc słowami Wrighta [1995 strona 192]: W naszym
uniwersytecie doktoranci szybko nauczyli się jak "korzystać" z biblioteki na
odległość - przeszukując katalog, indeksy CD ROM-ów, używając gophera do dostępu
do obcych katalogów i jako wejściowej drogi do Internetu. Wysyłają zamówienia
międzybiblioteczne pocztą elektroniczną i zakładają sobie konta czytelnicze w
bibliotekach specjalnych. Sprawdzają dane bibliograficzne ze swoich laboratoriów
studenckich i pracowni naukowych. W miarę jak zapoznają się z tego typu usługami
bibliotecznymi,j wzrasta ich zainteresowanie usługami bardziej zaawansowanymi.
Zaczynają zadawać pytania o możliwość otrzymania plików pełnotekstowych ORAZ
rysunków z czasopism. Abstrahując od pewnej dezaktualizacji wywoływanych przez
Wrighta terminów (kto dziś używa gophera?), sytuacja w Polsce niewiele odbiega
od powyższego opisu. Powtórnie warto przywołać Chmielewską-Gorczycę [1996 strona
11]: Porównanie usług własnej biblioteki z innymi spowodowało falę nowych żądań
i oczekiwań, szczególnie w zakresie podniesienia jakości usług, np. lepszych
narzędzi wyszukiwania rzeczowego (m.in. przez zaopatrzenie opisów w abstrakty i
spisy treści), elektronicznego dostarczania pełnych tekstów dokumentów, których
opisy znajdują się w OPAC
Część z tych oczekiwań ma charakter
uniwersalny, niezależny od czasu i natury biblioteki (np. że zasoby są kompletne
i zawierają informacje prawdziwe). Warto zebrać te oczekiwania w grupy
morfologiczne.
Od zasobów i wyposażenia sprzętowego biblioteki oczekuje
się:
Co do pierwszych czterech
punktów oraz punktu ostatniego stanowisko bibliotekarzy jest w zasadzie idealnie
zgodne ze stanowiskiem czytelników. Co do punktu piątego (dostępności), w
pewnych klasach dokumentów stanowiska te bywają podzielone ze względu na stan
fizyczny zasobów, nieprzeciętną wartość konkretnego wydawnictwa i trudności z
odpowiednim poziomem dozoru, lub jakąś formę cenzury (zagrożenie zniszczeniem,
względy polityczne, religijne, czy inne).
Od usług bibliotecznych
czytelnik oczekuje:
W materii usług bibliotekarz i
naukowiec w zasadzie akceptują oczekiwania czytelników, jednak uzupełniają je o
pozycje w jakimś sensie komplementarne. Można tu wymienić następujące
cechy:
[7] Godne uwagi są czasowe, organizacyjne i ekonomiczne charakterystyki tego przedsięwzięcia. Projekt wystartował w 1999 roku, a na dzień 31 grudnia 2001 przeniesionych zostało do bazy graficznej 829 924 kart katalogowych co stanowi ok. 90% całości planowanego do skanowania katalogu, obejmującego 3120 skrzynek. Dziennie skanowanych jest około 2 skrzynek (ca 500-600 kart). Skanowanie wykonuje młody człowiek odbywający w Bibliotece Jagiellońskiej zastępczą służbę wojskową w ramach umowy zawartej pod auspicjami Wojewódzkiego Urzędu Pracy. Umowa zobowiązuje Bibliotekę do opłacenia żołdu (ok. 500 PLN miesięcznie) co rozszerzone o 15% premię dla bibliotekarza sprawdzającego wyniki skanowania stanowi koszt projektu. Organizacja tego projektu winna być uznana za wzorcową i powielona w innych bibliotekach dysponującymi własnymi serwerami i dostępem do sieci.
[9] Aluzja do imion realizatorów projektu wsparcia Linuksa dla Unicode.
[10] Specyfika zbiorów, postawa władz biblioteki oraz świadomość czytelników mogą dopuszczać szeroki wachlarz ułatwień dostępu do zbiorów. Biblioteka Wydziału Chemii Florida University w Gainesville (USA), z której autor miał przyjemność korzystać przez półtora roku, była dostępna dla pracowników Wydziału, doktorantów i wizytujących gości przez cały rok 7 dni w tygodniu i 24 godziny na dobę. Każdy z pracowników Wydziału dysponował jednym kluczem w systemie Master Key, umożliwiającym wstęp do budynku Wydziału (w czasie wizyt nocnych), laboratorium, gabinetu kierownika zespołu z podręcznym księgozbiorem, biblioteki (swobodny dostęp do półki), pomieszczeń z kserografami. Mimo wolnego dostępu do półki, biblioteka Wydziałowa nie była wyposażona w żaden system kontrolny, wykrywający niepowołane wynoszenie wydawnictw poza pomieszczenia biblioteki. Obecność bibliotekarza w ciągu dnia była symboliczna i nie miała charakteru nadzorczego. Mimo tego wspaniały, ponad stuletni księgozbiór, pozostawał praktycznie w nienaruszonym stanie; zabawne - z książkami znajdującymi się na swoich miejscach. Na tym samym uniwersytecie zwroty książek wypożyczonych realizowane były przez wrzucanie książek do zamkniętych pojemników ustawionych na terenie kampusu uniwersyteckiego poza obszarem budynków.