Spis treści
7 Rekapitulacja
Motto:
A że wartość
rady w znacznej mierze zależy od czasu, nieuniknienie musi się zdarzyć, iż
zdanie moje o niektórych rzeczach dociera do ciebie wtedy, gdy słuszniejsze jest
już zdanie przeciwne
Seneca L.A. Listy moralne do Lucyliusza.
str.280.
Książka i jej przesłanie
Publikacja niniejsza jest
pierwszym w literaturze polskiej opracowaniem podjętego tematu. Pewnym
wytłumaczeniem dotychczasowego braku zainteresowania innych potencjalnych
autorów może być wymagana w omawianiu tej tematyki wielodyscyplinarność
zainteresowań oraz konieczność uwzględnienia aspektów związanych z wdrażaniem
nowych rozwiązań.
Wstęp do książki ukazał tło historyczne pojawienia się
technologii cyfrowej. Obecny stan burzliwych dyskusji nad potencjanymi
konsekwencjami masowego wdrożenia tej technologii przypomina podobne reakcje w
okresie wcześniejszych przełomów technologicznych i należy przypuścić, że ich
finał będzie podobny. Nigdy nie było odwrotu od wyborów których dokonywały masy
społeczne.
W zakresie badania narzędzi, związanych ze środowiskiem
cyfrowym, w książce przeprowadzono analizę sprzętowej scieżki rozwojowej i
określono przypuszczalny obraz zapotrzebowania użytkownika oraz oferty rynkowej.
W drugim etapie dokonano oceny funkcjonowania pewnego środowiska
programistycznego. Modułom morfologicznym przyporządkowane zostały rozmaite
aspekty użytkowania środowiska cyfrowego. W ramach rewizji terminologii znaczną
uwagę poświęcono znakom, dokumentom i kodowaniu, ze szczególnym uwzględnieniem
obsługi dokumentów wielojęzycznych, a wśród nich tych, które wydają się nam
najbardziej odległe i trudne – pisanych w językach dalekowschodnich. O
fascynacji tego typu literaturą pisał Migoń [1969], a zainteresowanie tym
regionem świata wydaje się obecnie bardzo wzrastać z uwagi na wzrost zamożności
społeczeństw oraz obniżenie kosztów i skrócenie czasu podróży. W zarysowanym
obrazie uwypuklona została funkcja integracyjna środowiska cyfrowego. Odnosi się
ona zarówno do przechowywanej w systemie rozmaitości obiektów, jak i różnych
środowisk użytkowników. Tak więc z jednej strony autor pokazał swobodną
możliwość integracji różnojęzycznych skryptów w ramach pojedynczego dokumentu, z
drugiej wykorzystanie polimorfizmu systemu do integracji dostępu do niego
różnych użytkowników (osoby widzące i niewidzące). Warto też mieć na względzie
fakt, że środowisko cyfrowe umożliwia integrację instytucji o bardzo różnych
profilach. Bibliotekarzom szczególnie bliska jest współpraca z archiwami i
muzeami. Świetną bibliografię tego typu narodowych i międzynarodowych projektów
opublikowałą ostatnio Maria Witt [2001].
Implementacja technologii
W zakresie implementacji
książka jest podsumowaniem dziesięcioletnich wysiłków autora, zmierzających do
stworzenia prototypu kompleksowego, akademickiego systemu informacyjnego.
Wysiłki te obejmowały stronę organizacyjną, techniczną, społeczną i teoretyczną
tworzenia takiego systemu. Uzyskane wyniki są wymierne pod względem
implementacyjnym. Autor zorganizował 3 konsorcja: jedno ogólnopolskie -
bibliotek akademickich, wdrażających system VTLS (funkcjonuje), oraz 2
regionalne: Trójmiejską Akademicką Sieć Komputerową (TASK, funkcjonuje),
Trójmiejskie Porozumienie Bibliotek PAN ds. wdrażania VTLS (niestety w stadium
agonalnym), oraz stworzył organizacyjne podstawy do integracji bibliotek
akademickich i naukowych Trójmiasta we wspólnym systemie VTLS wokół Centrum
Informatycznego TASK (in statu nascendi). W ścisłej współpracy z tymi
bibliotekami VTLS, które współdziałały w realizacji koordynowanych przez autora
KBN-owskich projektów na bazy danych, udało się doprowadzić do prezentacji
pierwszych polskich katalogów online w Internecie: najpierw widzianych poprzez
telnet, potem przez WWW. Osobnym, wspaniale przedstawiającym się rozdziałem jest
współpraca autora z dr Januszem Młodzianowskim, która, choć na razie nie owocuje
jeszcze opublikowanymi efektami wspólnych poczynań, znakomicie
przyczynia się do rozwoju niesłychanie cennych, tanich i stabilnych interfejsów
dostępowych do systemów informacyjnych. Wynikiem współpracy jest pierwsza polska
publikacja aplikacji internetowych w USA (Młodzianowski 1996).
Po
złożeniu przez autora rezygnacji z przewodniczenia Zespołowi Koordynacyjnemu
Bibli otek Wdrażających VTLS zajął się on tworzeniem struktury systemu
informacyjnego na Wydziale Filologiczno - Historycznym Uniwersytetu Gdańskiego,
organizacją dostępu osób niewidomych do Internetu oraz edytorstwem sieciowym,
cały czas koordynując budowę sieci lokalnych i usług sieciowych na Uniwersytecie
Gdańskim.
Bez większej obawy można tu zaryzykować stwierdzenie, że zręby
teoretyczne funkcjonowania tego rodzaju systemów informacyjnych (w tym
bibliotek) tworzone były prawie wyłącznie w USA. W pierwszej fazie rozwoju tych
systemów udział europejskiej myśli (w tym polskiej) oraz technologii
dalekowschodniej był znikomy. W przypadającej na ostatnią dekadę minionego
stulecia, dojrzałej fazie tego rozwoju, poza-amerykańskiej reszcie świata
pozostało zadanie naturalnego pytania: “jak my możemy skonsumować cudze
doświadczenia”? Wówczas okazało się, że przeniesienie amerykańskich doświadczeń
na inny grunt wcale nie jest takie proste.
Pierwszym obszarem
przeniesienia doświadczeń amerykańskich była zachodnia Europa. Rejon ten nie
podlegał restrykcyjnej polityce COCOMu i dzięki temu infrastruktura techniczna
(telekomunikacja i sprzęt komputerowy) nie odbiegały zbyt daleko od poziomu
amerykańskiego. Chociaż w sensie liczbowym rynek ten jest porównywalny z rynkiem
amerykańskim, to jednak jego wielojęzyczność, odmienność kulturowa oraz
protekcjonistyczna polityka eksportowo-importowa nie sprzyjały osadzaniu się
gotowego produktu amerykańskiego w tym rejonie. Amerykańskie normy narodowe i
przemysłowe przyjmowane były w Zachodniej Europie bardzo niechętnie z wyraźną
tendencją do wypierania ich nie zawsze lepszymi normami ISO. Tu szybko zaczęła
wychodzić na jaw wyższość administracji państwowej USA i swojego rodzaju wyższy
poziom ‘inteligencji post-biurokratycznej’ Amerykanów. W USA akty normatywne są
własnością publiczną i na mocy prawa są dostępne w sieciach komputerowych za
darmo i można je legalnie kopiować. W odróżnieniu od nich wszystkie normy ISO są
dostępne wyłącznie w obiegu komercyjnym, nie wolno ich kopiować i przez to ich
stopień opanowania jest nieporównanie niższy niż norm amerykańskich. Elementowi
temu należy przypisać znaczącą rolę w dywersyfikacji rozwiązań europejskich w
stosunku do amerykańskich. Znaczącą, ale nie główną. W końcu przecież Amerykanie
mają nie tylko wspólne normy, ale i język; jedną bibliotekę narodową, jeden
budżet, jeden rząd. Tej centralizacji Europa próbuje przeciwstawić zarządzanie
kolegialne oparte o balans rozbieżnych interesów. Jest to skuteczne podczas
obrony interesów wobec reszty świata, natomiast bardzo nieskuteczne na poziomie
wewnętrznej unifikacji. I ta nieskuteczność europejskiej demokracji najlepiej
dała o sobie znać właśnie w obszarze sieci komputerowych i
bibliotek.
Polsce w ostatnim dziesięcioleciu sprzyjał los. W okresie
przełomu politycznego 89/90 kraj od strony technicznej był w pewnym sensie
pusty. Większość sprzętu komputerowego - głównie komputery Jednolitego Systemu
oraz ODRA w większości wypadków były zdekapitalizowane. Amerykańska oferta
pomocy złożona kilku wyróżniającym się ośrodkom akademickim trafiła na podatny
grunt. Sprzętu osobistego nie było praktycznie wcale, stan unifikacji sprzętu
będącego w posiadaniu przeciętnych instytucji - praktycznie zerowy. Techniczne i
teoretyczne wykształcenie kadry było dobre, satysfakcjonujące też było wsparcie
ze strony władz zarówno uniwersyteckich jak i ministerialnych.. Zauważalnym
niedomaganiem był znikomy dostęp do dokumentacji technologicznej, słabość
ustawodawcza systemu oraz nieumiejętność zarządzania
projektami.
Wdrożenie nowych technologii w bibliotekach polskich było
możliwe dzięki gotowości infrastruktury ludzkiej (o szerokim spektrum
specjalności) oraz amerykańskiemu kapitałowi zaoferowanemu na niezwykle
dogodnych warunkach (Czermiński, 2000). W stosunku do projektów indywidualnych
pierwszej fazy (Uniwersytet Warszawski, Uniwersytet Jagielloński, Uniwersytet
Gdański) strona amerykańska okazywała daleko idącą wyrozumiałość zarówno w
odniesieniu do uchybień w części prawnej wniosku (w tym miejscu ujawniały się
znaczne rozbieżności pomiędzy prawem amerykańskim i dawnym, ale ciągle
obowiązującym prawem polskim) jak i niekompletności, czy niespójności części
merytorycznej. Niejako w rewanżu za tą wielkopańską postawę Ofiarodawca otrzymał
zupełnie nieoczekiwany prezent: szybko rozrastające się konsorcjum sklejonych
własnym sumptem bibliotek. Od tych bibliotek Ofiarodawca nie domagał się
współfinansowania projektu i był nawet skłonny odstąpić od ustalonego wstępnie
przez siebie maksymalnego pułapu grantu (300 tys USD). Uniwersytet Gdański
złożył wniosek na sumę 540 tys. USD i po odpowiednim uzasadnieniu otrzymał całą
wnioskowaną sumę. Obdarowani sami czuli się zobowiązani do znalezienia kolejnych
sponsorów, na własnym gruncie zwielokrotniając pierwotny wkład amerykański
funduszami własnymi uczelni oraz pozyskanymi z MEN, KBN i Open Society
Institute. System przekroczył masę krytyczną i zaczął się sam rozwijać. Wydaje
się, że fundatorowi dokładnie o to chodziło.
Jest rzeczą ciekawą, że w
bardzo wielu przypadkach okres upływający od momentu pojawienia się możliwości
realizacji pewnego zadania do momentu faktycznego jego wdrożenia wynosił od 1.5
do 2 lat. Było to stosunkowo proste do wytłumaczenia, jeśli chodzi o moduły
oprogramowania sieciowego na trzech (potem czterech, pięciu i sześciu)
serwerach. Było to jednak bardzo zaskakujące w odniesieniu do takich urządzeń
jak komputery osobiste, przełączniki sieciowe, czy nawet UPSy. Ale dotyczyło to
również takich spraw jak gotowość do katalogowania, udostępnienia OPACu, czy
zamknięcia katalogu kartkowego (ten ostatni przypadek okazał się chyba
najtrudniejszy w przeprowadzeniu). Okazało się, że jednym z najlepszych lekarstw
na przyspieszenie implementacji jest rygorystyczny i częsty nadzór ze strony
fundatora. W tym miejscu podkreślić trzeba, że godną pochwały pragmatyką popisał
się KBN, finansujący przez kilka lat tworzenie baz danych. Sieciowa kontrola
realizowanych zadań wymogła na bibliotekach otwarcie OPAC-ów (mimo małej
początkowo jego liczebności) i skrupulatną dokumentację wykonanych
prac.
Osadzenie przez pięć pierwszych bibliotek (AGH, UG, UJ, UW, UWr)
systemu bibliotecznego na własnościowym systemie Hewlett-Packarda MPE dało tym
bibliotekom przez ponad pól dekady pełny komfort stabilnej pracy, bez uczucia
niepokoju załamania systemu w wyniku przestępczego złamania praw dostępu z
zewnątrz. O tym, że zarzuty wyboru przez te biblioteki nie-UNIXowego systemu
operacyjnego były niepoważne, najlepiej świadczy fakt, że najnowszy system
informatyczny ZUS zarówno ze względów bezpieczeństwa jak i wydajności nie bazuje
na UNIXie. Odejście przez VTLS od własnościowych systemów operacyjnych na rzecz
UNIXa związane jest z jednej strony z naturą migracji oprogramowania
bibliotecznego (np. wymagana obsługa UNICODE’u), z drugiej ze wzrastającymi
kosztami kształcenia i szkolenia kadry operatorskiej i programistycznej, a
wreszcie z coraz wyższymi kosztami dostosowania samego systemu operacyjnego do
szybko zmieniającej się technologii sprzętowej. Na szczęście doświadczenie
ubiegłych lat pozwoliło na zidentyfikowanie dziur w systemach operacyjnych i
zauważalne ich uszczelnienie. Pozwala to patrzeć ze znacznie większym spokojem w
nadchodzącą przyszłość.
Do sukcesów należy zaliczyć organizację
centralnego finansowania (z funduszy KBN i MEN) szeregu wspólnych przedsięwzięć
(retrospektywne katalogowanie, zakup licencji systemu dla nowych członków
konsorcjum, uzupełnienie brakującego oprogramowania). Wycofanie się KBNu z
finansowania tego rodzaju zadań trzeba uznać za bardzo niefortunne i należy
dołożyć starań do zmiany tego stanowiska. Zachodzi obawa, że technologiczne
marzenia KBN o utworzeniu polskiego Internetu Optycznego mogą skonsumować
poważną część funduszy przeznaczonych na naukę, nie dając w zamian odczuwalnej
poprawy dostępu końcowego użytkownika do zasobów sieciowych (Czermiński
[1999]).
Zrozumienie aktualnych tendencji rozwojowych pozwoliło uniknąć
wprowadzenia do niektórych ośrodków akademickich Polski pewnych technologii
wycofywanych już w USA. Tak np. w wyniku decyzji autora tej książki gdańskie
środowisko akademickie nie zakupiło dla siebie oferowanych w ramach tzw
Akademickiej Inicjatywy IBM starych komputerów klasy maineframe, zakupując od
razu system UNIXowy. Z podobnych względów w Gdańsku nigdy nie rozpowszechniła
się sieć DECNET, oszczędzając budżetowi zupełnie niepotrzebnych
wydatków.
Struktura sprzętowo-programowa systemów informacyjnych
Uniwersytetu Gdańskiego była budowana w oparciu o przewidywany rozwój zmian
technologicznych. Implementowany w Bibliotece Głównej UG system sprzętowy
modelowany był pod kątem następujących cech użytkowych:
- Oprogramowanie użytkowe winno umożliwiać zdalny dostęp do baz danych (tryb
online) poprzez sieci rozległe (IP, X.25) i telnet. Wybrano VTLS (Virginia Tech
Library System).
- System komputerowy musiał posiadać rekomendację dostawcy oprogramowania
użytkowego i posiadać możliwie długi okres międzyawaryjny (wysoki współczynnik
MTBF) dla serwerów i jego krytycznych elementów takich jak pamięć RAM i dyski.
(VTLS wskazał na Hewlett-Packarda)
- Biblioteka winna dysponować dwoma serwerami: jednym głównym i jednym
zapasowym, dającymi możliwość szybkiego rozwiązania sytuacji awaryjnej
(zakupiono dwa serwery, ale awaryjna sytuacja nie zaistniała ani razu)
- Było pożądane, by w pomieszczeniu gdzie pracuje serwer biblioteczny,
znajdował się węzeł miejskiej sieci komputerowej, umożliwiając tym samym
obniżenie kosztów szerokopasmowego dostępu do serwera (przedsięwzięcie
zakończyło się na Uniwersytecie Gdańskim pełnym sukcesem)
- Serwer biblioteczny winien stanowić spójny element całego systemu
uniwersyteckiego, korzystając ze wspólnych zasobów takich, jak: kartoteki
studenckie i pracownicze, kartoteki materiałowe dla środków trwałych,
nietrwałych i inwentarza, kartoteki księgowe (element okazał się być absolutnie
nie do zrealizowania)
- Redukcja zakupów urządzeń, które mają odpowiedniki sieciowe (mogą być
wyposażone w karty sieciowe). Dotyczyło to w pierwszym rzędzie wysoko wydajnych
drukarek sieciowych. Dla BGUG już w 1992 roku zakupiona została drukarka
sieciowa HP Laser Jet III i całkowicie spełniła pokładane w niej nadzieje.
- Oprogramowanie na CD oraz CD-ROMowe bazy danych (w tym bibliografie narodowe
i CD MARC) winny rezydować na sieciowym serwerze CD-ROMowym. Zakupiono drugi w
Polsce (po Politechnice Wrocławskiej) serwer CD-ROMowy. Wykorzystywany jest on
tylko w sieci lokalnej pod nadzorem systemu NetWare na terenie Biblioteki
Głównej. Usługa dostępu do tego serwera nie wydostała się poza gmach Biblioteki
Głównej, inaczej niż ma to miejsce np. z serwerem Biblioteki Głównej PG. Trudno
zaakceptować tłumaczenie, że jest to wynikiem różnic w protokołach (IPX vs. IP),
bo już wiele lat temu dokonano ujednolicenia akademickich adresów novelowskich w
Trójmieście i przynajmniej na poziomie filii Biblioteki Głównej dostęp do tych
zbiorów mógłby być poprzez klienta novelowskiego.
- Integracja usług po sieciach cyfrowych, w tym rozwiązanie problemu telefonii
i telekonferencji. Problem jest trudny od strony ekonomicznej, a niekiedy i
organizacyjnej. Na Uniwersytecie Gdańskim, którego jednostki dydaktyczne i
naukowe rozmieszczone są w trzech miastach funkcjonują centrale telefoniczne 5
różnych producentów, w tym tylko 3 są cyfrowe. Pierwszy etap integracji usług
cyfrowych został zakończony dopiero w lutym 2002 roku, obejmując połączenie 3
cyfrowych central po traktach E-1 wydzielonych z dostępnego na kampusach pasma
OC-3. Sprawa ta przybliża się w miarę zwiększenia przepustowości sieci lokalnych
(przełączniki dostępowe obsługują styk E-1 począwszy od gigabitowego Ethernetu).
Problematyka płatności za telekomunikację na ogół nie kojarzy się z istniejącymi
sieciami komputerowymi i możliwość zaoszczędzenia tu jakichś sum ciągle nie jest
przedmiotem dyskusji. Przy okazji warto zauważyć, że popularny IRC (Internet
Relay Chat) jest obecnie bardzo rozpowszechniony, natomiast telefonia
internetowa - prawie wcale. Czyżby w tym ostatnim przypadku było to wynikiem
obniżonej prywatności kontaktu rozmówców z uwagi na kontakt głosowy?
- Redukcja udziału technologii opartej na papierze. W szczególności dotyczyło
to zamknięcia sporządzania katalogu kartkowego (zgodnie z porozumieniem zawartym
z Dyrektorem BGUG katalog kartkowy został zamknięty po doprowadzeniu sieci
komputerowej do ostatniej filii Biblioteki Głównej). Próba przeforsowania
wydawania wewnętrznych instrukcji w formacie HTML i umieszczania ich aktualnych
wersji na sieci spotkała się z ostrym oporem autorów. Domagano się nadawania
ISBN nawet małym broszurkom. Należy przypuszczać, że u podstaw takiego
zachowania leży ciągle niska reputacja wydawnictw elektronicznych i
nieodpowiednie ich traktowanie w wykazie dorobku publikacyjnego. Do tej samej
kategorii należało obniżenie hierarchii zakupu dla BGUG drogiej drukarki
systemowej MPE intensywnie używanej w niektórych bibliotekach do ogromnych
objętościowo kontrolnych wydruków rekordów o niskim stopniu przetworzenia
porównawczego
W
podsumowaniu można bez obaw powiedzieć, że rozpoznanie technologiczne i
implementacja modelu zakończyła się pełnym sukcesem. W trakcie wdrażania systemu
pojawiły się sytuacje pierwotnie całkowicie nieoczekiwane. Do największych
niespodzianek należy zaliczyć następujące:
- strona polska już w 1992 roku przewidywała
diagnostykę serwera przez dostawcę oprogramowania bibliotecznego po łączach
dzierżawionych synchronicznych i zainstalowała je już w roku 1993, podczas gdy
Amerykanie (w tym dostawca) ciągle pracowali na komutowanych łączach
asynchronicznych (dial-up)
- strona polska jeszcze w 1991 roku domagała się dostępu użytkownika do
katalogu online poprzez protokoł TCP/IP z poziomu stacji roboczej wyposażonej w
kartę sieciową, podczas gdy Amerykanie preferowali dostęp terminalowy przez port
szeregowy
- strona polska jako pierwsza na świecie opracowała przełomie 1993/94 i
zaprezentowała publicznie (Młodzianowski [1994, 1996]) obsługę wielobajtowych
transmisji znaków narodowych w standardzie ISO 6937-2 poprzez Internet (w
sieciach rozległych) antycypując rozwiązanie przyszłego terminala Unicodowego
Problemy do rozwiązania
Ciągle pozostaje znaczne
pole spraw do rozwiązania. Do najbardziej palących należy:
- Ponowne zdefiniowanie realnej polityki państwa w stosunku do bibliotek na
początku nowego milenium
- Sformułowanie polskiego odpowiednika Freedom to Information Act i
uwzględnienie tego aktu w prawie autorskim i prawach pokrewnych
- Zmiana przepisów rankingu publikacji naukowych na korzyść środowiska
elektronicznego
- Zamówienie i wykonanie niezależnej ekspertyzy stanu obciążenia polskich
sieci akademickich i naukowych oraz dostępu do najważniejszych serwerów, a
następnie zaprojektowanie i centralne sfinansowanie usunięcia wąskich gardeł
przepływu pakietów
- Przeprowadzenie analizy wydatków na obsługę oprogramowania licencyjnego w
skali całego kraju
- Przygotowanie założeń i ogłoszenie rządowego programu konkursów na prace
informatyczne, których realizacja pozwoliłaby wyeliminować najbardziej kosztowne
licencje zagraniczne
Myśląc o przyszłości
Każde rozmyślania nad naszą
przyszłością to swego rodzaju wróżenie z fusów. Jednak przy pewnej dozie wiedzy
technologicznej dnia dzisiejszego można się zdobyć na jakieś przybliżenie
najbliższej przyszłości. Jeśli szukać jednozdaniowej odpowiedzi na pytanie „Co
nas wkrótce czeka?” niewątpliwie należało by zacytować podtytuł znakomitej
książki Williama Mitchella e-topia: „Urban life, Jim – but not as we
know it”. A więc życie miejskie, aliści jakoś zdecydowanie odmienne od tego,
które jest nam znane. Jakby na potwierdzenie tej prognozy w szwajcarskim
miasteczku Hunenberg za pieniądze milionera Otto Beisheima czteroosobowa rodzina
państwa Steinerów przez 3 lata zgodziła się mieszkać w domu XXI wieku,
udostępniając online fragment swego domu cyfrowo zautomatyzowanego „do szpiku
kości”. Z projektem tym można się zapoznać online pod URL:
http://www.futurelife.ch,
Rozwój technologii cyfrowej jest zależny od finansowania go przez masowego odbiorcę, ale stymulowanie tego procesu jest w znacznej mierze w rękach
wielkich korporacji oraz rządów mocarstw światowych – w głównej mierze USA.
Prognozy zmian technologicznych wskazują na bardzo daleko posuniętą
miniaturyzację sprzętu, redukcję materiałowych kosztów produkcji, ograniczenie
czasu pracy i poziomu zatrudnienia oraz zwiększanie się czasu wolnego, którego
zagospodarowaniem do niedawna zajmował się głównie przemysł rozrywkowy.
Technologia cyfrowa wprowadza po raz pierwszy bardzo ciekawą i potrzebną
alternatywę spędzania czasu wolnego: personalną działalność wydawniczą z
globalną dystrybucją dorobku, oraz mechanizmy aranżowania międzynarodowych
zespołów projektowych (wolontariat i komercja). Od znacznego już czasu
wypracowywane są nowe formy pracy nakładczej poza fizycznymi budynkami zakładów
produkcyjnych oraz nowe formy edukacji. Tryb interakcji dodatkowo wprowadza nowe
narzędzia do kształcenia w skali, która do niedawna była nie do pomyślenia. Dla
instytucji komercyjnych technologia informacji umożliwiła wprowadzenie zdalnych
usług z zakresu gromadzenia, wyszukiwania i przetwarzania informacji. Z usług
tych instytucji korzysta w tej chwili wiele bibliotek (czasopisma i bazy
online). Zmienia się wizja uczestnictwa społecznego w obiegu informacji.
Najważniejszym, choć nie jedynym do zaakceptowania modelem, staje się model
zdelokalizowany, ruchomy. Być może większe przemiany modelowe zajdą w
szkolnictwie, niż w bibliotekach. Wprost niesłychanie zmienia się uczestnictwo
inwalidów w życiu społecznym i wydaje się, że generalnie rzecz biorąc
technologia cyfrowa znacznie przyspiesza przemiany demokratyczne.
Nie
należy przypuszczać, że obecność technologii cyfrowej w jakiejkolwiek bibliotece
mogła by zagrozić jej istnieniu. Odwrotnie – jej brak może implikować początek
procesu przypisywania jej przymiotnika „nienowoczesna”, spadek liczby
czytelników i postępujące kłopoty z uzyskaniem funduszy. Jednak kompleksowe
wprowadzenie technologii cyfrowej do biblioteki zmienia radykalnie i
nieodwracalnie jej charakter, wprowadzając wszystkie elementy znane wcześniej z
przemysłu: redukcję etatów, przesunięcia na inne stanowiska pracy, obowiązkowe
szkolenia w zakresie nowej technologii (nie zawsze akceptowane przez personel),
pojawienie się nowego rodzaju wykształconego i wymagającego czytelnika,
umiejącego egzekwować swoje prawa. Dramatycznie zmienia się rola dyrektora
takiej biblioteki. Na pierwszy plan zaczynają się wysuwać sprawy zamówień
publicznych i obsługi kontraktów licencyjnych (zarówno techniczne, jak i
prawne), bezpieczeństwa zasobów materialnych oraz terminowości i dyscypliny
finansowej rozliczenia otrzymanych grantów. Jeśli powołać się na kilka
znaczących przypadków odwołania dyrektorów dużych bibliotek naukowych w ostatnie
dekadzie, to można powiedzieć, że w warunkach Polski jest to zuważalny problem.
Klucz do poprawnej ekonomii funkcjonowania bibliotek to innowacyjność, by
dostosować je do współczesnych, zmieniających się potrzeb i obyczajów
czytelników, współpraca międzybiblioteczna oraz mądra i bardziej stanowcza
polityka państwa. Należy żywić nadzieję, że przyszłość obejdzie się życzliwie z
bibliotekami.
W
ostatnich latach w środowisku bibliotekoznawców oraz teoretyków kultury
bardziej niż bibliotekarzy wybuchają spory na temat bliższej czy
dalszej perspektywy zastąpienia papieru przez nośniki informacji
narodzone w XX wieku; zastąpienia książki przez elektroniczny dokument
cyfrowy. Temat ten doczekał się u nas sumiennej analizy (Grygrowski
[2001]), wiele jego aspektów zostało również poruszonych w niniejszym
opracowaniu i pewnie jeszcze nie raz będzie podejmowany w różnych
publikacjach. Z odnotowanych wypowiedzi prominentnych postaci wyziera
jednak głównie emocja wyrażana w stosunku do adwersarzy i raczej
skromna wiedza technologiczna; często przebija też brak elementarnego
realizmu.
Zdaniem autora niniejszej książki problem papieru winien być w głównej
mierze rozważany z perspektywy dostawy surowca do produkcji, który ma do
spełnienia dużo ważniejszą rolę niż książka (przykro to powiedzieć): regeneracji
tlenu w atmosferze ziemskiej – i co nie mniej ważne – utrzymania faktycznie
bardzo cienkiej warstwy gleby. Problem ekologiczny winien tu być postrzegany
przez pryzmat trudności napotykanych w odtworzeniu pierwotnego ekosystemu Afryki
w strefie tropikalnej oraz Kanady i Rosji w strefie arktycznej, oraz ginących
lasów deszczowych (Brazylia, Polinezja). Jeśli jakiś kraj nie może dostarczyć
surowca do produkcji papieru z własnych plantacji – po prostu niech zmieni
technologię nośników informacji. Jeśli jednak chodzi o realistyczną prognozę, to
poglądy autora tych słów są następujące:
- Całkowitej eliminacji papieru
należy oczekiwać i domagać się obszarze administracji (państwowej i
korporacyjnej). Przytoczone na łamach tej książki akty legislacyjne USA i Polski
wyraźnie wskazują na już nakreślony kierunek. Należy jednak pamiętać, że
eliminacja papieru w obrocie administracyjnym pozwala na złożenie dokumentu
tradycyjnego na papierze, natomiast instytucja otrzymująca tego rodzaju dokument
skanuje, archiwizuje jego cyfrowo uwierzytelniony obraz – a sam oryginalny
dokument natychmiast niszczy.
- Korespondencja osobista będzie absolutnie
i bardzo szybko zdominowana przez technologię cyfrową, ze wzrastającym udziałem
dostarczania bezprzewodowego do komunikatora osobistego.
- Informacja
prawna jest znacznie skuteczniejsza w postaci cyfrowej, niż w postaci drukowanej
na papierze - zwykle ma zintegrowane nowelizacje. Już teraz można to łatwo
spostrzec zarówno na przykładzie Sejmu, jak i parlamentów narodowych. Należy
oczekiwać dominacji wersji online zarówno nad wersją drukowaną, jak i
CD-ROM-ową.
- Informacja komunalna (np. informatory kulturalne,
informatory o usługach komunalnych, rozkłady jazdy środków komunikacji
miejskiej, informacja turystyczna, przewodniki po zabytkach) w większości
przypadków będzie pokojowo współistnieć w formach drukowanych i online – ta
ostatnia będzie zawsze bardziej aktualna. Lokalnie (przewodniki po miastach i
zabytkach) będzie nadal występować w postaci nagrań obecnie analogowych, potem
cyfrowych.
- Encyklopedie i słowniki będą szybko zmniejszać nakłady wersji
drukowanych na papierze na rzecz wersji na dyskach optycznych. Zarysowała się
tendencja do oferowania usługi dostępu online do pojedynczego
hasła.
- Literatura piękna – w tym dziecięca - przez długie lata będzie
wychodzić praktycznie wyłącznie w formie drukowanej na papierze. W miarę poprawy
jakości książki ładowalnej rozpocznie się proces powolnej migracji
technologicznej.
- Literatura naukowa wydaje się migrować w kierunku
technologii cyfrowej. Prawdopodobnie ta technologia najpierw zdominuje
publikacje z dziedzin nisko dotowanych, potem z dziedzin ścisłych i
technicznych, następnie obejmie dziedziny artystyczne, a na końcu szeroko
rozumianą humanistykę.
- Podręczniki szkolne będą migrować do wersji
ładowalnej z sieci, gdy tylko zaistnieją po temu technologiczne i produkcyjne
możliwości. Masowego pojawienia się książki ładowalnej z sieci nie należy
oczekiwać przed rokiem 2010.
Czytelnikowi, który
dotarł cierpliwie do tego miejsca składam niniejszym serdeczne
podziękowanie, do którego dołączam również gratulacje. To dowód
prawdziwego heroizmu w tych pełnych pośpiechu czasach.