Motto:
W sensie filozoficznym opis struktury jest teorią. W nim - z definicji - struktura jest relacją między rzeczami; i teoria może być wyrażona tylko w kategoriach zależności między rzeczami. Opis strukturalnych relacji w usłudze bibliotecznej tworzy ważną część "ciała uogólnień i zasad rozwiniętych w powiązaniu z praktyką".
Należy odnotować, że empirycznie odkryta struktura może być badana teoretycznie bez żadnej teorii co do tego, dlaczego ona zaistniała. To przydarzyło się Zipfowi. Jego empirycznie odkryte "Prawo Zipfa" o wzorcach rozkładu różnych zachowań społecznych spotkało się z szeroką akceptacją. Natomiast jego pracowicie skonstruowane wyjaśnienie, dlaczego ten wzorzec występuje - jego "Zasada Najmniejszego Wysiłku" - nie spotkało się z uznaniem.
Michael K. Buckland, “Library Services in Theory and Context”, 1988,strona 28.
Sieć w filozofii i
filozofia w sieci.
Na wstępie warto zatrzymać się w obrębie pewnej
grupy prac naukowych o najbardziej ogólnym charakterze: metodologicznym i
filozoficznym. Ostatnio opublikowane u nas przekłady książek i artykułów
wyróżniających się myślicieli zachodnich pozwalają odesłać polskiego czytelnika
do pełnych tekstów kilku ciekawszych pozycji. Na szczególne wyróżnienie
zasługuje tu obszerna antologia tekstów zestawionych i skomentowanych przez
Gwoździa [2001]. W grupie filozofów na uwagę zasługuje Heim [2001]. Kokieteryjny
tytuł artykułu: "Erotyczna ontologia cyberprzestrzeni" i sformułowania typu
„Atrakcyjność komputera wykracza poza
charakter utylitarny czy estetyczny; jest ona erotyczna” nie powinny
zmylić czytelnika: eros Heima ma charakter uogólniony i trafiony strzałą
Kupidyna nasz surfer, jeśli wybiera dla uprawiania swej miłości porę nocną,
czyni to głównie z uwagi na niższą w tym czasie taryfę opłat TP SA. Eros ten
uosabia pęd do tworzenia cyberistot. W swych rozważaniach Heim prowadzi grę
intelektualną na bazie leibnizowskiej monadologicznej metafizyki, w której widzi
pra-model sieci komputerowej, będącej systemem węzłów, zarządzanych z pewnego
wybranego węzła. Bezcielesne monady swój życiowy impet generują wewnętrznie,
pragnąc odwzorować cały wszechświat – wszakże każda na swój sposób, dysponując
swym własnym interfejsem. Ta monadologia wskazuje, że istnienie pewnych
paradoksów, niekonsekwencji, złudnych nadziei jest w sieci cechą „wrodzoną”. Po
fazie pozornego wybawienia z monadycznego odosobnienia i po zachłyśnięciu się
pozorną bliskością odległych fizycznie bytów następuje powolna utrata
niezależności, osłabienia psychiki społecznej, pojawienie się efemeryczności.
Bardzo negatywnie postrzega Heim brak bezpośredniego doświadczenia ludzkiej
twarzy i upatruje w tym źródła zaniku etycznej świadomości i coraz szerszego
zalewu grubiaństwa w anonimowych kontaktach sieciowych. We wzroście sieci widzi
utratę niewinności i zanik poczucia lokalnej więzi społecznej.
Artykuł
Cheshera [2001] „Ontologia domen cyfrowych” pod pewnym przynajmniej względem
jest wyjątkowy wśród omawianego tu wyboru prac. Bez specjalnych ogólników autor
wielokrotnie wskazuje na wyraźnego kreatora dyskutowanych zjawisk: jest to
człowiek, programista: „Programiści zbudowali
rozległy system sklepów, bibliotek, kompleksów handlowych i rozrywkowych, które
ujrzeć można jedynie na małych ekranach stojących na naszych biurkach. /.../
artyści i projektanci stworzyli przestrzenne metafory logicznych światów
komputerowych, trójwymiarową przestrzeń telewizualną.” [op.cit.: strony
145-146]. Jest zastanawiające, że u Cheshera te wytwory człowieka: komputery,
oprogramowanie, dane, - zaczynają żyć własnym życiem: Komputery tworzą domeny
cyfrowe i światy równoległe, w których wszystko toczy się poza naturalnymi
ograniczeniami przestrzeni fizycznej [ibid.: 145]. Ale u Cheshera to już nie
człowiek pogrupował komputery w domeny cyfrowe, tylko one same się pogrupowały.
Komputery Cheshera wyrwały się swoim twórcom spod kontroli! Wydawać by się
mogło, że to wstęp do analizy tak obecnie dokuczliwych na świecie zjawisk
nieprzewidywalności zachowań systemów komputerowych. Nic z tego! W swym
wykładzie autor stara się udowodnić, że komputer to medium inwokacyjne,
przypominając o przypisanym mu statycznie adresie. Analizie umknęło tu kilka
spraw. Tak więc, oprócz statycznego przypisywania komputerowi adresu sieciowego
stosowane jest też adresowanie dynamiczne, które w ramach ograniczonej puli
adresów umożliwia korzystanie z dostępu do sieci znacznie większej liczbie osób,
pod warunkiem nierównoczesnego korzystania z dostępu. Znaczy to, że w sieci w
naturalny sposób tworzą się niejednoznaczności. Tego rodzaju aranżacje zostały
pogłębione przez zapoczątkowanie w 1993 roku usług zapewniających anonimowość
pracy w Sieci [Grossman, 2001]. Uzupełnienia i komentarza wymaga opisanie
komputera jako medium inwokacyjnego. Termin ten nie budzi zastrzeżeń. Jednakże
twórcy komputerów przewidzieli w nich także pewne funkcje wykraczające poza
pasywne oczekiwanie na inwokację, do której Chesher chciałby je ograniczyć. W
typowych serwerach powszechnie wykorzystywane są funkcje, inicjujące w
określonym momencie zaprogramowane wcześniej zachowanie komputera, już bez
fizycznego udziału administratora – ale przecież na jego wcześniejsze zlecenie.
Może to być wysyłanie o określonej porze faksu lub e-maila, archiwizacji
zasobów, pozamykanie „wiszących” sesji, zamknięcie systemu. Komputer może też
mieć zaprogramowane pewne funkcje nadzorcze, w których jego akcja ma charakter
warunkowy, asynchroniczny. Dotyczyć to może np. kontroli czujników
antywłamaniowych, detekcji awarii, czy automatyki przemysłowej. W tych
wszystkich wypadkach pasywna rola medium inwokacyjnego zmienia się w aktywną
rolę medium inicjatywnego. Trzeba przy tej okazji zauważyć, że podejmowane przez
komputer inicjatywy nie muszą być autorstwa twórcy komputera, czy też twórcy
zainstalowanego przez użytkownika oprogramowania. Źródłem tych inicjatyw mogą
być oczywiście tak popularne obecnie wirusy, najczęściej pochodzące ze źródeł
niemożliwych do identyfikacji. Wtedy komputer staje się medium refleksyjnym –
akceptuje infekujący go byt cyfrowy i następnie odbija go w przestrzeń. Tak więc
komputer funkcjonujący w sieci ma cechy polimorficzne. Ale tego Chesher już się
nie dopatrzył.
Pracę Binkley’a [2001] Refigurowanie kultury można
zaliczyć do nieprzeciętnie prowokacyjnych. Jej autor, którego zainteresowania
koncentrują się wokół metod rejestrowania informacji [op.cit.:116, przypis],
stara się przeprowadzić gruntowną egzegezę pojęć "technologia analogowa" i
"technologia cyfrowa" w ich różnych manifestacjach. We wstępie trafnie
identyfikuje dwie ważne cechy wiązane ze środowiskiem cyfrowym: wirtualność i
interaktywność. W dalszym ciągu stara się zdefiniować, czym jest dla niego
medium cyfrowe w stosunku do medium analogowego, zaczynając od ogólnego
sformułowania: Wytyczona droga cywilizacji wyrzeźbiła bogate dziedzictwo kanałów
komunikacyjnych – od malarstwa do periodyków, od recitali do radia, od
longplayów do CD-ROMów – znanych jako media, przez które komunikaty pokonują
przestrzeń oraz czas [ibid:114]. Tak ustawiona terminologia jest zgodna ze
źródłosłowem i nie ma powodu, by budziła wątpliwości. W pewnym jednak momencie
do argumentacji autora wkrada się homonim o odmiennym znaczeniu, który w
angielskim języku winien być określony nie jako medium, lecz jako carrier
(nośnik). I tak np. w zdaniu: Medium cyfrowe nie jest medium dziewiczym,
ponieważ zanim przyjmie komunikaty od nadawcy, musi zostać sformatowane. Nie
wymaga się tu odciskania, ale raczej wypełniania siatek danymi, - argumentacja
tu bezwarunkowo odnosi się do fizycznego nośnika na którym realizuje się zapis –
np. dysku magnetycznego. Natomiast niesposób to odnieść do medium transmisyjnego
po którym odbywa się transmisja, tu warto powtórzyć: „przez które komunikaty pokonują przestrzeń”.
To było by wyjątkowo niefortunne, - wszakże po tym samym medium transmisyjnym,
miedzi, szkle, czy w powietrzu, bez kłopotu można współbieżnie realizować
przebiegi cyfrowe, jak i analogowe. Jest to tylko sprawa użytej techniki
zwielokrotnienia (multipleksacji). Binkley albo unika przykładów, które przeczą
jego linii rozumowania, albo po prostu ich nie zna. Również jego opinia na temat
wyższej wrażliwości zapisu analogowego na uszkodzenia fizyczne, niż zapisu
cyfrowego, nie jest zgodna z rzeczywistością. Analogowy hologram można
przedzielić fizycznie na dwie (niekoniecznie równe) części i NATYCHMIAST, bez
żadnego sklejania, można niezależnie z każdego kawałka odtworzyć kompletny,
trójwymiarowy obraz oryginału. Tego niestety nie można powiedzieć o przełamanym
twardym dysku, czy dyskietce. Ale częściowo zalany kawą lub podrapany,
dwu-wymiarowy kod plamkowy, czy paskowy, daje się odczytać, ze względu na
wbudowaną weń nadmiarowość. Podwyższenie odporności zapisu cyfrowego na losową
utratę danych można uzyskać tylko kosztem rozszerzenia pamięci. W dalszym ciągu
ten sam autor, wbrew faktom znanym z klasycznej fotografii, zdaje się
przypisywać zapisowi analogowemu strukturę bezzarnistą: Media analogowe zachowują konkretną homogeniczność
tego, co prezentują, /.../ Medium cyfrowe przygotowuje się do odbioru
informacji, nie przez sprowadzanie ich do nieodróżnialnego kontinuum
[ibid.: 117]. Podobnie wyidealizowany obraz prezentuje Binkley w
odniesieniu do technologii zapisu: Media
analogowe magazynują informację, dokonując transkrypcji, która zmienia
konfigurację materiału fizycznego w inny, analogowy porządek. /.../Media cyfrowe, inaczej, raczej konwertują
informację, którą chcą zachować, niż ją kopiują. [ibid.:115-116]. I to
nie jest prawdą. W tym miejscu godzi się przypomnieć, że technologie konwersji
sygnału są stosowane nie tylko w zapisie cyfrowym, ale również analogowym. Tak
np. postępuje się przy zapisie dźwięku z redukcją szumu (system Dolby, czy dbx),
w trakcie którego następuje konwersja oryginalnego analogowego sygnału.
Bezpośrednie odtworzenie tego zapisu, bez wiedzy o tym, jaka technologia
redukcji szumu była użyta, daje zupełnie sfałszowany obraz nagrania. Podobna
sytuacja ma miejsce w przypadku klasycznej telewizji: do czasu pojawienia się
pierwszych konwerterów, analogowe nagrania wideo wykonane w amerykańskim
standardzie NTSC były nie do odtworzenia na magnetowidach systemu SECAM. Każde z
nagrań funkcjonowało w swoim własnym świecie i producentów i odbiorców.
Niemała porcja podobnych uchybień ogranicza się raczej do styku świata
analogowego ze światem cyfrowym. Znacznie bardziej poprawnie przeanalizował
Binkley obecną i spodziewaną w przyszłości rolę technologii cyfrowej w
społecznym komunikowaniu. Widzi nieodwracalność tendencji migracyjnych w
kierunku czystej technologii cyfrowej, paradoksy oraz zagrożenia.
Interesujące są rozważania Mike Sandbothe [2001] na temat praktyk
kulturowych wirtualnych wspólnot Internetu. Mając całkowitą świadomość
tymczasowości obecnego etapu rozwojowego Sieci (ograniczenia związane z wysokimi
kosztami powszechnego dostępu do szerokiego pasma transmisji i przesyłania
obrazu „na żywo”), skupia się on na procesie wtapiania się starszych,
linearno-tekstualnych form komunikacyjnych we współczesne formy hipertekstualne.
Godne szczególnej uwagi są jego spostrzeżenia, że w takich usługach jak IRC,
MUD, czy MOO mowa zostaje upiśmienniona – z drugiej zaś strony wzajemnozwrotna
forma interaktywnego użytkowania pisma w trybie rozmowy – de facto – jest
oralizacją pisma. Podobną parę bliźniaczą: ikonizację pisma i upiśmiennienie
obrazu widzi w tworzeniu i odbiorze dokumentów hipertekstowych. Sandbothe uważa,
że ze względu na obserwowaną obecnie migrację znaczeń tak podstawowych pojęć jak
„obraz”, „mowa”, czy „pismo”, warto monitorować te przesunięcia tak, by w
przyszłości można było ustalić właściwy zakres znaczeniowy tego rodzaju
pojęć.
Psychologia i prawo
Technologia cyfrowa szybko
wkraczająca do domów, biur, urzędów, instytucji rozrywkowych, niepodzielnie
panuje w nowoczesnych środkach transportu i łączności, zmienia warunki życia,
jego jakość – i wreszcie - zmienia ludzi. W dobie, gdy jeszcze niezmiernie
daleko było technologicznie, ekonomicznie i społecznie do dzisiejszego stanu
sieci WWW, wyniki jednych z pierwszych, poważnych badań opublikowali Hiltz i
Turoff [1978]. Mimo, że technologia oferowała wówczas wyłącznie terminale
znakowe dużych serwerów, a komunikacja między serwerami nie należała do
szybkich, wrażenie uczestniczenia w jakiejś nowej rzeczywistości było ogromne.
Dla oddania skali swego wrażenia autorzy posłużyli się terminem Naród sieciowy.
Bardziej adekwatnie chyba było by przetłumaczyć tytuł ich książki jako
Społeczeństwo sieciowe. Warto się na chwilę zatrzymać na dyskutowanym przez
Hiltz i Turoffa fenomenem: najpierw fascynacji, potem ucieczki. Zastanawiające
było jednak to, że ta nowa jakość wcale nie była jakąś faktyczną jakością.
Ludzie od dawna już używali całkiem niezłych telefonów, a w USA telefon w domu
prywatnym wcale nie był jakimś rarytasem. Jakość komunikacji międzyludzkiej
przez telefon była o niebo lepsza niż poprzez znakowy terminal. W głosie
rozmówcy można było usłyszeć irytację, wahanie, zniechęcenie, zaciekawienie,
entuzjazm. Terminal komputerowy wszystko to bezlitośnie obcinał. Komfort
przytulania do ucha słuchawki w zaciszu domowym nie dał się porównać z wędrówką
do odległego centrum komputerowego i siedzenia przy hałaśliwym terminalu TSR-33.
A jednak .... Po dzień dzisiejszy zastanawiamy się, co ciągnęło tych nielicznych
zrazu entuzjastów nowej technologii do nielicznych centrów, gdzie uruchomiono
pilotażowe projekty? Zapewne ciekawość. Rodzaj badania „czarnej skrzynki” –
urządzenia mającego wejście i wyjście i zupełnie nieznany środek. Może chcieli
zabawić się w lekarza, który na podstawie dostępnych, ograniczonych środków
diagnostycznych chce postawić diagnozę o tym co jest w środku? Może chcieli
zmierzyć się z czymś odległym, nieznanym, posiłować się bez wysiłku? Może,
pozostając anonimowym, zagrać wymarzoną rolę przed osobą fizyczną, acz ułomną.
Niewidzącą ale nie niewidomą. Sprawną, ale z ograniczonymi możliwościami;
osłabioną jak nadbita w szczepionce bakteria. A może był to już podświadomie
wyczuwalny, choć przeoczony przez Hiltz i Turoffa praprzodek dzisiejszego
dokumentu cyfrowego ze wszystkimi jego możliwościami? A jednak te wczesne
badania zachowań ludzkich ujawniły już wtedy pierwsze niepokojące objawy
skłonności uczestników grup komunikacyjnych do posługiwania się określeniami
prowadzącymi do wzrostu napięcia w grupie.
W dwadzieścia lat po ukazaniu
się The Network Nation Patricia Wallace opublikowała obszerne wyniki swych
doświadczeń nad grupami kulturowymi Internetu [Wallace 2001]. Na dwanaście
rozdziałów dwa poświęcone są tożsamości w jej różnych przerysowaniach, jeden
analizie procesów asocjacji sieciowej, dwa – konfliktom i agresji i aż trzy
omawiają zagadnienia miłości, płci i pornografii. Autorka zdaje sobie sprawę
zarówno z młodości Sieci, jak i wczesnego etapu badań nad nią: Jak dotąd
niewiele przeprowadzono badań na temat zachowania w sieci, choć dziedzina ta
szybko zdobywa sobie popularność wśród uczonych reprezentujących różne
dyscypliny. Musimy więc zacząć niemal od zera ... [op.cit.:8]. Takiego problemu,
jak wpływ nabytych w Sieci postaw na poza-sieciowe życie publiczne w ogóle
autorka nie dotyka. Pewnie jest na to daleko za wcześnie. Zachodzi obawa, że gdy
ten problem stanie się publicznie dostrzegalny, dla bardzo wielu może już być za
późno. Wywody wsparte dobrze przemyślanym układem treści, mimo lokalnie trudnych
problemów, tchną jednak optymizmem. Autorka ma nadzieję, że ktoś zechce
przeczytać jej książkę i wyciągnąć jakieś wnioski na swój użytek. Gdy pisałam tę
książkę, przyświecało mi kilka celów. Pierwszym było zbadanie psychologicznych
wpływów sieciowego świata na nasze zachowanie i ukazanie, jak sam ów środek
przekazu może wpływać na to, że zaczynamy zachowywać się inaczej niż zwykle. Po
drugie, chciałam zaproponować, by zastosowano tę wiedzę do poprawy
psychologicznego klimatu Internetu, który wciąż jest nową technologią, a
większość z nas to dość „młodzi” jej użytkownicy. /.../ Być może znajdujemy się
obecnie w samym środku jednej z tych historycznych epok, lecz ostatnią rzeczą,
jakiej byśmy pragnęli, jest jakaś „instytucja”, która miałaby „kontrolować i
kierować” Internetem. Zostajemy więc tylko my – miliony użytkowników wspólnego
sieciowego świata – i to na nas spoczywa obowiązek jak najlepszego wywiązania
się z tego zadania. [ibid.:21-22]. Płonna to nadzieja. Kształtowanie postaw
sieciowych przez pisanie książek wydaje się syzyfową pracą. W Sieci nie czyta
się książek. Ale nawet, gdyby autorka wraz z wydawcą udostępnili za darmo
książkę w Internecie, to i tak mało kto by ją przeczytał: może kilku niewidomych
studentów studiujących nauki społeczne. Sieć to medium, a media nie lubią
długich tekstów. Ale bezsprzecznie spostrzeżenia osobiste autorki są
wartościowe, taksonomia – do przyjęcia, a książka warta przeczytania. Może
zainteresuje pedagogów i rodziców.
Przyklejone w tym paragrafie do
socjologii prawo to nie przypadek. Prawo wkracza tam, gdzie narastają konflikty
indywidualnych i instytucjonalnych interesów. Na wstępie warto zreferować trudny
problem, zwykle pomijany przez prawników. Moda i zachowania społeczne ludzi
sieci zaczęły być bacznie obserwowane przez wydzielone służby specjalne
najbardziej rozwiniętych krajów. Nie tak dawno bez specjalnego zażenowania
przyznała się do tego Rosja [PAP 1999]. Na ciężkie rozdwojenie jaźni cierpią
Stany Zjednoczone: interesy bezpieczeństwa państwa stoją w jawnej sprzeczności z
literą pierwszej poprawki do Konstytucji, a USA chcą dla całego świata być
wzorem nowoczesnej i zarazem sprawnej demokracji. Więc sieć jest inwigilowana, a
o sprzeczności tego faktu z obowiązującym prawem po prostu do pewnego czasu się
nie mówiło. Gdyby chodziło tu wyłącznie o sprawy wojskowe, lub sprawy
bezpieczeństwa, to prawdopodobnie tajemnica była by nie wyszła w ogóle na jaw.
Sprawa została ujawniona najpierw przez jednego, a potem przez następnych
oszukanych współpracowników i odnosi się do tajnego projektu Echelon (por. np.
http://www.echelonwatch.org)
zaprojektowanego i koordynowanego przez Narodową Agencję Bezpieczeństwa (NSA).
Projektu, podobno w założeniach swych, zorientowanego na ściganie terroryzmu
szybko jednak przestawionego na ukryte wsparcie gospodarczej ekspansji USA.
Zraniona miłość jest nieobliczalna w swych zachowaniach. Okłamana, oszukana i
oburzona sieć (w domyśle tajny współpracownik projektu Echelon) zaczęła się
bronić tą samą bronią: puszczoną w obieg anonimową informacją. I tu można było
dostrzec prawdziwą potęgę Internetu - na efekty nie trzeba było długo czekać.
Dnia 12 kwietnia 2000 Komitet ds. Wywiadu Izby Reprezentantów Kongresu USA
wysłuchiwał na tą okoliczność wyjaśnień Dyrektora CIA Georga Teneta oraz
Dyrektora NSA Michaela Haydena, ale w konkluzji z przesłuchania nie znalazło się
nic poza zdawkowym stwierdzeniem, że rząd USA nie potwierdza, ani też nie
zaprzecza istnienia globalnego systemu inwigilacji (
http://www.aclu.org/echelonwatch/congress.html). Sprawa jednak nie została zlekceważona i we wrześniu 2001 Parlament Europejski przedstawił na ten temat swoje stanowisko (http://www.cyber-rights.org). W tym
wypadku prawo ciągle jest pasywne i w chwili obecnej nikt w USA nie jest w
stanie wyegzekwować swych praw zagwarantowanych przez Pierwszą Poprawkę.
Spektakularne akty terrorystyczne roku 2001 przyspieszyły i pogłębiły
inwigilację sieci i nic na to nie wskazuje, by poufność i prywatność osobista
miały obecnie jakiekolwiek znaczenie w stosunku do tzw. interesu państwowego. Te
frazesy o tajemnicy danych osobowych są dobre dla maluczkich i naiwnych, a nie
dla superpotęg, czy nawet polskich służb specjalnych. Globalna działalność
wywiadowcza ECHELONu jak na razie nie pociąga za sobą żadnych bezpośrednio
widocznych, szybkich konsekwencji prawnych. Po pierwsze problem jest z
udowodnieniem przestępstwa.
Podstawowym obszarem egzekwowania prawa w
związku z funkcjonowaniem sieci i działalnością bibliotek jest łamanie ustawy o
prawach autorskich. Ten aspekt ściśle dotyczy bibliotek w związku z tzw.
„dozwolonym użytkiem utworów” (ang. fair use). Stan prawny tego aspektu, również
w kontekście prawa europejskiego, wyczerpująco zreferował ostatnio Michał du
Vall [2000]. Świetną prace z tego tematu, widzianego z perspektywy
amerykańskiej, przygotował i publikuje w Internecie Uniwersytet Stanforda (
http://fairuse.stanford.edu).
W kontekście praw przedruku, ze smutkiem należy odnotować, że istniejące na całym świecie ustawodawstwo ciągle nie spostrzega faktu istnienia niewidomych. Na
problem ten zwracał ostatnio uwagę Czermiński [2000-2 strona 67]. Obecne prawo
jest zbyt restryktywne i napędzane głównie przez środowiska twórców muzyki i
filmu. Ten sam problem, choć z innego powodu, wywołuje niepokój administratorów
sieciowych. Obserwują oni bardzo duży ruch sieciowy związany z przerzucaniem
przez sieć ogromnej liczby pasmożernych plików muzycznych i filmowych. W efekcie
sieć szybko się zapycha i transmisja staje się coraz wolniejsza. Natomiast
przesyłanie przez sieć tekstów nie powoduje najmniejszych problemów. Książka w
wersji sieciowej, cyfrowej, - to nie żaden „towar” sieciowy, to znikomy margines
egzystencjalny. Tak sprawa wygląda od strony technicznej i administracyjnej.
Kręgi autorskie i wydawnicze są tu jednak bardzo restrykcyjne. Lęk autorów i
wydawców przed udzielaniem licencji na publikację w Internecie utworów uprzednio
wydanych drukiem jest całkowicie przesadzony i nieuzasadniony z ekonomicznego
punktu widzenia. Również lęk autorów i wydawców przed klasycznym
kserokopiowaniem książek z ekonomicznego punktu widzenia jest bezpodstawny.
Piszący te słowa korzystał i korzysta po dziś dzień ze znacznej liczby wydanych
„własnym sumptem” śpiewników turystycznych i do tej chwili nie spotkał ani
jednego poety, który wszczął ściganie studentów „nielegalnie” kopiujących i
wykonujących (w sensie prawa) jego utwory. Przecież dla autora to radość, że
jego książki trafiają pod strzechy a wiersze zasiadają przy ognisku. Nie!
Ściganie tego rodzaju zachowania, to po prostu coś trudnego do wyobrażenia.
Wydaje się, że należy tworzyć lobby na rzecz bardziej zdroworozsądkowej
nowelizacji prawa autorskiego.
W 1997 ukazało się w języku
polskim tłumaczenie artykułu Norberta Bolza „Estetyka cyfrowa”, w którym autor
zestawia listę wyróżników tego zwolna rodzącego się kierunku estetyki. O ile
takie cechy, jak symulacja, czy immaterialność nie budzą większych zastrzeżeń,
to chyba kompletnym nieporozumieniem jest umieszczenie wśród nich zatarcia
granicy między realnym a wyobrażonym. A cały surrealizm, to co? Czy fruwający na
Witebskiem pobratymcy Chagalla to rzeczywistość, czy czysta fantazja? Ostatnie
lata ustępującego milenium to coraz więcej publikacji na temat estetyki
cyfrowej. W 1998 roku ukazała się książka Cubitta „Digital aesthetics”, a rok
później - w Polsce - pod redakcją Krystyny Wilkoszewskiej została wydana książka
„Piękno w sieci. Estetyka a nowe media”, obejmując szerokie spektrum tematyczne.
Jednak podobnie jak i w wielu dyskutowanych tu przypadkach „czysta” tematyka
cyfrowa jest omawiana w nielicznych pracach, na ogół z wielką ostrożnością i
dość powierzchownie. Już w pierwszym swym artykule Wilkoszewska poświęca cały
paragraf estetyce digitalnej, odchodząc jednakże od kierunku nakreślonego przez
Bolta: Nie jest jasne, czy estetyka digitalna nakierowana jest wyłącznie na
sztukę – sztukę mediów elektronicznych, czy też na owe media w ogóle. Jej
głównym bohaterem jest raczej obraz, obraz syntetyczny, niekoniecznie
pretendujący do miana dzieła sztuki. Zgoda! Absolutnie tak! Ale też warto
przypomnieć, że również w epoce przed-digitalnej nie każdy wytwór ludzki
pretendował do miana dzieła sztuki, nawet gdy był autorstwa dyplomowanego
artysty. Nie inaczej było w literaturze.
Bardzo wartościową publikacją
jest artykuł Małgorzaty Komzy „Estetyczne walory publikacji elektronicznych”.
Autorka przypomina zalew przemysłowo produkowanej brzydoty z końca XIX wieku i
dręczące współczesnych estetyków pytania, czy już nastała pora na objęcie
badaniami nowo rodzących się obszarów ludzkiej twórczości. Widzi ona jasno
ograniczenia twórcy w kształtowaniu tego, co otrzyma na swym ekranie zdalny
odbiorca dzieła. To prawda. Mimo, że np. protokół Z39.50 v.3 uwzględnia już
możliwość wynegocjowania parametrów i ustawień karty graficznej pomiędzy
klientem a serwerem, to i tak pozostaje wiele elementów, których protokół nie
rozwiąże, i które zostaną zebrane w postaci konfiguracji typu „minimalna
akceptowalna recepcja”. Ale czyż tak zawsze nie było? Jaki wpływ miał Botticelli
na fakt, że zwiedzający galerię jego obrazów daltonista nie widział niektórych
kolorów? Trudno. Można w uproszczeniu powiedzieć, że to sprawa daltonisty, a nie
Botticellego. Czy zachowały się jakiekolwiek wspomnienia Paganiniego, że w swych
kompozycjach sugerował się on statystyką górnego progu słyszalności wysokich
dźwięków? Artysta winien tworzyć dzieło swoich marzeń. Poza autorem są całe
rzesze aranżerów, tłumaczy, interpretatorów. Ale nawet w przypadku
międzyludzkiej komunikacji, w pewnym momencie kończy się wpływ autorski. Z
pewnością ma to miejsce przy tłumaczeniu literatury na języki wywodzące się z
obszaru o odrębnej kulturze. W technologii cyfrowej do tego dochodzi tandem
dwóch elementów: systemu serwera, oraz systemu klienta. Tu na serwerze kończy
się wpływ autora na odbiór jego dzieła. Dokładnie tak samo, jak w przekładzie
chińskiego wiersza na język polski, wpływ autora na jego odbiór w Polsce na ogół
zawsze kończy się na dostarczeniu wiersza tłumaczowi (por. program Telewizji
PLANET „W labiryncie języków” cz. I). Nie należy uważać, że pod tym względem
świat cyfrowy w jakiś istotny sposób różni się od tradycyjnego.
Warto na
koniec tych krótkich rozważań o estetyce cyfrowej nakierować Czytelnika na
strony internetowe Ryszarda Horowitza, by dać mu okazję posmakowania, czym jest
obraz cyfrowy w ręku prawdziwego artysty, z jednej strony nienagannie panującego
nad swym narzędziem pracy, z drugiej – doskonale wiedzącego, co chce
przedstawić. Oto lokatory dwóch takich stron:
http://www.ryszard-horowitz.com
http://ultra.cto.us.edu.pl/RyszardHorowitz
Przy okazji warto zwrócić
uwagę, że poprawne oglądanie strony domowej Horowitza wymaga instalacji
komercyjnego pakietu oprogramowania Shockwave. Ciekawe, ile osób się na to
zdobędzie i w jaki stylu? Czy ściągnie tylko wersję demonstracyjną, czy zakupi
pełnowartościowy pakiet? Niestety, estetyka digitalna kosztuje nie tylko twórcę,
ale i widza.
Na marginesie mistrzowskiego warsztatu Horowitza autor
pragnie wyrazić swoją własną, choć zapewne powszechnie podzielaną opinię, że
zarówno technologie tradycyjne, jak i cyfrowe miały, mają i będą mieć zarówno
swoich partaczy, jak i geniuszy. Czyż nie ma racji McLuhan [2001 strona 87]
pisząc: Dlatego nie jest absurdem twierdzenie, że nasze zrozumienie zmian we
współczesnej komunikacji powinno pochodzić przede wszystkim od pomysłowych
„techników” znajdujących się wśród współczesnych poetów i malarzy ?
Piękno jednak pozostaje pięknem, choć będzie różnie postrzegane przez
określone grupy odbiorców. Było by jednak potrzebne, by estetyka chciała zwrócić
uwagę również na niewidomych i ich świat wrażeń: dotyku i dźwięku, tak
niesłychanie czuły i wysubtelniony, przecież znacznie poza przeciętny poziom
wrażliwości – nawiasem mówiąc autor tych słów jest zapamiętałym wielbicielem A.
Bocelli. Można zadać pytanie: dlaczego w Wiedniu na „deptaku” można zobaczyć
rzeźbę wraz z przymocowaną do cokołu jej miniaturą – tą ostatnią przeznaczoną
dla niewidomych do „oglądania” palcami, a u nas ciągle takich nie ma? Może warto
przeanalizować, czy i w jakich okolicznościach taka miniatura zaburza kompozycję
całości, jak należy planować jej wielkość, by uwzględnić efekt „zdolności
rozdzielczej” ludzkich palców?
Rysunek dodany 1. Brązowa
miniatura kościoła Macieja na Wzgórzu Zamkowym w Budapeszcie z objaśnieniami w
brajlu, przeznaczona do "oglądania" palcami. Zdjęcie autora.
A przechodząc do świata dźwięku: jak modelować głosy syntezatora mowy, by odbiór mowy syntetycznej był prawdziwą przyjemnością? Jak posługiwać się takim „rozpisaniem na głosy” sztuki teatralnej przy przetwarzaniu jej na cyfrowy dokument elektroniczny? Jak zaplanować składanie dwóch obrazów: rzeczywistego i cyfrowego na siatkówce oka (porównaj opis rysunnku 2), by wytworzyć najlepszy między nimi kontrast nie tylko w intensywności, ale i w barwie? Czy estetyka cyfrowa jest w stanie zniżyć się do takiego poziomu, by algorytmicznie wyrazić przyjemność płynącą z odbioru sąsiadujących barw obrazu w kategoriach składowych RGB lub CMYK? Czy będzie umiała matematycznie wyrazić uczucie przyjemności, czy pozostanie tylko na poziomie ogólników? Technologia cyfrowa jest z pewnością otwarta na sugestie estetyków a wydaje się, że i estetycy interesują się to dziedziną. I to rodzi nadzieję na przyszłość.
Organizacja pracy
Organizacja pracy zwykle kojarzy się z czymś urzędniczym, formalnym, o
małym ładunku intelektualnym. Nowoczesna nauka o zarządzaniu zadaje kłam tego
rodzaju osądom. Jako przykład warto przytoczyć fragment artykułu Murraya i
Willmotta [Murray, Willmott 1997, strona 171]: W latach osiemdziesiątych teoria organizacji i
zarządzania ponownie odkryła i celebrowała wagę kultury, jako witalnego czynnika
na drodze ożywienia i przekierowania organizacji. Takie skoncentrowanie
przyniosło w efekcie wzrost liczby inicjatyw organizacyjnych. /.../ Wzrastająca waga strategicznych celów, planowania i
zmian kulturalnych znalazła swoje odbicie w przemyśleniu na nowo tego, jak
wycisnąć z istoty ludzkiej jeszcze większą kreatywność i adaptowalność.
Autorzy widzą to poprzez stopniową fuzję informatyzacji i technologii
komunikacyjnych w skali kontynentalnej, przez wyzwolenie się od ustanowionych
tradycją ograniczeń, poczucia dystansu w przestrzeni i czasie. Dla Amerykanów
kultura zostaje wprzęgnięta w kierat ludzkiej produktywności. Ale zachowanie się
produktywności na uskoku cyfrowym jest paradoksalne! Tak, jak we wczesnym etapie
informatyzacji odkryto paradoks nadużycia papieru przez technologię komputerową,
tak obecnie badania dotyczą przyczyn, dla których inwestycje poniesione na IT w
sferze nieprodukcyjnej nie zwracają poniesionych kosztów, podczas gdy takie same
inwestycje w sferze produkcyjnej przynoszą zyski [Brynjolfsson 1993]. Przenosząc
te spostrzeżenia na grunt bibliotek Peter Lyman [1999] próbuje zdefiniować
działalność bibliotek akademickich w epoce cyfrowej w kategoriach teorii
ekonomicznych. Po pierwsze wypowiada sąd, że wspólnota akademicka wprowadziła do
obiegu nową jakość, którą jest dokument cyfrowy, który z kolei stał się dla tej
wspólnoty nowym pieniądzem, a równowaga pomiędzy produkcją i konsumpcją jest
rządzona przez kulturę wymiany darów. Produkcja jest u niego przypisywana
naukowcom, a konsumpcja realizowana jest przez darmowy dostęp do informacji w
bibliotekach. Dla Lymana wymiana darów i wymiana rynkowa nie stoją w
sprzeczności ze sobą, lecz są symbiotyczne. Ale w przypadku instytucji
akademickich widzi on dwuznaczność granicy między kulturą darów i rynkiem, jako
że instytucje te są zarazem korporacjami i instytucjami wspólnotowymi
(community). Widzi dalej nowe rodzaje wartości dodane do informacji: hipertekst,
wyszukiwanie boolowskie oraz bazy danych. Można przypuszczać, że autor chciał
zasugerować decydentom, że jednak biblioteki coś od siebie dodają do
istniejącego kapitału (w sensie Wristona [1992]). Misternie prowadząc swe
rozumowanie próbuje Lyman zasugerować, że biblioteki nie są instytucjami, do
których należy przykładać tą samą miarę, co i do zakładów przemysłowych. Jednak
nie precyzuje do końca, czym należałoby mierzyć tą akademicką produktywność i
zostawia temat otwarty do dalszych dociekań.
Technologia
Znakomitą większość wartościowych badań naukowych nad rozwojem technologii
prowadzi się w zamkniętych laboratoriach dużych konsorcjów przemysłowych. Z
reguły są one okryte głęboką tajemnicą. Wiadomo powszechnie, że poszukiwania
nowych rozwiązań mają w efekcie dać inwestorom maksymalne zyski – to jest główny
cel komercyjnego inwestora.
W zakresie technologii cyfrowej badania
technologiczne stawiają przed sobą następujące cele cząstkowe:
zmniejszenie kosztów materiałowych wytwarzania dzięki miniaturyzacji produktu oraz wprowadzenie nowych, tańszych materiałów. W chwili obecnej duży wysiłek skierowany jest na badanie możliwości dalszego zwężenia ścieżek przewodzących układu scalonego. Badania te w znacznej mierze odnoszą się do technologii procesu litograficznego wytwarzania maski oraz procesów trawienia,
zmniejszenie kosztów osobowych i redukcję niestabilności procesu wytwarzania (spowodowanych wpływem czynnika ludzkiego) poprzez automatyzację tego procesu.
Poszukiwanie nowych technologii materiałowych i komunikacyjnych. Tu na pierwszym planie lokują się badania operacyjne nad nanotechnologią materiałową i badania strategiczne nad możliwością wykorzystania technologii kwantowej do celów cyfrowych. Dalekim celem jednych i drugich jest dokonanie przełomu w skali upakowania przestrzennego elementów aktywnych (powiększenie pamięci i mocy przetwarzania systemu o rzędy wielkości) oraz zdecydowane obniżenie poziomu konsumowanej mocy
Poszukiwanie nowych obszarów
zastosowań technologii cyfrowej. Na szczególną uwagę zasługuje bardzo duże
zainteresowanie laboratoriów badawczych implantami cyfrowymi w żywych
organizmach. W tej materii inicjatorzy już teraz sięgają do współpracy z
wolontariatem odwołując się do moralnych aspektów usług rehabilitacyjnych, w
niepokojącym stopniu zarazem oddalając się od istniejących ustaleń prawnych.
Istnieje jednak sporo inicjatyw ściśle akademickich, rozwijających tą sferę
badawczą. Warto tu odnotować fakt wytrwałego organizowania od wielu lat przez
Oesterrichische Computer Gesellschaft cyklu konferencji naukowych poświęconych
komputerowemu wsparciu osób niepełosprawnych
(http://www.icchp.at).
Analizowanie nowych sytuacji prawnych, które wprowadzają nowe technologie.