Trwałość nośników cyfrowych

Page 1

Grzegorz Gałęzowski (Archiwum Państwowe w Lublinie)

Trwałość dokumentów cyfrowych na tle nośników tradycyjnych.

Salvador Dali Trwałość pamięci (hiszp. La persistencia de la memoria).

Salvador Dali tak właśnie przedstawił w swoim obrazie upływ czasu i jego wpływ na przedmioty materialne. Odporność nośników danych na procesy starzenia jest ważnym problemem współczesnej cyfrowej archiwistyki i informatyki. Konwencjonalne nośniki, takie jak np. papier i cyfrowe nośniki danych, są prawdziwą pamięcią naszej cywilizacji, a ich zniszczenie może spowodować potężny kryzys w skali całego świata. Cyfrowe nośniki danych starzeją się bardzo szybko, mimo tego że zapisane na nich dane nie poddają się teoretycznie niszczącemu działaniu czasu. Jednak fizycznych nośników, na których je zapisujemy, na pewno nie można uważać za niezniszczalne. Rewolucja informatyczna coraz intensywniej stara się zastępować papier cyfrowymi nośnikami danych. Cyfrowe wersje dokumentów możemy jednak bezpowrotnie stracić, jeśli nie będą podejmowane odpowiednie działania zaradcze.

1


Cyfrowe nośniki danych nie oddziałują bezpośrednio na zmysły człowieka, tak jak chociażby znaleziony w 1799 roku w czasie wyprawy Napoleona bazaltowy dokument, sporządzony w klasycznej grece oraz w transkrypcji hieroglificznej. Pozostaje zadać sobie pytanie, czy następne pokolenia będą miały szansę na odczytanie „nowoczesnych” zdigitalizowanych zasobów archiwów.

Kamień z Rosetty w British Muzeum. W 1822 odczytano dzięki niemu egipskie hieroglify.

Człowiek od wieków przechowuje informacje zapisywane na wielu różnych, trwałych nośnikach. Należą do nich: kamienie, tabliczki z wypalonej gliny, płytki metalowe, drewno, kora, liście, jedwab i inne tkaniny, sznurek, kości, skorupy żółwi, muszle, skóra, pergamin, papier, papirus, szkło, skały, ściany i mury budowli. Spośród wymienionych nośników największe znaczenie ma niewątpliwie papier, który zaczęto wytwarzać w Chinach w II wieku n.e. Papierowy nośnik informacji może mieć formę pojedynczej kartki, zwoju lub książki. Znalezienie informacji zapisanej na zwoju wymaga dłuższego czasu niż w książce, którą można otworzyć w dowolnym miejscu. Papier charakteryzuje się dość dużą trwałością, dlatego też w języku angielskim wydruk na papierze to hard copy – czyli kopia trwała. Początkowo informacja na papierze była zapisywana ręcznie, ręcznie także kopiowano informacje. Po wynalezieniu przez Chińczyków, a później przez Gutenberga, czcionek ruchomych i prasy drukarskiej informację zaczęto nanosić na papier mechanicznie. Wynalazek ten pozwolił przyspieszyć zapis informacji, a także umożliwił tworzenie wielu identycznych kopii informacji. Papierowe nośniki danych były także stosowane w systemach komputerowych.

2


Zapisany nośnik przechowywany jest w określonym środowisku. Oddziaływanie czynników zewnętrznych na nośnik może doprowadzić do zniekształcenia lub całkowitego usunięcia zmian wywoływanych podczas zapisu – poprawny odczyt jest wtedy niemożliwy. Dodajmy, że może dojść do sytuacji, w której odczyt jest możliwy, jednak interpretacja tego, co odczytano jest niemożliwa. Dzieje się tak wtedy, kiedy nośnik przetrwał, ale informację zapisano z użyciem niezrozumiałego, w momencie odczytu, języka. Na Krecie w drugim tysiącleciu p.n.e. stosowano pismo nazywane obecnie linearnym A. Tabliczki gliniane z tekstami zapisanymi tym pismem przetrwały do dzisiaj. Mimo iż umieszczone na nich symbole są rozpoznawalne, nie można zinterpretować ich znaczenia. Historia nośników. Terminem nośnik informacji będziemy określali obiekt materialny, na którym jest utrwalona określona informacja w postaci fizycznych zmian własności obiektu. Karta perforowana. Karty i taśmy perforowane były stosowane we francuskich warsztatach tkackich, szafach grających, pianolach, tabulatorach, a wreszcie w komputerach. Po raz pierwszy karty perforowane zostały zastosowane w krosnach tkackich. W 1725 roku Basile Bouchon wprowadził perforowane karty papierowe do krosna nicielnicowego. Zastosowanie kart z otworami pozwoliło częściowo zautomatyzować pracę krosna. Od rozmieszczenia otworów na karcie zależał wzór tkany na płótnie. W kolejnych latach oprócz kart stosowano także walce perforowane, zwoje papieru i zestawy kart połączonych ze sobą. Najbardziej znane i najpowszechniej stosowane były krosna budowane na początku XIX wieku przez Josepha Marie Jacuarda.

3


Krosno z obsługą kart dziurkowanych 1825 r.

Użycie kart perforowanych planował także Charles Babbage w swoim projekcie maszyny analitycznej z 1840 roku. W krosnach karty sterowały działaniem, natomiast Babbage zamierzał zastosować różne typy kart do dwóch celów: sterowania i wprowadzania wartości liczbowych. Zakładał także, że karty najczęściej używane byłyby wykonane z blachy cynkowej. Ze względu na brak możliwości technologicznych maszyny Babbage’a nie zbudowano w tamtym okresie. Pierwszy egzemplarz maszyny został zbudowany dopiero pod koniec lat 80. XX wieku. Urządzenie okazało się w pełni sprawne i zdolne dokonywać obliczeń z dokładnością do 31 cyfr, co wielokrotnie przekracza możliwości współczesnego kalkulatora kieszonkowego.

Rekonstrukcja maszyny analitycznej Charles’a Babbage’a.

4


W 1887 Herman Hollerith opatentował. własny format karty dziurkowanej, która została użyta podczas powszechnego spisu ludności USA w 1890 roku. Opracowany na te potrzeby system kodowania zbieranych informacji oparty był właśnie na tych kartach. Informacje kodowano poprzez wycinanie otworów w odpowiednich miejscach, gdy odpowiedź na pytanie była twierdząca. Karty mogły być następnie segregowane lub zliczane, w zależności od wyciętych otworów. Karta Holleritha miała wymiary ówczesnego banknotu dolarowego tzn. 90 na 215 mm, otwory były okrągłe.

Karta perforowana z zapisanym tekstem o treści: „ARCHIWUM PANSTWOWE W LUBLINIE”.

Informacja na nośniku papierowym jest najczęściej naniesiona na powierzchnię i zapisana jako tekst, rysunek lub obraz, ale może być także reprezentowana przez odpowiednie ukształtowanie krawędzi kartki lub wykonanie otworów w jej powierzchni. W najprostszym wypadku informacja jest reprezentowana przez brak lub obecność pojedynczego otworu w dowolnym miejscu papierowego nośnika – oczywiście ta metoda daje możliwość reprezentowania pojedynczego bitu informacji. Znacznie więcej możliwości daje stosowanie wielu otworów i ustalenie miejsc ich pojawienia się na nośniku papierowym. Zaletą zapisu za pomocą otworów, w odniesieniu do tekstu czy obrazu umieszczonego na kartce, była w przeszłości możliwość mechanicznego lub elektrycznego wykrywania istnienia otworów, a więc odczytywania informacji bez udziału człowieka, a następnie automatycznego wykonywania czynności zależnej od odczytanej informacji.

5


Podobną możliwość automatycznego odczytywania zapisu z nośnika daje stosowanie atramentu przewodzącego prąd. Próby użycia takiej technologii podjęto w połowie lat trzydziestych XX wieku. Przykładowo, w 1937 roku w firmie IBM opracowano maszynę, o nazwie IBM Type 805 International Test Scoring Machine, do automatycznego podliczania wyników testów wypełnianych przy użyciu takiego atramentu.

IBM Type 805 International Test Scoring Machine.

Wkrótce po wprowadzeniu do użytku kart perforowanych i maszyn sortujących znaleziono dla nich wiele innych zastosowań. Używano ich między innymi na kolei i towarzystwach ubezpieczeniowych. W miarę upływu czasu doskonalono i wprowadzano nowe urządzenia. W 1901 opatentowano klawiszową dziurkarkę kart. Pięć lat później opracowano automatyczny podajnik kart, pracujący z szybkością 150 kart/min. Pierwsze karty pozwalały na zapisanie odpowiedzi typu „tak/nie” lub „1 z wielu”. Stopniowo wprowadzano karty umożliwiające wyrażanie liczb, a następnie liczb i tekstów. Z upływem lat karty perforowane stały się nośnikiem danych stosowanym masowo. Przykładowo, pod koniec lat trzydziestych XX wieku przedsiębiorstwo kolejowe w Czechach zużywało około 50 mln kart rocznie. Drukarnia kart w Warszawie wytwarzała 36 mln kart rocznie. Przed II wojną światową we Francji zużywano około 200 mln kart rocznie. Na początku lat czterdziestych XX wieku produkcja kart perforowanych w Niemczech wynosiła 1,5 mld rocznie. Używane w tych latach tabulatory segregowały z szybkością do 25 tysięcy kart/h. Biorąc pod uwagę fakt, że na pojedynczej, 80-kolumnowej karcie kodowano do osiemdziesięciu znaków (równorzędnych używanym dziś osiemdziesięciu bajtom) i że każde 80 bajtów miało grubość 0,18 milimetra, można oszacować, że do zakodowania 80

6


gigabajtów dysku twardego potrzebny byłby stos kart o wysokości ponad 0,18 miliarda milimetrów, czyli 180 kilometrów, ważący ponad dwa tysiące ton. System dziurkowanych kart jako nośników danych, jak już wspomniano, w zasadzie wyszedł z użycia w latach 80., choć stosowano go jeszcze incydentalnie również później. Szczególnie głośny stał się przypadek jego zastosowania w czasie amerykańskich wyborów prezydenckich w roku 2000, kiedy nieprawidłowo opracowany system kodowania danych w połączeniu z typowym dla perforowanych papierowych nośników danych problemem pozostających w otworach resztek doprowadził do skandalu i potrzeby ponownego, ręcznego sprawdzenia wszystkich kart w stanie Floryda. Taśmy magnetyczne. Zasady magnetycznego zapisu informacji opisał w 1888 roku Oberlin Smith. Nie wykonał on jednak eksperymentów. Dopiero wiele lat później zademonstrowano pierwsze urządzenie. W 1898 roku Valdemar Poulsen, duński inżynier zajmujący się telefonią, wynalazł i opatentował telegrafon – urządzenie do zapisu mowy, w którym wykorzystano zjawiska magnetyczne.

Telegrafon Valdemara Poulsen’a.

Dźwięk był zapisywany w drucie stalowym o średnicy 1mm. Poulsen użył struny fortepianowej. Drut był magnesowany przez elektromagnes, w którym prąd był wzbudzony przez mikrofon telefoniczny. 7


Telegrafon publicznie zademonstrowano w 1900 roku na Światowej Wystawie w Paryżu. Zarejestrowano na niej nagranie głosu cesarza Franciszka Józefa, które jest przechowywane w Duńskim Muzeum Nauki i Technologii. W 1927 roku austriacki wynalazca zastąpił taśmę stalową taśmą papierową pokrytą sproszkowanym materiałem magnetycznym. W 1931 roku w Niemczech rozpoczęto prace nad pierwszym magnetofonem, rejestrującym dźwięk na taśmie magnetycznej w formie zbliżonej do stosowanych obecnie. Pod koniec II wojny światowej w Niemczech opracowano taśmę celuloidową pokrytą warstwą z granulkami tlenku żelazowego o średnicy rzędu mikrometrów. Taśma magnetofonowa firmy BASF z 1945 roku miała 1000 m długości, 6,5 mm szerokości i pozwalała na nagranie 20 minut dźwięku. Pierwszy magnetofon stereofoniczny opracowano w 1949 roku. W połowie lat sześćdziesiątych rozpoczęto produkcję magnetofonów wielościeżkowych przeznaczonych dla studiów nagraniowych. Po raz pierwszy magnetyczną pamięć taśmową do zapisu danych zastosowano w firmie IBM, w której skonstruowano urządzenie IBM 726 współpracujące z komputerem IBM 701 Defense Calculator.

IBM 701 Defense Calculator.

8


Dyski magnetyczne. Pierwsze konstrukcje cyfrowych pamięci dyskowych powstały w firmie IBM w latach pięćdziesiątych XX wieku. W 1956 roku zbudowano w tej firmie urządzenie o nazwie IBM 350 RAMAC Disk File. Urządzenie to składało się z 50 dwustronnych dysków aluminiowych pokrytych warstwą tlenku żelaza. Dyski o średnicy 61 cm były zamontowane na stałe, a całkowita ich pojemność wynosiła 4,5 MB.

IBM 350 RAMAC Disk File.

W 1962 roku urządzenie o nazwie IBM 1311 Disk Storage Drive było pierwszym systemem pamięci z wymiennymi pakietami dysków. Pakiet składał się z kilku dysków o łącznej pojemności 2 milionów znaków.

9


IBM 1311 Disk Storage Drive.

Jednym z protoplastów współczesnych, twardych dysków magnetycznych było urządzenie IBM 3030 opracowane w 1973 roku. System składał się z dwóch zestawów dysków o pojemności 30 MB każdy.

IBM 3030

10


Pierwsze dyski dla komputerów osobistych były urządzeniami umieszczanymi w oddzielnych obudowach, które oprócz dysku zawierały kartę sterownika i własny zasilacz. Jednym z pierwszych modeli był Seagate ST-506 o pojemności 5 MB. Dyski wymienne. Wymienny dysk magnetyczny jest jednym z prostszych i tańszych nośników danych. Pamięć w postaci wymiennego dysku magnetycznego jako pierwszy opracował i opatentował w latach pięćdziesiątych XX wieku Yoshiro Nakamatsu z Uniwersytetu Tokijskiego. Patent wykupiła i wdrożyła firma IBM. Pierwsza dyskietka magnetyczna miała średnice 20,32 cm (8 cali) i pojemność nieprzekraczającą 100 kB. W 1973 roku powstały dyskietki jednostronne o pojemności 156 kB. W 1975 roku wymienne dyski stosowane w komputerach PDP 11/45 miały już pojemność 2,4 MB.

Dyskieta 8”

W 1976 roku opracowano pierwszy powszechny standard dyskietek o średnicy 5,25 cala. Dyskietki tego typu, miały pojemność 220 kB.

Dyskieta 5,25”

11


Dyskietka, która zdobyła największą popularność jest dyskietka z politereftalanu etylenu o średnicy 8,89 mm czyli 3,5 cala. Nośnik ten opracowała firma Sony w 1981 roku i początkowo miał pojemność 440 kB. Był stosowany zarówno w komputerach IBM PC, Atari ST, Amiga, jak i w Apple.

Dyskietka 3,5”

W 1984 roku pojawiły się jeszcze dyskietki 3” początkowo o pojemności 360 kB. Nie zdobyły większej popularności. Wykorzystywane były między innymi w takich komputerach 8-bitowych jak ZX Spectrum i Amstrad.

Dyskietka 3”

Pamięć optyczna. Prace nad cyfrową pamięcią optyczną były prowadzone od końca lat sześćdziesiątych XX wieku. W 1968 roku naukowcy z firmy IBM stworzyli doświadczalny system pamięci

12


optycznej z użyciem wiązki lasera. Do dynamicznego rozwoju i upowszechnienia doszło między innymi dzięki opracowaniu technologii produkcji tanich diod laserowych. W połowie lat osiemdziesiątych były używane cyfrowe płyty optyczne DOR. Płyta DOR pozwalała na przechowywanie około 2 GB informacji. W 1984 roku dostępne były dyski optyczne o średnicy 30,48 cm (12 cali) i pojemności 1 GB.

Laser disk 12”

Porównanie wielkości Laser disk z płytą CD

Dwa lata później pojemność zwiększono do 2 GB. W 1996 roku firma Philips produkowała dwustronne dyski jednokrotnego zapisu o pojemności 12 GB. Optyczne nośniki danych przyjmowały formę nie tylko dysków, ale także pasków umieszczonych na obracających się bębnach. Jednak technologią, która upowszechniła się na skalę masową, jest technologia Compact Disk opracowana przez firmy Sony i Philips. Jako pierwszy powstał standard dysku 13


dźwiękowego CD-DA zaprezentowany w 1980 roku. W 1985 wprowadzono standard CDROM, a następnie w roku 1990 – CD-R i w 1995 CD-RW. Standardowy dysk CD ma grubość 1,2 mm i średnicę 120 mm lub 80 mm, a gęstość zapisu wynosi około 6,5 MB/cm2. W związku z coraz większymi wymaganiami, stawianymi przez aplikacje multimedialne, możliwości technologii CD stały się niewystarczające. W celu rozwiązania tego problemu opracowano standard płyt DVD. Zwiększenie pojemności w płytach DVD osiągnięto, stosując kilka udoskonaleń w stosunku do technologii CD. Zachowując te same wymiary zewnętrzne nośnika, zwiększono powierzchnię dostępną do zapisu informacji. Symbol

Rodzaj płyty DVD

DVD 5 DVD 9 DVD 10 DVD 18

Jednowarstwowy, jednostronny Dwuwarstwowy, jednostronny Jednowarstwowy, dwustronny Dwuwarstwowy, dwustronny

Pojemność w gigabajtach 120 mm 80 mm 4,70 1,46 8,54 2,66 9,40 2,92 17,08 5,32

Tabela 1. Standardy dysków DVD-ROM

Kolejnym etapem rozwoju są płyty HD-DVD i Blu-ray. W zapisie i odczycie dysku optycznego pojemność nośnika zależy od średnicy plamki, do jakiej daje się zogniskować wiązkę lasera. Natomiast wielkość plamki zależy od długości fali laserowej. Prace nad nośnikami optycznymi sprowadzają się do poszukiwania technologii stosujących coraz krótsze fale laserowe. W technologii CD stosowano fale podczerwone o długości 780 nm, w DVD – fale czerwone o długości 635 i 650 nm. W dyskach HD-DVD stosuje się fale o długości 405 nm i układ optyczny z soczewkami o aperaturze 0.65, uzyskując przy tym pojemność użytkową jednej warstwy na poziomie 15 GB. W płytach Blu-ray także stosuje się fale o długości 405 nm, zwiększono aperaturę soczewki do 0,85. Dzięki temu uzyskano 5-krotnie większą pojemność w porównaniu z DVD. Dysk DVR-Blue, jednostronny, jednowarstwowy ma pojemność 27,4 GB, a dwuwarstwowy – około 50 GB. Aktualny stan rozwoju nośników optycznych jest podobny do stanu rozwoju nośników magnetycznych. Osiągnięto określoną granice możliwości technologicznych. Tą granicą jest

14


średnica plamki laserowej. Nie oznacza to jednak całkowitego zatrzymania dalszego rozwoju. Do obiecujących kierunków należą: zwiększanie liczby warstw w nośnikach oraz użycie technologii holograficznej. Należy jednak mieć świadomość że znaczenie dysków optycznych maleje na korzyść pamięci półprzewodnikowych (pen drive). Kierunki rozwoju. Rozwój nośników i systemów przechowywania danych podąża w dwóch ogólnych kierunkach. Po pierwsze doskonalone są istniejące technologie. Po drugie poszukiwane są i badane zupełnie nowe technologie przechowywania danych. Oba kierunki badań dążą do osiągnięcia wielu różnych celów: - zwiększenia pojemności; - zwiększenia szybkości działania; - zwiększenia niezawodności i odporności na oddziaływanie czynników zewnętrznych; - poprawy ergonomii; - zmniejszenia zużycia energii; - obniżenia kosztów. W pracach nad nowymi technologiami przechowywania informacji korzysta się z osiągnięć wielu nowoczesnych dyscyplin naukowych i technik, takich jak informatyka kwantowa, spintronika czy mikroelektromechanika. Tak jak w wielu innych dziedzinach, w badaniach nad nowymi technologiami pamięci można zaobserwować coraz większe znaczenie nanotechnologii. Już obecnie niektóre elementy dysków twardych mają wymiary mierzone w dziesiątkach nanometrów. Coraz częściej prowadzi się prace nad pamięciami, w których wymiary komórki czyli pojedynczego elementu pamięci są wyrażane w nanometrach. Wykonuje się także doświadczenia z pamięcią w skali atomowej. Przyszłe pamięci oparte na rozwiązaniach nanotechnologicznych będą charakteryzowały się ogromną gęstością zapisu informacji, a także bardzo małym zapotrzebowaniem na energię. W pierwszych systemach pamięci atomowej udawało się manipulować pojedynczymi atomami tylko przy bardzo niskich temperaturach. W doświadczeniach, wykonanych w 2002 roku, udało się skonstruować moduł pamięci, w którym do przechowywania bitów w temperaturze pokojowej są używane pojedyncze atomy.

15


Przewiduje się, że technologia ta pozwoli uzyskać powierzchniową gęstość zapisu dochodzącą do 250 Tbit/cal2. Obecnie do rozwiązania pozostają problemy szybkości zapisu (czyli porządkowania atomów) i błędów odczytu.

Pierwsze kroki do stworzenia komputera kwantowego.

Istnieją także koncepcje zastosowania cząsteczek DNA do przechowywania danych. Proponuje się między innymi stworzenie pamięci optycznej DNA z użyciem zjawiska fluorescencji. Informacja zakodowana w postaci DNA może być przechowywana w genomie organizmu żywego, na przykład bakterii. W doświadczeniach wykonanych w USA zastosowano w tym celu bakterie Escherichia coli i Deinococcus radiodurans.

Bakterie Escherichia coli.

16


Bakterie Deinococcus radiodurans.

Ta druga charakteryzuje się stosunkowo dużą odpornością na niekorzystne warunki zewnętrzne, takie jak wysoka temperatura, promieniowanie ultrafioletowe i jonizujące. Bakteria ta ma zdolność do naprawiania spontanicznych mutacji powstających w kodzie DNA. Aby wprowadzony sztucznie i niosący informacje łańcuch DNA nie był zidentyfikowany jako wirus i zniszczony przez bakterię, na jego końcach umieszczono specjalne znaczniki. Pierwsze doświadczenia zakończone sukcesem wykonano w 2002 roku. Informacja wprowadzona do DNA bakterii była kopiowana przez kolejne pokolenia i udało się poprawnie odczytać po stu pokoleniach. Gęstość zapisu informacji w cząsteczkach DNA jest rzędu setek PB/mm3 objętości DNA w formie wysuszonej. Fragment ludzkiego DNA o długości około 6 mm i objętości 500 µm2 zawiera 2x10^8 nukleotydów. Jeżeli założymy, że zestaw 3 nukleotydów reprezentuje 1 bajt, to DNA może teoretycznie przechować informacje z gęstością 1 Mbit/µm3. Trwają także prace nad stosowaniem cząsteczek DNA nie tylko do przechowywania, lecz także do przetwarzania danych. Zaletą koncepcji komputera DNA jest możliwość zrównoleglenia przetwarzania. Przewiduje się zastosowanie komputerów DNA między innymi do rozwiązywania problemów kombinatorycznych oraz w kryptologii.

17


Komputer DNA Maya - II

Pamięć holograficzna. Pomysł stworzenia pamięci holograficznej pojawił się już pod koniec lat sześćdziesiątych XX wieku. Prace doświadczalne podjęto w latach siedemdziesiątych. Jednak dopiero ostatnio postęp technologiczny, miniaturyzacja i obniżenie kosztów produkcji krytycznych elementów pamięci holograficznej, takich jak diody laserowe, przestrzenne modulatory światła, ciekłe kryształy oraz detektory CCD (charge coupled device), usunęły bariery rozwoju i stworzyły perspektywy dla pierwszych rozwiązań komercyjnych. Istotne jest, że jako podzespoły pamięci holograficznej można zastosować wiele tanich i niezawodnych elementów już istniejących. Dobrym przykładem są diody laserowe stosowane obecnie na skalę masową w medycynie, telewizji kablowej, przemyśle poligraficznym, pamięciach optycznych. Koszt elementów pamięci holograficznej przy produkcji masowej szacowano kilka lat temu na kilkaset dolarów. Przewiduje się że pamięć holograficzna może zastąpić: - pamięć DRAM, o pojemności 25 GB i czasie dostępu 10 us; −

magnetyczny dysk twardy, o pojemności 1 TB i czasie dostępu 10 ms;

18


Inne kierunki w badaniach nad nowymi rodzajami pamięci: MODS. Nietypowy sposób zwiększenia pojemności dysku optycznego opracowali fizycy brytyjscy. Zaprojektowany przez nich dwustronny i dwuwarstwowy dysk optyczny MODS (multiplexed optical data storage) ma pojęmność sięgającą 1 TB. Na każdej warstwie dysku mieści się 250 GB danych, a więc 10 razy więcej niż w technologii Blu-ray. Pamięci polimerowe. W kilku ośrodkach na świecie trwają prace nad pamięciami, w których zostaną wykorzystane polimery ciekłokrystaliczne. Nośnik może mieć formę karty, taśmy, dysku. Zapis i odczyt są wykonywane za pomocą jednej lub kilku wiązek laserowych. Przykładem praktycznego zastosowania polimerów, jako pamięci optycznej, jest TesaROM. Pamięć ma postać paska folii, a użyty w nim materiał powstał w wyniku badań prowadzonych nad polimerami. W doświadczeniach liniowa gęstość zapisu osiągnęła 1 GB na 1 m taśmy. Pamięć proteinowa. Naukowcy

z

Syracuse

University

badali

możliwość

zastosowania

protein

światłoczułych odkrytych w bakteriach Halobacterium halobium występujących w słonych bagnach. Proteiny te, bacteriorhodopsin zamieniają energię światła w umożliwiającą metabolizm – bakteria korzysta z fotosyntezy podobnie jak rośliny. Ze względu na odporność na temperaturę i inne czynniki proteiny zawdzięczają molekułom zwanym chromoforami, które przyjmują wykrywalne i przewidywalne stany podczas naświetlania wiązkami światła o różnej długości. Pamięć zbudowana z protein bR może być kasowana na dwa sposoby: termicznie lub optycznie. Do przechowywania setek megabajtów potrzeba kilku miligramów substancji, którą można uzyskać w wyniku taniego procesu fermentacyjnego. Pamięci fluorescencyjne. W

latach

dziewięćdziesiątych

XX

wieku

opracowano

koncepcję

pamięci

fluorescencyjnych. W technologii, którą opracowano na jej podstawie, podczas odczytu korzysta się ze zjawiska fluorescencji, czyli emisji światła. Wzbudzenie materiału będącego 19


nośnikiem następuje po naświetleniu wiązką lasera. Materiał stosowany jako nośnik charakteryzuje się niewielkim współczynnikiem pochłaniania światła, dzięki czemu możliwe jest użycie wielu warstw w jednym bloku pamięci. Przewidywano stworzenie wielu rodzajów nośników, początkowo typu ROM i WORM z pojemnością do 140 GB, w dalszej perspektywie – nośniki do wielokrotnego zapisu z pojemnością większą niż 1 TB. Pamięć dwufotonowa. W połowie lat dziewięćdziesiątych XX wieku zbudowano pamięć typu WORM, w której wykorzystano zjawisko absorpcji dwóch fotonów. Pamięć tego typu należy do grupy pamięci, w których możliwy jest dostęp równoległy do całej strony danych. Działanie pamięci opiera się na jednoczesnej absorpcji dwóch fotonów, których łączna energia jest równa różnicy między początkowym a końcowym stanem materiału stosowanego jako nośnik. Pamięci z oddziaływaniami elektrycznymi. Do grupy pamięci używających oddziaływań elektrycznych zaliczymy, luźno ze sobą związane, technologie, w których podczas zapisu/odczytu występuje oddziaływanie na nośnik polem elektrycznym lub wiązką elektronów. Pamięć elektryczna zmiennofazowa. W pamięciach elektrycznych PCM (phase change memory) informacja jest reprezentowana przez dwa stany różniące się właściwościami elektrycznymi. Nośnikiem danych jest materiał, który istnieje w dwóch stanach fizycznych stabilnych w temperaturze pokojowej: amorficznym i krystalicznym. Przewiduje się możliwość zbudowania pamięci o rozdzielczości atomowej (na 1 punkt nośnika przypada 100 atomów materiału), z gęstością zapisu rzędu terabitów na centymetr kwadratowy. Pamięć ferroelektryczna. W kilku laboratoriach na świecie trwają prace nad pamięcią ferroelektryczną. W pamięci ferroelektrycznej FeRAM stosuje się materiały, które mogą być elektrycznie polaryzowane. Dodatnie i ujemne ładunki w materiale są separowane i powstaje w ten sposób pole elektryczne z dwoma przeciwnymi polaryzacjami. Pod koniec XX wieku, w warunkach laboratoryjnych, udało się zbudować blok pamięci o długości 1mm zawierający 10000 komórek.

20


Pamięć elektrostatyczna. Prace nad pamięcią elektrostatyczną są prowadzone na New York State University. Informacja jest przechowywana w formie niewielkiego ładunku elektrycznego (kilka elektronów). Do rozwoju tej technologii przyczyniło się w dużej mierze wynalezienie jednoelektronowego tranzystora. Szacuje się, że gęstość powierzchniowa przekroczy 1 Tbit/cal2. Pamięć molekularna. W pamięci elektrycznej molekularnej informacja jest przechowywana w postaci ładunku elektrycznego, podobnie jak w pamięci półprzewodnikowej CMOS. Różnica polega na tym, że ładunek jest przechowywany w cząsteczce podobnej do chlorofilu, o średnicy około 1 nm. Ocenia się, iż technologia ta umożliwi co najmniej 10-krotne zwiększenie gęstości zapisu w porównaniu z gęstością w tradycyjnej technologii CMOS. W doświadczeniach przeprowadzonych w firmie Hewlett Packard w 2005 roku udało się zademonstrować pamięć o pojemności 1 kbit. Pamięć jednoelektronowa. W połowie lat osiemdziesiątych XX wieku pojawiły się prognozy wskazujące na możliwość sterowania ruchem pojedynczego elektronu. Pierwszy tranzystor przełączany jednym elektronem zaprezentowano w 1987 roku. W laboratoriach NEC Corporation udało się zbudować dwuczęściowy element pamięci. Jedna część działa jako pułapka mogąca wychwytywać pojedyncze elektrony, a drugą częścią jest tranzystor wykrywający istnienie pojedynczego elektronu w pułapce. MRAM. Pamięć magnetologiczna MRAM (magnetic RAM, magnetoresistive RAM) łączy cechy zewnętrznych pamięci masowych (duża pojemność i brak konieczności dostarczania energii w czasie przechowywania) oraz półprzewodnikowych pamięci operacyjnych. Komórka pamięci ma budowę wielowarstwową. Jej zasadniczymi elementami są oddzielone od siebie warstwy ferromagnetyczne. Pamięci tego typu mają charakteryzować się bardzo dobrymi parametrami dotyczącymi czasu: czas zapisu ma wynosić 2,3 ns, a czas odczytu 3,0 ns.

21


Magnetyczne materiały światłoczułe. W USA stworzono przełączany światłem materiał magnetyczny z molekuł organicznych. W doświadczeniach wykonanych w 2002 roku udało się zmienić kierunki ustawienia domen tylko w bardzo niskich temperaturach (około –200C). Trwają prace mające na celu zmianę właściwości materiału, tak by domeny mogły być przełączane w wyższych temperaturach. Pamięć magnetyczno-białkowa. Jednym z problemów technologii magnetycznych jest to, że cząsteczki materiału magnetycznego mają często nieregularne kształty i nierówne wymiary. Uporządkowanie i ujednolicenie cząsteczek ferromagnetycznych na powierzchni nośnika można osiągnąć, umieszczając je wewnątrz cząsteczek białka o regularnych kształtach. Białkiem nadającym się do tego celu jest ferrytyna. Trwałość nośników i urządzeń. Nośniki, a tym samym informacje na nich przechowywane, są podatne na wiele czynników

zewnętrznych,

takich

jak

promieniowanie

elektromagnetyczne,

pole

elektrostatyczne, promieniowanie ultrafioletowe, substancje chemiczne, oddziaływania mechaniczne. Wiedza na temat tego, jak długo można bezpiecznie przechowywać dane na nośnikach, jest istotna dla wielu użytkowników: instytucji rządowych, szpitali, banków i innych firm. Problem trwałości nie jest związany wyłącznie z elektronicznymi nośnikami danych. Dotyczy także nośników tradycyjnych, takich jak papier. Badania z lat pięćdziesiątych XX wieku wykazały na przykład, że papiery wyprodukowane około 1900 roku, po 50 latach straciły około 90% elastyczności i wytrzymałości. Proces starzenia się papieru i pogorszenia właściwości mechanicznych jest związany z polimeryzacją celulozy i hemicelulozy. Na proces ten wpływają szkodliwe czynniki zewnętrzne, takie jak temperatura, wilgotność i zawartość ditlenku siarki w powietrzu. Ze względu na zastosowane materiały i technologie różne nośniki są podatne na różne czynniki szkodliwe, jednak każdy z nośników ulega stopniowej degradacji w miarę upływu czasu. Czas bezpiecznego przechowywania informacji na nośnikach danych jest ograniczony 22


i nie zawsze pokrywa się z czasem wymaganym. W celu ochrony integralności i dostępności danych należy przestrzegać wielu zaleceń. Między innymi należy korzystać z nośników wysokiej jakości. Nośniki powinny być przechowywane w kontrolowanych warunkach, systematycznie trzeba weryfikować działanie systemu archiwizacji i systemu wykonywania kopii zapasowych, korzystać z mechanizmów zwiększających niezawodność dysków twardych i informujących o możliwości wystąpienia awarii. Zależność między prawdopodobieństwem wystąpienia awarii a czasem eksploatacji jest podobna we wszystkich urządzeniach, niezależnie od ich przeznaczenia. Kinetykę procesu zmian starzeniowych opisuje model Arheniusa. Zakłada się, że określona bariera energetyczna Ea powstrzymuje korozję, utlenianie i degradację. Wartość tej bariery energetycznej jest w pewnym sensie miarą odporności na oddziaływanie czynników zewnętrznych. Tempo zachodzenia reakcji zależy od dodatkowych czynników, na przykład wilgoci. Technologia wykonania ma istotny wpływ na podatność nośnika na oddziaływania szkodliwe. Przykładowo, nośniki optyczne i magnetyczne są w różnym stopniu odporne na poszczególne czynniki szkodliwe. Natomiast, jeżeli mamy do czynienia z nośnikami wykonanymi w tej samej technologii, to ich podatność na czynniki szkodliwe zależy od jakości procesu produkcyjnego i jakości surowców użytych do produkcji. Jakość wyprodukowanego nośnika zależy od producenta, a także od aktualnego stanu linii produkcyjnej. W okresach rozruchowych urządzenia wytwarzające nośniki nie zawsze spełniają normy jakościowe; mówi się wtedy o produkcji nośników typu no name, które mają gorsze parametry od produkowanych w normalnym cyklu produkcyjnym. Nośnik ulega degradacji z szybkością, która zależy od intensywności eksploatacji. W systemach, w których korzysta się z wielu nośników, obciążenie każdego z nich powinno być mniej więcej równe – w tym celu stosuje się algorytmy rotacji nośników. Zewnętrznymi czynnikami środowiskowymi stanowiącymi zagrożenie dla nośników danych są: - nadmierna temperatura i duża częstotliwość zmian temperatury; - duża względna wilgotność powietrza oraz kondesacja pary wodnej; - różne formy promieniowania elektromagnetycznego: ultrafioletowe i widzialne, gamma, kosmiczne; - pole magnetyczne; - zanieczyszczenia stałe i płynne; 23


- zanieczyszczenia unoszące się w powietrzu: opary wydzielane przez środki czyszczące, lakiery, farby, dym tytoniowy, spaliny; - oddziaływanie mechaniczne. Nośniki wykonane w różnych technologiach wymagają różnych warunków przechowywania. Za właściwą temperaturę uznaje się zwykle temperaturę w przedziale 17-20 C. Jednym z czynników prowadzących do degradacji nośników jest duża wilgotność powietrza. W systemach pamięci magnetycznych, w których głowica styka się z powierzchnią nośnika, im wyższa jest wilgotność powietrza, tym szybsze jest tempo zużywania się głowicy. Duża wilgotność powietrza może prowadzić do hydrolizy polimeru. Szybkość, z jaką to zjawisko zachodzi, jest proporcjonalna do względnej wilgotności powietrza. Nośniki danych powinny być przechowywane w miejscach suchych, by zapobiec kondesacji pary wodnej. Ponadto w celu uniknięcia problemów związanych z kondesacją pary wodnej nośnik, który był przechowywany w chłodnym miejscu, nie powinien być umieszczany w urządzeniu, zanim jego temperatura nie zrówna się z temperaturą otoczenia. Niektóre rodzaje promieniowania elektromagnetycznego mają charakter szkodliwy. W ciągu sekundy każdy metr kwadratowy atmosfery ziemskiej jest przenikany przez około 100 000 cząstek promieniowania kosmicznego o dużej energii. Wysokoenergetyczne cząstki promieniowania kosmicznego uderzające w układy scalone mogą doprowadzić do przejściowych zakłóceń w działaniu lub trwałych awarii. Przypuszcza się, że awarię strimera w sondzie kosmicznej Galileo spowodowało promieniowanie kosmiczne podczas przejścia sondy przez magnetosferę Jowisza. Kolejnym szkodliwym czynnikiem są wyładowania elektrostatyczne, które mogą doprowadzić do uszkodzenia układów scalonych. W czasie wyładowania wydziela się duża ilość energii termicznej. Wewnątrz układu scalonego temperatura może osiągnąć 1500 C – w rezultacie następuje stopnienie metalowych połączeń lub wypalenie kanalików w warstwie izolującej. Innym problemem jest przemieszczanie się atomów na skutek dostarczania energii termicznej. Wyładowanie o napięciu kilkudziesięciu kilowoltów może doprowadzić do zniszczenia układu scalonego. Ładunek taki powstaje między innymi w wyniku przejścia człowieka po dywanie.

24


Taśmy magnetyczne. Taśmy magnetyczne, w których warstwa magnetyczna jest zbudowana z polimeru wiążącego cząsteczki magnetyczne, są narażone na chemiczną degradację . Taśmy, które umożliwiają osiąganie dużych gęstości danych, składają się z materiałów o złożonej budowie cząsteczkowej. Polimer absorbuje wilgoć z otoczenia i ulega hydrolizie, czyli procesowi, w którym pod wpływem wody makrocząsteczki polimeru rozkładają się na krótsze łańcuchy.

Tabela 2. Wpływ temperatury i względnej wilgotności powietrza na bezpieczeństwo danych przechowywanych na taśmach magnetycznych.

Nośniki optyczne. W porównaniu z nośnikami magnetycznymi nośniki optyczne są bardziej odporne na działanie czynników zewnętrznych. Do błędów odczytu może dojść na skutek zarysowania, zabrudzenia lub odkształcenia dysku. Wewnętrzna warstwa odbijająca jest chroniona przed uszkodzeniami mechanicznymi przez warstwę poliwęglanu. Tylko drobne uszkodzenia jak zarysowania warstwy poliwęglanu o niewielkiej głębokości i zanieczyszczenia na dysku, nieduże w porównaniu ze średnicą wiązki laserowej, nie wpływają na poprawność odczytu. 25


W dyskach DVD warstwa poliwęglanu ma mniejszą grubość w porównaniu z CD, a więc dyski te są bardziej narażone na uszkodzenia mechaniczne i zmiany wynikające z hydrolizy poliwęglanu. Dyski Blu-ray mają jeszcze mniejszą grubość warstwy poliwęglanu. Problemu degradacji warstwy światłoczułej w dyskach DVD na razie nie zbadano. Warstwa poliwęglanu, stanowiąca podłoże dysku optycznego, jest podatna na stopniową degradację. Pod wpływem wysokiej temperatury i dużej wilgotności poliwęglan ulega hydrolizie. Hydroliza powoduje rozkład makrocząsteczek poliwęglanu na krótsze łańcuchy. Dysk optyczny jest zbudowany z kilku warstw spojonych ze sobą. Błędy technologiczne w procesie produkcji i nieodpowiednie warunki środowiskowe mogą spowodować rozwarstwienie dysku, co z kolei prowadzi do błędów odczytu. Do rozwarstwienia dochodzi wtedy, kiedy na dysk działa odpowiednio duża siła, na przykład podczas uginania, pisania na powierzchni dysku, przyklejania lub odklejania etykiety. W tabeli 3 przedstawiono wyniki badań dotyczących wpływu temperatury i wilgotności powietrza na bezpieczeństwo danych przechowywanych na dyskach CD. W badaniach tych założono, że warunki środowiska są stałe i nie uwzględniono wpływu innych szkodliwych czynników.

Tabela 3. Wpływ temperatury i względnej wilgotności powietrza na bezpieczeństwo danych przechowywanych na dyskach optycznych.

Dyski optyczne jednokrotnego zapisu zawierają warstwę barwnika zmieniającego właściwości optyczne pod wpływem silnej wiązki laserowej. Problemem jest to, że barwnik ten może utracić swoje właściwości optyczne. Energia dostarczona w postaci promieniowania ultrafioletowego powoduje wyblakniecie barwnika, a tym samym zmniejszenie kontrastu między pitami i landami (pity to zgłębienia na powierzchni dysku powodujące słabsze w stosunku do powierzchni płaskiej (tzw. landów) odbicie promienia laserowego). Wynikiem są błędy odczytu.

26


Szybkość zachodzenia tego procesu zależy od natężenia promieniowania i rodzaju zastosowanego barwnika. Z uwagi na to najgorsze parametry mają dyski z barwnikiem cyjaninowym.

Co ciekawe płyty kompaktowe mogą zostać zaatakowane także przez grzyby, np.Geotrichum-candidum. Aby wydłużyć życie płyt CD i DVD: - Nie nagrywać na płyty, które przeleżały więcej niż trzy lata. Taka jest żywotność niewypalonego organicznego barwnika, który służy do przechowywania danych. - Wypalać płyty CD z prędkością nie większą niż 32x, a krążki DVD 2x. Im szybciej są nagrywane, tym więcej błędów powstaje w czasie zapisu.

27


- Stworzyć odpowiednie warunki przechowywania. Nie należy trzymać krążków w temperaturze powyżej 35C ani wystawiać ich na działanie promieni słonecznych, ponieważ barwnik i lakier zabezpieczający są na to bardzo wrażliwe. Z kolei poliwęglanowemu podłożu szkodzi zbyt niska temperatura - poniżej 10C. Płyty CD nie lubią również wilgoci: od tego może się utlenić ich metalowa warstwa odblaskowa. Krążki DVD, które z kolei mają klejoną konstrukcję, są wrażliwe na urazy mechaniczne. - Dobrać płyty stosownie do typu nagrywarki (najtrwalsze są płyty zamówione u producenta pod konkretny sprzęt do nagrywania). Za płytę, która ma gwarantować czas życia 100 lat, trzeba zapłacić 300 dolarów, a za nagrywarkę - 5 tysięcy dolarów. -Kupować nośniki Bussines to Bussines. Istnieje rynek profesjonalnych płyt o podwyższonej jakości i zarazem o przedłużonej żywotności.

Pamięć flash.

Dysk SSD

Pendrive

Pamięć flash jest pamięcią półprzewodnikową wykonaną w technologii EEPROM. Zapis i odczyt danych odbywa się z użyciem prądu elektrycznego, natomiast informacja jest

28


reprezentowana przez ładunek elektryczny uwięziony wewnątrz tranzystora polowego. Pamięć tego typu jest odporna na oddziaływanie pól magnetycznych, promieniowania ultrafioletowego i wysokiej temperatury. O jej dużej odporności może świadczyć to, że zastosowano ją w teleskopie Hubble’a do tymczasowego przechowywania danych przed wysłaniem ich do stacji naziemnej. Badania, wykonane w 2004 roku wykazały, że karty pamięci flash są odporne na promieniowanie X używane w skanerach do kontroli bagażu. Czynnikiem

stanowiącym

zagrożenie

dla

pamięci

półprzewodnikowej

jest

pole

elektrostatyczne. Typowe karty pamięci flash nie są wytrzymałe na pola elektrostatyczne o wartkości większej niż 15kV.

Średni czas międzyawaryjny. Średni czas międzyawaryjny, MTBF (mean time between failures) jest parametrem najczęściej podawanym w specyfikacjach urządzeń. MTBF danego urządzenia jest definiowany jako iloraz całkowitego czasu pracy dużego zbioru identycznych urządzeń do liczby awarii, które wystąpiły w tym czasie MTBF = T/A, gdzie: T całkowity czas pracy grupy urządzeń, A – liczba awarii w czasie pracy, przy czym zakłada się, że po wystąpieniu awarii urządzenie jest naprawiane, a po naprawie dalej eksploatowane. MTBF jest definiowany dla zalecanej temperatury pracy. Szacuje się natomiast, że prawdopodobieństwo wystąpienia awarii zwiększa się o 2-3% wraz ze wzrostem temperatury pracy o 1C. Przykładowo, dysk pracujący przez dłuższy czas w temperaturze o 5C wyższej od zalecanej będzie miał o 10-15% wyższą stopę błędów. Z kolei praca w temperaturze niższej od zalecanej spowoduje zmniejszenie stopy błędów. Produkowane w ostatnich latach dyski twarde mają MTBF od kilkuset do ponad miliona godzin. Najwyższe wartości MTBF, dochodzące do 2 000 000 h, mają tzw. dyski półprzewodnikowe, w których pliki są zapisane w półprzewodnikowej pamięci EEPROM, a urządzenie nie zawiera elementów mechanicznych. Współczynnik MTBF nie nadaje się do prognozowania czasu, w którym dojdzie do awarii konkretnego urządzenia. Wartość tego parametru nie jest wyznacznikiem trwałości pojedynczego urządzenia. Ze stwierdzenia, że dysk twardy ma MTBF = 2 000 000 h wcale nie wynika, że konkretny egzemplarz takiego dysku będzie pracował bez awarii przez 2 000 000 godzin. Wartość ta pozwala jedynie oszacować liczbę awarii, które mogą wystąpić w systemie zawierającym wiele takich dysków.

29


Problemy z jakimi mogą spotkać się przyszłe pokolenia przy archiwizacji danych. Dokument tradycyjny można odczytywać bez specjalnych urządzeń, narzędzi lub wiedzy poza znajomością języka, w którym został napisany. Dokumenty cyfrowe można w nieskończoność kopiować (również na podstawie kolejnych kopii) bez uszczerbku na jakości, dlatego często sławi się ich długowieczność. Tymczasem za 50 czy 100 lat ciągła ewolucja sprzętu komputerowego i oprogramowania sprawi, że bez kłopotu odczytamy jedynie zwykły, papierowy tekst. Już kilka razy o mało nie doszło do katastrofy. W raporcie Izby Reprezentantów z 1990 roku można przeczytać o tym, jak dokumentacja spisu ludności przeprowadzonego 30 lat wcześniej cudem uniknęła zniszczenia. Taśmy, na których zapisano dane, zestarzały się (w wyniku modernizacji formatów) szybciej, niż sądzono. Na szczęście większość informacji zdołano przenieść na nowe nośniki. W raporcie odnotowano także inne niedoszłe nieszczęścia związane m.in. z taśmami amerykańskiego Departamentu Zdrowia i Opieki Społecznej oraz ze zbiorami należącymi do różnych agencji rządowych, w tym do komisji zajmującej się problemem narkomanii i do komisji analizującej prawo ziemskie. Zagrożone były zbiory informacji o amerykańskich żołnierzach wziętych do niewoli i zaginionych w akcji w Wietnamie, a także dane umożliwiające ocenę zniszczeń dokonanych przez herbicydy. W niebezpieczeństwie są również naukowe bazy danych. Starzeją się unikalne zapisy wielu eksperymentów przeprowadzonych przez NASA i inne instytucje; grozi im „odejście w niepamięć”. Tylko 20% firm w Wielkiej Brytanii posiada strategię ochrony archiwów cyfrowych wynika z raportu Digital Preservation Coalition. Cyfrowe archiwa są bardzo nietrwałe, a ich brak może dużo kosztować. Sondaż wykazał, że utrata danych zapisanych w postaci cyfrowej należy do zdarzeń powszechnych.

Ponad

70%

ankietowanych

firm

doświadczyło

takiego

zdarzenia.

Świadomość zagrożeń natury ekonomicznej, jakie wiążą się z utratą danych cyfrowych jest duża: 87% ankietowanych zdaje sobie sprawę, że stracić może istotne zasoby firmowej pamięci albo zasoby istotne dla kultury organizacyjnej. Około 60% uważa, że w związku z takim wydarzeniem, firma może stracić finansowo. 52% firm dostrzega potrzebę zarządzania archiwami cyfrowymi, ale jednocześnie tylko co piąta firma dysponuje spójną strategią dotyczącą archiwów cyfrowych. O tym, jak wiele może kosztować niedbałość lub brak szczęścia przekonał się w ostatnim czasie bank Morgan Stanley. Będzie on zmuszony wypłacić ponad miliard 30


dolarów, ponieważ nie potrafił dostarczyć na rozprawę z byłym klientem archiwów poczty elektronicznej

sięgających

początków

lat

90.

Amerykańska

Komisja

Papierów

Wartościowych i Giełd (SEC) dodatkowo ukaże bank za niedotrzymanie procedur zachowywania dokumentów w poczcie elektronicznej kwotą 10 mln dolarów. Przykładów na nietrwałe archiwa cyfrowe jest więcej. Niedawno odkryto, że pomimo bardzo starannego przechowywania, taśmy z danymi z misji Viking Lander na Marsa uległy częściowemu zniszczeniu. Okazało się ponadto, że nie da się odkodować formatów zapisu danych i obecnie można polegać tylko na archiwalnych papierowych wydrukach tych danych. Jak krucha jest pamięć zapisana elektronicznie dowodzi jeszcze jeden przykład. W 1986 roku w Wielkiej Brytanii stworzono cyfrową kapsułę czasu: na 30 cm dysku laserowym zapisano fotografie ulic miast brytyjskich z danego dnia, mapy, dane statystyczne itd. Niespełna 20 lat po zamknięciu kapsuły okazało się, że format danych jest przestarzały. Zapis udało się odczytać po rocznej pracy zespołu specjalistów dzięki temu, że przetrwał odtwarzacz,. Wartość wielu dokumentów cyfrowych tych, które dzisiaj nie wydają się zasługiwać na archiwizację – może okazać się bezcenna wówczas, gdy już nie będą czytelne. Tradycyjne metody przechowywania dokumentów drukowanych są nieprzydatne w przypadku zbiorów komputerowych. Treść i wartość historyczna tysięcy zapisków, baz danych i osobistych dokumentów może być bezpowrotnie stracona, jeżeli dzisiaj nie podejmiemy starań o ich zachowanie. Dane cyfrowe teoretycznie nie poddają się niszczącemu działaniu czasu. Jednak fizycznych nośników, na których zapisujemy, na pewno nie można uważać za niezniszczalne. Gdybyśmy zostawili na dłuższy czas dysk magnetyczny, wówczas próby jego odczytania byłyby przypuszczalnie z góry skazane na niepowodzenie. Rozproszone pola magnetyczne i erozja materiału (zwłaszcza wpływ czynników utleniających) mogą łatwo doprowadzić do skasowania zapisu. Zawartość większości komputerowych nośników znika szybciej niż słowa zapisane na papierze dobrej jakości. Zanim zniknie, staje się z reguły rażąco przestarzały w miarę wprowadzania nowych, „niekompatybilnych” ze sobą standardów. Wcale nie jest niepoważne stwierdzenie, że informacje cyfrowe przetrwają wiecznie lub przez 5 lat – w zależności od tego, co nastąpi szybciej. Jednak ani fizyczna nietrwałość mediów używanych do zapisu danych, ani ich nieuchronna dezaktualizacja nie będą największym problemem przyszłych pokoleń. Ich zadanie polegać ma nie tylko na odczytaniu zawartości dysku, ale i na prawidłowej interpretacji zapisu.

31


Aby zrozumieć te sprawy, musimy wniknąć w istotę cyfrowego zapisu informacji. Komputerowe dane można przechowywać na każdym nośniku zdolnym do reprezentacji dwójkowych cyfr (bitów) 0 i 1. Każdą zamierzoną, niosącą informację sekwencję zer i jedynek, nie zakłóconą przerwami (spacjami), znakami przestankowymi lub formatowaniem będziemy nazywali strumieniem bitów. Do odzyskiwania zapisanego strumienia bitów potrzebne są specjalne urządzenia, takie jak czytnik dyskietek, oraz układy elektroniczne rozszyfrujące fizyczną reprezentację bitów na nośniku. Aby zapewnić współpracę tych urządzeń z komputerem, niezbędny jest też tzw. Program obsługi (driver). Uzyskany ciąg zer i jedynek należy jeszcze zinterpretować. Nie jest to zadanie trywialne, jako że w danym strumieniu bitów kryć się może niemal wszystko – od sekwencji liczb całkowitych po tablicę punktów zdjęcia. Co więcej, prawidłowa interpretacja strumienia bitów nie jest możliwa bez zrozumienia jego przypuszczalnej struktury, tej zaś nie można przedstawić w sposób jawny. Strumień bitów reprezentujących ciąg liter alfabetu może składać się z segmentów o stałej długości (bajtów). Wówczas służą one do zapisu kodów właściwych poszczególnym literom. Na przykład według jednego z używanych dzisiaj (UTF-8) schematów zapisu osiem bitów: 01000101 oznacza literę E. A zatem, chcąc dokonać odczytu strumienia bitów, musimy znać konwencję określającą długość bajta. Jednym ze sposobów przekazania tej wiadomości jest zakodowanie jej w postaci klucza umieszczonego na początku strumienia bitów. Jednak sam klucz także musi być reprezentowany przez bajt pewnej długości. Przyszły czytelnik nie poradziłby więc sobie bez kolejnego klucza – mającego posłużyć do rozszyfrowania pierwszego. Rozwiązaniem tego rekurencyjnego problemu jest tzw. inicjowanie początkowe. W tym przypadku inicjacja polegać musi na dostarczeniu wskazówek – możliwych do odczytania przez człowieka – dotyczących sposobu interpretacji zapisu cyfrowego. Po prawidłowym wyłowieniu bajtów ze strumienia bitów staniemy przed następnym problemem. Bajt reprezentować może liczbę lub kod znaku alfanumerycznego. W tym ostatnim przypadku musimy znać schemat kodowania, którego identyfikator moglibyśmy umieścić w naszym strumieniu. Niestety, do odczytywania identyfikatora niezbędny jest schemat kodowania. Znowu więc nie sposób obejść się bez inicjowania początkowego – w formie możliwej do odczytania bezpośrednio przez człowieka. Jeżeli przyszłe pokolenia poradzą sobie z odczytaniem strumienia bitów zapisanego na płycie DVD. Staną przed głównym problemem: interpretacji przekazu zakodowanego w strumieniu. Większość zbiorów komputerowych zawiera treści, których pełne odtworzenie 32


możliwe jest wyłącznie

po zastosowaniu oprogramowania użytego niegdyś przy ich

tworzeniu. W zbiorach sporządzanych za pomocą procesorów tekstu obecne są instrukcje dotyczące detali typograficznych, wyglądu poszczególnych stron, organizacji rozdziałów dokumentu, tytułów itd. Z kolei w zbiorach tworzonych za pomocą arkuszy kalkulacyjnych ukryte są wzory opisujące matematyczne relacje pomiędzy poszczególnymi komórkami. Natomiast zbiory zwane hipermedialnymi muszą zapierać informacje umożliwiające rozpoznawanie oraz wzajemne kojarzenie danych tekstowych, graficznych, dźwiękowych i synchronizujących. Prawidłowe odtworzenie dokumentu możliwe jest za pośrednictwem oprogramowania, za pomocą którego powstał. Jeśli takiego (lub równorzędnego) oprogramowania nie mamy, wówczas dokument pozostanie jedynie zakładnikiem własnego kodu. Metoda prób i błędów może okazać się skuteczna przy interpretacji dokumentu stanowiącego ciąg znaków. Takie brutalne podejście zawiedzie jednak w obliczu dokumentów złożonych. Zawarty w zbiorze sens nie jest związany z samymi bitami, podobnie jak znaczenie zdania nie tkwi wyłącznie w słowach. Aby zrozumieć dowolny dokument, musimy znać język czytelnika, do którego został zaadresowany. Niestety, owym domyślnym czytelnikiem dokumentu cyfrowego jest wyspecjalizowany program – bez niego zbiory w rodzaju prezentacji multimedialnych stają się bezwartościowe. Widać tu wielką przewagę tradycyjnych treści drukowanych. W niektórych przypadkach programy zbliżone poradzą sobie z częściowym przynajmniej odczytem naszego zbioru. Naiwnością byłoby jednak oczekiwać, że określony system kodowania – nawet taki, który jawi się dziś jako zupełnie naturalny – wytrzyma próbę czasu. Informatycy ciągle opracowują nowe schematy zapisu danych, oznaczające często konieczność rezygnacji z dotychczasowych metod. Dobrym przykładem są tu edytory tekstu. Większość z nich pozwala autorowi zapisać dzieło w formie zwykłego tekstu, z użyciem 7-bitowego kodu ASCII (American Standard Code for Information Interchange). Tekst taki można by stosunkowo łatwo odczytać w przyszłości, jeśli wspomniany kod zachowałby uprzywilejowaną pozycję. ASCII nie jest jednak wcale jedynym standardem. Przyszli czytelnicy starych dokumentów cyfrowych mogą zatem stracić szansę odgadnięcia standardu kodowania. Sytuacje dodatkowo komplikuje fakt, że autorzy rzadko korzystają z możliwości zapisu swojej pracy w formie czystego tekstu. Jeśli przez odczytanie dokumentu rozumiemy tylko wydobycie jego zawartości – bez początkowej formy – wówczas użycie oryginalnego oprogramowania nie jest konieczne. 33


Postępując tak, ryzykujemy jednak utratę lub przemieszczenie fragmentów treści ukrytej w przykładach w nagłówkach, tytułach lub przypisach (jest to częsty efekt uboczny tłumaczenia jednych standardów edycji tekstów na inne). Czy za 50 lat przyszłe pokolenia będą miały szansę znaleźć stosowane przez nas programy? Można zamieścić na płycie DVD czy innym nośniku kopię edytora tekstu. Wówczas

jednak

pozostanie

problem

dostępności

oprogramowania

systemowego

umożliwiającego uruchomienie owego edytora. Pomocne mogłoby się okazać wzbogacenie zawartości dysku o kopię systemu operacyjnego. Lecz przecież sprzęt komputerowy związany z tym systemem dawno już wyjdzie z użycia jako przestarzały technologicznie. Działania zmierzające do ocalenia dokumentów cyfrowych powinniśmy zaczynać od ochrony odpowiednich strumieni bitów. Oznacza to konieczność ciągłego kopiowania danego zbioru na nowe rodzaje nośników w celu zachowania jego czytelności. Nasuwa się porównanie z przepisywaniem praktykowanym kiedyś w celu zachowania tradycyjnego tekstu. Oba działania mają długofalowy charakter, dostępność dokumentu w przyszłości wymaga nieprzerwanego łańcucha kolejnych wędrówek zapisanej treści. Musi to następować, zanim dokument przestanie być czytelny wskutek fizycznego zniszczenia lub przestarzałości technicznej.

Najmniejsza

przerwa

w

łańcuchu

oznacza

utratę

informacji,

mimo

wcześniejszych wysiłków. Współczesne nośniki zapisu cyfrowego charakteryzują się nietrwałością, jednocześnie bardzo szybko ewoluują technicznie – oznacza to konieczność kopiowania archiwów co kilka lat. Najsurowsze normy nakazują nawet coroczne kopiowanie taśm magnetycznych. Należy sądzić, że potrzeba ciągłego kopiowania danych stanie się w przyszłości mniej paląca dzięki nowym generacjom trwalszych nośników. Produktów takich jeszcze nie widać. Olbrzymie koszty nieustannego przenoszenia zbiorów powinny jednak powściągnąć nasz apetyt na lepszą jakość zapisu cyfrowego; musimy sprawić, by właśnie trwałość była najbardziej poszukiwaną cechą nośników danych. Starodawny tekst możemy zachować dla potomności, tłumacząc go na język współczesny bądź też kopiując wersję oryginalną. Tłumaczenie wydaje się prostsze, nie wymaga bowiem od kolejnych pokoleń znajomości historii języka. Nie znajdziemy jednak filologa zadowolonego z przekładów swoich poprzedników. Tłumaczenie to nie tylko utrata informacji, ale na dodatek zatarcie śladów po ewentualnych ubytkach, jako że oryginał przestaje istnieć. Wierne kopiowanie tekstu gwarantuje przechowanie treści bez uszczerbku, pod warunkiem że nie zatracimy zdolności rozumienia dawnego języka.

34


W archiwizacji dokumentów cyfrowych rozróżnia się dwie analogiczne strategie. Pierwszą z nich jest tłumaczenie dokumentu na formę standardową, niezależną od systemu komputerowego. Strategia druga polega na przedłużeniu czasu stosowania danego systemu i współpracującego z nim oprogramowania, które umożliwia odczytanie starych dokumentów. Niestety, obie strategie mają poważne ograniczenia. Żaden z podstawowych rodzajów oprogramowania nie jest dziś gotowy do standaryzacji. Nie ma powszechnie akceptowanego, formalnego modelu obrazującego sposób przetwarzania informacji przez człowieka. Za wcześnie zatem na wyliczanie najważniejszych programów użytkowych i określanie ich zgodności ze standardami. Daremne byłby jednak próby sprowadzenia wszystkich dokumentów cyfrowych do wspólnego mianownika, jakim jest sam tekst, i narzucenia użytkownikom niewygód związanych z taką standaryzacją. Siłą napędową rewolucji informatycznej jest przecież właśnie atrakcyjność oferowanych przez nią nowych narzędzi. Określenie długoterminowych standardów dla dokumentów cyfrowych to cel, którego realizacja jest jeszcze odległa – najpierw należy oprzeć informatykę na solidniejszych podstawach formalnych. Tłumaczenie dokumentów na „dialekty” zgodne z kolejnymi standardami jest pozornie dobrym rozwiązaniem – nie zmusza do wprowadzania jednego, absolutnego standardu. Każdy z przykładów oznacza jednak utratę jakichś informacji. Czy wartość literacka współczesnej wersji Iliady Homera nie zostałaby zdeprecjonowana, gdyby tłumaczenie jej oparto nie na najstarszych zachowanych tekstach starogreckich, lecz na kolejnych

przekładach

pośrednich

z języków nowożytnych? Tłumaczenie „do tyłu”, korzystające z wcześniejszych wersji, mogłoby – teoretycznie – umożliwić filologom rekonstrukcję oryginalnego tekstu. Jednak w praktyce postępowanie takie przyniosłoby straty i przekłamania, gdyż tłumaczenie zazwyczaj nie jest procesem odwracalnym. Języki takie jak angielski lub grecki (o zbliżonej sile ekspresji i bogactwie semantycznym) zasadniczo różnią się od języków zapisu dokumentów cyfrowych. Te ostatnie bardzo szybko ewoluują, co nieuchronnie prowadzi do częstych modyfikacji formy dokumentów. Oznacza to poważne trudności przy tłumaczeniu, ponieważ nowe formaty (sposoby prezentacji danych) niekoniecznie zachowują zgodność ze starymi. Nie zawsze możliwa jest poprawna konwersja starych dokumentów na aktualne, poprzednio nie znane formaty, często niewykonalne się staje przetłumaczenie współczesnego zbioru na format stosowany dawniej. Na przykład wiele starszych, hierarchicznych baz danych trzeba było całkowicie przeredagować, aby uzyskać zgodność z modelem relacyjnym – tak jak obecnie 35


zmienia się bazy relacyjne w celu dopasowania ich do modeli zorientowanych obiektowo. Problem ten utrudnia – lub wręcz uniemożliwia – nadanie starym dokumentom postaci zgodnej z nowymi standardami. Zamiast męczyć się z przekładaniem, można by obejrzeć stary dokument za pomocą programu, który niegdyś wykorzystano do jego tworzenia. Nasi potomkowie teoretycznie nie będą musieli nawet uruchamiać dawnego oprogramowania, jeżeli dziś opiszemy jego działanie w sposób niezależny od konkretnego sprzętu komputerowego. Nie jest to jednak możliwe obecnie i zapewne nie będzie w najbliższej przyszłości; współczesna informatyka nie pozwala wyczerpująco opisać działania programów. Jedynym sposobem odtworzenia programu pozostaje zatem jego uruchomienie. Musimy więc przechowywać zarówno programy, które służyły do sporządzania dokumentów cyfrowych, jak i całe towarzyszące im oprogramowanie systemowe. Zadanie to, choć ogromne, wydaje się wykonalne. Autorzy często załączają odpowiednie programy aplikacyjne i systemy operacyjne do dokumentów, aby ułatwić odbiorcom ich odczytanie. Część tego oprogramowania może w przyszłości pozostać dostępna – wystarczą wówczas odpowiednie informacje załączone przez autora. Bezpłatne programy rozpowszechniane są za pośrednictwem Internetu. Co więcej, przyszli użytkownicy przestarzałego formowego oprogramowania mogą liczyć na wygaśnięcie praw autorskich. Czy potrafimy zapewnić przetrwanie sprzętu niezbędnego do uruchomienia archaicznych

systemów

operacyjnych

i

programów

użytkowych?

Istnieje

kilka

wyspecjalizowanych muzeów i klubów retro stawiających sobie za cel utrzymanie staroświeckich komputerów „na chodzie”. Jednak działania takie, choć nie pozbawione uroku, wydają się odmianą donkiszoterii. Popyt na żaden anachroniczny komputer nie będzie tak duży, aby usprawiedliwić ciągłe wydatki na jego reperacje, wymianę zużytych podzespołów i zachowanie związanej z tym wiedzy. Specjaliści tworzą na szczęście tzw. emulatory. Są to programy, które po uruchomieniu na określonym komputerze naśladują sposób działania innej maszyny, na przykład starszej. Komputery przyszłości powinny mieć znacznie większą moc obliczeniową niż współczesne; można zatem oczekiwać, że będą „emulować” dowolny przestarzały system sprzętowy. Jedyny kłopot to potrzeba przechowywania szczegółowej dokumentacji – sporządzonej w formie czytelnej dla przyszłych pokoleń, a więc niezależnej od jakiegokolwiek oprogramowania. Przemieszczanie zbiorów zawierających cyfrowe dokumenty i ich macierzyste programy odbywać się musi w sposób gwarantujący nienaruszalność odpowiednich strumieni 36


bitów – najmniejsze zmiany prowadziłyby do zniekształcenia zapisu. Czasami nie można uniknąć pewnych modyfikacji. Powinny one jednak mieć charakter odwracalny – bez straty informacji. Co więcej, należy szczegółowo notować parametry każdej transformacji, aby nie tracić szansy na odtworzenie pierwotnego schematu kodowania. Wyobrażalny jest obecnie taki zapis strumienia bitów, który da mu odporność na wszystkie dające się przewidzieć zmiany; przyszłość może jednak przynieść nowe, trudne do odgadnięcia modyfikacje. Niewykluczone na przykład, że brutalna kompresja danych przekształci strumień bitów w jego przybliżoną kopię pozbawioną kompletu informacji niezbędnych do odtworzenia oryginału. Podobnie proces szyfrowania wymaga znajomości specjalnego klucza. Idealnym rozwiązaniem byłoby opakowanie nie zakłóconego ciągu bitów w „wirtualną paczkę”, czyli zbiór informacji na temat struktury strumienia i historii jego dotychczasowych przeobrażeń. Wprawdzie na samą paczkę, aby zapewnić jej trwałość, również składałyby się dane cyfrowe; sposób ich kodowania powinien być jednak jak najprostszy, jeśli mają posłużyć do inicjowania. Wynika stąd potrzeba przyjęcia standardów kodowania informacji opisowych; wystarczy prosty system obejmujący wyłącznie dane tekstowe. Każde przenoszenie strumienia bitów na nowy nośnik powinno iść w parze z tłumaczeniem informacji opisowych, czyli być zgodne z aktualnym standardem inicjowania początkowego. Zakończenie. Tylko nieliczne rządy czy instytucje zdają sobie sprawę z powagi sytuacji i zadbały o trwalsze zabezpieczenie państwowych dokumentów. Rząd francuski np. już od czterech lat wykorzystuje do digitalizacji archiwów płyty wykonywane na zamówienie. Niedawno na podobny krok zdecydowali się Czesi, którzy prócz tego stworzyli optymalne warunki dla przechowywanego sprzętu i nośników. Dobrym przykładem jest także rosyjski Teatr Balszoj i mediolańska La Scala, które zgromadziły swój kulturalny dorobek na nośnikach CD o podwyższonej trwałości. Tymczasem w 2006 roku ZUS ogłosił przetarg na nośniki do przechowywania naszych danych o emeryturach. W przetargu zawarto dwa główne warunki – niską cenę za płytę i to, że mają być one nagrywane z maksymalną prędkości 24x. Takich krążków już wtedy nie produkowano od ponad trzech lat. Firma, która zaoferowała ZUS-owi te nośniki, musiała je magazynować przez ponad 3 lata. W tym czasie barwnik biorący udział w procesie nagrywania, mógł poważnie się zniszczyć. To może oznaczać, że ZUS szykuje milionom 37


przyszłych emerytów przykrą niespodziankę: gdy z ich elektronicznych archiwów wyparują dane. Dodatkowo w 2008 roku ZUS ogłosił przetarg na 130 tysięcy dyskietek 3,5”. Szczegóły zamówienia (fragment): "1.Przedmiotem zamówienia jest zakup i dostawa 130.000 szt. dyskietek komputerowych 3,5" o pojemności 1,44 MB, dwustronnych o dużej gęstości, fabrycznie nowych, tj. wyprodukowanych w 2008 roku. 2.Dyskietki muszą być wolne od wirusów, fabrycznie formatowane w formacie IBM PC oraz pakowane w plastikowe pudełka po 10 dyskietek w pudełku. Do każdego pudełka należy dołączyć komplet (min. 10 szt.) naklejek do opisywania zawartości dyskietek. 3. W zakres przedmiotu zamówienia wchodzi również transport zamawianych dyskietek do magazynu, wraz z ich rozładunkiem i ułożeniem we wskazanym przez Zamawiającego miejscu. 4. Dyskietki winny być objęte dwunastomiesięcznym okresem gwarancji, na warunkach zawartych we wzorze umowy. 5. Nie dopuszcza się możliwości składania ofert częściowych."

Należy więc z dystansem traktować cyfrowych rewolucjonistów z ich hasłami „cyfrowe jest lepsze” czy „tylko digitalne ma przyszłość”. Całkowita wirtualizacja wymiany i archiwizacji wszelkiej informacji może bowiem doprowadzić do cyfrowej choroby Alzheimera – do utraty społecznej, kulturowej pamięci.

38


Pierwsze drukowane wydanie 18 sonetu Szekspira (1609) to dowód trwałości tej formy zapisu. Dane z nośników cyfrowych mogą stracić czytelność w ciągu jednego dziesięciolecia, podczas gdy słowa na reprodukowanym dokumencie są wyraźnie widoczne po prawie czterech wiekach. W końcowym dwuwierszu można dopatrzyć się aluzji do treści mojego referatu: "Póki ma ludzkość wzrok, a w piersi tchnienie,/ Będzie żył wiersz ten, a w nim twe istnienie". So long as men can breath or eyes can see, So long lives this, and this gives life to thee.

39


Literatura •

Adleman

L.,

Computing

with

DNA,

Scientific

American,

1998.

http://www.usc.edu/dept/molecular-science/fp-scian98.pdf •

Atkinson R., Shiffrin R., , vol 2, Human memory: A proposed system and its control processes, The psychology of learning and motivation: Advances in research and theory Academic Press, 1968.

Bekenstein J. D., Informacja o holograficznym wszechświecie, „Świat Nauki”, 9/2—3, s. 26-33.

Bilski T., Digital and Biological Storage Systems –a Quantitative Comparison, W: BIONETICS, 2nd International Conference on Bio-Inspired Models of Network, Information, and computing Systems, Budapeszt, IEEE, 2007.

Black E., IBM i holocaust, MUZA S.A., Warszawa, 20001.

Chustecki J., Wirtualizacja pamięci masowych, „NetWorld”, 7/2002, s.56-58.

Daniel E. D., Mee C. D., Clark M. H., Magnetic Recording. The First 100 Years, IEEE Press, New York, 1998.

Dembowski K., Warsztat komputerowy, Robomatic, Wrocław 1996.

Madej J. Sysło M. M., Początki informatyki w Polsce, „Informatyka”, 9/2000, s. 14-19

Metzger P., Anatomia PC, Helion, 1996.

Mochnacki W., Kody korekcyjne i kryptografia, Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław 2000.

Tomasz B., Pamięć nośniki i systemy przechowywania danych, WNT, Warszawa 2008.

Stokłosa J., Bilski T., Panowski T., Bezpieczeństwo danych w systemach informatycznych, PWN, Poznań 2001.

40


Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.