Når fortiden blir digital
Medier, kilder og historie i digitaliseringens tid
henrik g. bastiansenNår fortiden blir digital
Henrik G. BastiansenNår fortiden blir digital
Henrik G. BastiansenMedier, kilder og historie i digitaliseringens tid
© H. Aschehoug & Co. (W. Nygaard) AS ved Universitetsforlaget 2023
ISBN 978-82-15-06264-8
Materialet i denne publikasjonen er omfattet av åndsverklovens bestemmelser. Uten særskilt avtale med rettighetshaverne er enhver eksemplarfremstilling og tilgjengeliggjøring bare tillatt i den utstrekning det er hjemlet i lov eller tillatt gjennom avtale med Kopinor, interesseorgan for rettighetshavere til åndsverk. Utnyttelse i strid med lov eller avtale kan medføre erstatningsansvar og inndragning og kan straffes med bøter eller fengsel.
Forfatteren har mottatt støtte fra Det faglitterære fond.
Boken er utgitt med støtte fra Fritt Ord.
Henvendelser om denne utgivelsen kan rettes til:
Universitetsforlaget
Postboks 508 Sentrum
0105 Oslo
www.universitetsforlaget.no
Omslag: Jesper Egemar
Sats: ottaBOK
Trykk og innbinding: Aksell AS
Boken er satt med: Minion Pro 10,7/13,9 pkt.
Papir: 100 g Munken Premium Cream 1,3
Vi er i starten på en digital offentlighet som ikke er formet i det hele tatt.
Det tok 600 år å bygge opp den analoge offentligheten.
Den digitale er fortsatt helt ny.
Nasjonalbibliotekar Aslak Sira Myhre, i Klassekampen 4. januar 2016
Dette er en bok om vår fortid. Om historien vår og hvordan den møter oss i dag og i fremtiden. Tidligere befant den seg utelukkende i fysiske arkiver, som oppbevarte sine arkivalier for fremtiden. De eksisterer selvfølgelig fortsatt, men de siste tiårene har det kommet noe helt nytt til: digitale arkiver tilgjengelig for alle på nett. Og historisk materiale er samtidig blitt digitalisert og lagt ut. Dette kan kanskje virke trivielt, men det er det ikke. Denne boken er skrevet som et forsøk på å finne ut hva disse forandringene betyr – for fortidens kilder og for våre studier av dem. Og dermed hvordan vi oppfatter fortiden i vår tid.
Oslo, 24. februar 2023
Henrik G. BastiansenLa oss si at du finner en gammel papiravis etter din bestefar oppe på loftet. Den tar du med deg ned igjen og studerer inngående. Du kjenner lukten av avispapiret. Og du kan se hvordan det gulnede papiret fortsatt holder overskrifter og nyhetsartikler på plass. Du kan se hvordan avisen utformet sidene sine den gang – med avishode, layout, nyhetsoppslag, pressefotos og alt. Ved å bla forsiktig i avisen kan du så oppdage mer av hvordan akkurat denne avisutgaven så ut da den kom ut.
Så kan du gå til Nasjonalbibliotekets digitale avissamling på nb.no. Der kan du få opp akkurat den samme avisen på din dataskjerm. Straks vil du se at den er helt lik den avisen du nettopp har hentet ned fra loftet, og som du holdt i hendene dine. Det er ingen forskjeller i innhold mellom dem. Det du ser på dataskjermen, er en helt nøyaktig kopi av den fysiske papiroriginalen fra loftet. Dette har jeg selv opplevd flere ganger. Min bestefar tok noen ganger vare på enkelte aviser med historiske nyheter. Det gjaldt for eksempel Aftenposten den 2. mai 1945. Førstesidens store sak var «Der Führer falt». Her kom altså nyheten om Hitlers død.1 I glede over dette bevarte min bestefar denne avisen. I alle år siden har den ligget på loftet etter ham, inntil jeg tok den ned og studerte den. Så fant jeg den igjen på nettsidene til Nasjonalbiblioteket. Dermed hadde jeg samme avis i to former: som original og som kopi. Den originale, trykte utgaven er en fysisk gjenstand, den andre en digital kopi fra vår tid. Og de likner hverandre på en prikk.2
Men selv om de to likner hverandre, så er det likevel store forskjeller mellom dem. Den første er en fysisk papiravis, den andre er en immateriell datafil. Denne datafilen består kun av 0 og 1-tall som er lagret i en database. Det er først når en databruker ber om å få opp akkurat denne avisen, at de enorme tallmengdene i databasen settes sammen slik at de viser hvordan Aftenposten så ut den 2. mai 1945. Når vi så får se denne avisen på dataskjermen, må vi huske en ting: Dette er ikke en avis. Det vi ser, er faktisk ikke en avis. Det er kun et bilde av en avis. Eller mer presist: Det vi ser, er kun et digitalt bilde av en avis. Og det er noe helt annet. En papiravis og en datafil er to vesensforskjellige ting, selv om de likner hverandre til minste detalj ved at den ene er en kopi av den andre.
Den ytre likheten mellom de to kan friste oss til å undervurdere forskjellene mellom dem, men det må vi ikke gjøre. Den første er analog, og den andre er digital. I forskjellene mellom dem ligger faktisk en av vår tids største kunnskapsrevolusjoner. Den foregår nå hver eneste dag – og den omfatter stadig mer materiale som overføres fra den første til den andre typen. Den som ikke innser forskjellene mellom de to, gjør seg selv blind for hva som har foregått mellom dem. Og er folk blinde, vil de også ha vanskelig for å forstå det de ser på dataskjermen. Da blir det vanskelig for folk å nyttiggjøre seg det. Det er bare dem som innser at forskjellene mellom papiravisen og datafilen er grunnleggende – selv om de likner hverandre til minste detalj – som er i stand til å ane omfanget av det vi her står overfor. Den største feilen vi kan gjøre i denne situasjonen, er altså å tro at overføring av fysiske originaler til digitale kopier bare er en teknisk prosess som ikke betyr noe i seg selv. All erfaring tilsier at det er feil: Digitaliseringen endrer nemlig på noe vesentlig ved det som blir digitalisert, nemlig dets form i tid og rom. Slike endringer av formen kan få stor betydning i seg selv. Dette er så viktig at vi ikke kan overse det. Det som her skjer, er en omforming – en transformasjon – av de historiske kildenes eksistens, og den må vi møte med å oppdatere oss. Det er derfor vi trenger en bok som denne. La oss begynne med å se på ett av vår tids mest omtalte eksempler på dette, nemlig Google Books.
I 2004 var Google et seks år gammelt dataselskap. De var allerede verdensledende med sin søkemotor for internett. I oktober 2004 reiste grunnleggerne Larry Page og Sergey Brin til bokmessen i Frankfurt – trykkekunstens fremste markedsplass i Europa gjennom de 500 årene som var gått siden Johann Gutenberg. På messen lanserte de et nytt tilbud som de kalte Google Print. Mer av planen ble kjent i desember: Google proklamerte da at de ville etablere et slags digitalt verdensarkiv for kunnskap – inspirert av oldtidens berømte bibliotek i Aleksandria. Prosjektet var også stimulert av den grenseløse infrastrukturen i World Wide Web. De hadde startet opp prosjektet i hemmelighet to år før. Offentliggjøringen i 2004 skapte mange reaksjoner. Noen fryktet for fremtiden til forfattere og forlag, andre håpet på en demokratiserende virkning av å bringe kunnskaper som til da hadde vært innelukket i bøker og biblioteker, ut til folk flest.3
Google viste seg med dette som noe langt mer enn et søkemotorselskap. Med Google Print søkte Larry Page og Sergey Brin seg faktisk tilbake til sine aller første ideer. For ideen til Google ble opprinnelig født da de to deltok som studenter i et forskningsprosjekt ved Stanford Integrated Digital Library Project. Det handlet om å utvikle digitale biblioteker for bøker. Der kalte de sitt bidrag for Google, som da var ment som en teknisk løsning på problemene med den økende informasjonsmengden på Web. De to foreslo da et prosjekt for digitalisering av store mengder bøker, men møtte liten interesse på Stanford. I september 1998 forlot de derfor universitetet og etablerte Google som et rent søkemotorselskap. Ideen deres
om en storstilt bokdigitalisering var altså eldre enn selskapet de dannet. Så drev de frem Googles søkemotor og la bort ideen inntil videre. Men i 2004 lanserte de altså ideen på nytt – og nå offentlig; på verdens største bokmesse i Frankfurt. Google hadde da drevet et intenst og målrettet utviklingsarbeid. De hadde kjøpt inn en mengde bøker. Hver eneste side ble skannet. Så eksperimenterte de med hvordan sidene best kunne indekseres, ikke bare med informasjon fra selve bøkene, men også ved å hente inn data om dem fra andre kilder på Web. Underveis fant de et tydelig mål for hvordan de kunne kalkulere en boks relevans og betydning, nemlig det antall ganger den var blitt referert til.4
Google tok så patent på en skanner som kunne behandle boksider ved hjelp av en avansert 3D-skanner. Den kunne gjengi den tredimensjonale formen på boksidene når de ble lagt over skannervinduet.5 Informasjonen fra boksidene ble deretter behandlet med avansert programvare for bokstavgjenkjenning, såkalt OCR-skanning (Optical Character Recognition). Disse løsningene satte Google i stand til både å behandle innholdet i de aktuelle bøkene i en massiv industriell skala og deretter putte dem inn i nye distribusjonssystemer. Google tok med andre ord kjent teknologi og satte den sammen på nye måter.
Google var ikke de første til å lage nye teknologiske løsninger for å videreformidle innholdet i bøker. Den første som tenkte ut en løsning for dette, var Paul Otlet, som allerede i 1920-årene lanserte ideen om å mikrofilme bøker. Etter hvert ble mikrofilming av bøker og aviser tatt i bruk av biblioteker over hele verden. En annen idé var tanken om å etablere et universelt arkiv. Det fikk navnet Mundaneum og eksisterer fortsatt, nå i byen Mons i Belgia. Men det eldste digitale biblioteket som eksisterer i dag, ble etablert i USA av Michael S. Hart i 1971. Det fikk navnet Project Gutenberg. Grunnleggeren mente at den største fordelen med datamaskiner ville være lagring og søk etter det som allerede fantes i bibliotekene. Hart viet seg derfor til å konvertere kulturelle verk i analog form over til digital tekst i formater som skulle være tilgjengelige og lesbare for alle datasystemer. Prosjektet begynte med å konvertere 50 bøker over til digital tekst. I 2018 inneholdt samlingen 56 000 tekster. I 1989 begynte det franske nasjonalbiblioteket å digitalisere kulturelle verk i industriell målestokk, ca. 80 000 titler. Og i 1995 etablerte man i USA det såkalte Universal Digital Library.6
Men til tross for alle disse tiltakene var det likevel noe nytt ved initiativet til Google i 2004. Selskapet satte seg som mål å gjøre 15 millioner bøker tilgjengelige digitalt. I tillegg hadde selskapet inngått avtaler med bibliotekene ved noen av verdens fremste universiteter: Stanford, Harvard, Oxford, University of Michigan og New York City Public Library. Målet var å digitalisere kunnskap fra all verdens bøker og bruke kunstig intelligens i prosessen.7 Etter hvert fikk dette prosjektet navnet Google Books.
Bokbransjen var skeptisk. For hvem ville kjøpe bøker etter dette? Og hva med rettighetene til forfattere og forlag? Google skannet jo bøker i stor stil uten avtaler med rettighetshaverne. Bokbransjen begynte å se på Google som en tyv. Google gikk altså inn med nye ideer og tekniske løsninger i bøkenes veletablerte verden. Der var forholdet mellom forlag og forfattere definert av avtalte rettigheter til åndsverk og nedfelt i kontrakter. Som nykommer begynte Google å utfordre denne måten å behandle bøker på.8 Forlag og forfattere kom i forsvarsposisjon, mens det syntes som om Google hadde fremtiden foran seg. For i den nye digitale verden var det en utbredt tanke at digital informasjon ikke kunne sikres eller kontrolleres på samme måte som for analoge verk. I 2015 vant Google frem i retten med en dom som legaliserte Google Books.9 Med det maktet selskapet å overskride noen av de begrensningene som til da hadde beskyttet bøker og boksamlinger. Det vil si at fysiske samlinger av kulturminner nå kunne flyttes inn i en massiv digitalisert samling.10
Men underveis var motstanden også stor. I Europa var det særlig Frankrike som reagerte på initiativet til Google. Franske politikere oppfattet Google Books som en amerikansk kolonisering av europeisk informasjon. De så det også som en slags privatisering av en felles kulturarv. Frankrike tok derfor initiativ til å etablere et europeisk motstykke. Og de fikk EU til å støtte seg. Resultatet ble nettstedet Europeana, som åpnet i 2008. Der skulle folk få online tilgang til Europas kulturarv. Slik ble Europeana EUs svar på Google Books.11
På lengre sikt viste det seg så at Google Books ikke lyktes med sin opprinnelige visjon om å etablere et verdensbibliotek i digital form. De hadde undervurdert rettighetshavernes juridiske styrke.12 Deres initiativ var likevel ikke uten virkning, for Google hadde på sin måte demonstrert hva som begynte å bli mulig når skannerteknologi ble kombinert med bokstavgjenkjenning, kunstig intelligens og distribusjon via World Wide Web. Den systematiske tilnærmingen og oppskaleringen av hele prosessen som Google her utviklet, innebar ifølge den danske forskeren Nanna Bonde Thylstrup et nytt paradigme innenfor det hun kaller «mass digitization».13
Og her er vi ved et nøkkelbegrep i denne boken: massedigitalisering. Smak litt på det ordet. Tidligere kjenner vi masse-betegnelsen fra teoriene om «massesamfunnet» tidlig i det 20. århundre.14 Det var i forlengelsen av denne tanken at man tok i bruk betegnelser som «massekommunikasjon» og «massemedier». På sett og vis har fenomenet «massekommunikasjon» i dag faktisk definert en hel epoke – hele den moderne tiden fra 1850 til 2000.15 Men i dag har vi altså fått et nytt sentralt begrep med «masse» i seg: massedigitalisering. Utviklingen på dette feltet går så fort at vi allerede nå kan slå fast at dette begrepet – og det fenomenet som det viser til – kan vise seg like epokedefinerende som både begrepet og fenomenet
«massekommunikasjon» gjorde tidligere. Og Google viste seg – gjennom initiativet med Google Books – å være den aktøren som overvant utfordringene og begynte å utnytte mulighetene som lå i massedigitalisering. Og det igjen begynte å rokke ved noe av stabiliteten som hersket i bøkenes verden. Slik ble Google noe av en «changemaker». Det sier mye at en forsker som Shoshana Zuboff skriver at «Det Ford Motor Company og General Motors var for masseproduksjonsbasert managementkapitalisme er Google for overvåkingskapitalismen».16 På mange måter er Henry Ford og Ford-fabrikkens bevegelige samlebånd blitt stående som essensen av den moderne industrikapitalismen,17 så når hun trekker denne sammenlikningen, plasserer hun Google i førstedivisjonen innenfor dagens IT-industri.
Men i kjølvannet av Google Books begynte også andre aktører å starte opp. En av dem befant seg i Norge: Nasjonalbiblioteket. De satte seg også et hårete mål, men avgrenset det til norske forhold: De ville digitalisere alt som noensinne har vært utgitt i Norge – uansett medieform. Deretter skulle de gjøre det tilgjengelig for brukerne.
En merkelig situasjon oppstod. Mens Google var amerikansk, privat og kommersielt, var Nasjonalbiblioteket norsk, statlig og ikke-kommersielt. Deres formål gjaldt sågar kulturformidling og folkeopplysning. Det var derfor mange forskjeller mellom dem. Men de ytre forskjellene må likevel ikke få oss til å overse at de i sitt indre hadde det viktigste felles: Begge ville sette i gang massedigitalisering – som er det største man kan gjøre i denne bransjen. Og mens Google i ettertid måtte gi opp sine opprinnelige planer, gikk Nasjonalbiblioteket med store ressurser tungt inn i massedigitaliseringens epoke – og det har de fortsatt med siden. Nå nærmer de seg målet om å digitalisere alle norske publikasjoner – i alle medier vi kjenner. Det målet som Nasjonalbiblioteket her satte seg, var et uhyre krevende teknologisk og økonomisk prosjekt. Samtidig innebar det også en kunnskapsrevolusjon som Norge aldri har sett maken til. For dette er allerede nå i ferd med å endre hvordan vi bruker de kunnskapene og kildene vi har fått overlevert fra fortiden. Intensjonene er godt begrunnet med sosialdemokratiske argumenter om at alle skal få tilgang til landets kulturarv. Kulturarven skal demokratiseres – og det skal skje digitalt. Men er det virkelig så enkelt? Er det ikke noe her som unndrar seg oppmerksomheten? For hva betyr det egentlig når alle tidligere publikasjoner – hele den offentlige historien i alle dens former – overføres fra analog til digital form, for siden å bli lagt ut til alle online? Det er dette Nasjonalbiblioteket har drevet med siden 2006, men arbeidet har foregått nesten uten offentlig debatt. Prosjektet har fått mye positiv oppmerksomhet, men har samtidig gått under radaren for kritisk debatt og journalistikk. Men alle som vil henge med i nåtidens og fremtidens kunnskapsforvaltning, må kjenne til det som her har skjedd – og vurdere hvilke konsekvenser det kan få for bruken av våre kunnskaper om fortiden.
Massedigitalisering er altså et avgjørende fenomen i denne boken, selve grunnmuren og utgangspunktet. Det er massedigitalisering som ligger i bunnen både for Google Books, Nasjonalbiblioteket og for alle andre som driver med det samme. Men massedigitalisering er ikke noe vi bare kan ta for gitt. Den reiser faktisk mange nye spørsmål som vi må reflektere over. Og når objektet den innrettes mot, er et helt lands samlede kulturarv, blir det enda mer påtrengende at vi drøfter hva massedigitalisering egentlig er, hvordan den fungerer, hvilke resultater den skaper – og hva den betyr for brukere, forskere, historikere og oss alle.
Denne boken handler om i hvilken grad det er tilstrekkelig å oppfatte massedigitalisering av kulturarven som en slags nøytral teknisk prosess, som ikke betyr noe i seg selv, eller om den tvert om endrer så mye på den formen som kulturarven, mediene og historiske kilder opprinnelig har hatt, at vi må løfte frem konsekvensene som viktige. Noen slike konsekvenser kan være ønskede, direkte og forventede, andre kan være uønskede, indirekte og uventede, ifølge diffusjonsforskningens konsekvenstypologi.18 Derfor trenger vi bidrag som fordyper seg i massedigitaliseringens egenart og virkninger. For hvis vi ikke forstår hva massedigitalisering innebærer, kan vi få overraskelser i fremtiden: Dette handler ikke om støvete gamle dokumenter i utilgjengelige arkiver. Det handler om alt som noen gang er publisert i Norge, i alle former. Alle medier, all kultur og veldig mye historie. Det handler om hvem vi har vært her i landet, hva vi har sagt og ment, og altså hvem vi egentlig er. Dypest sett handler dette derfor om vår egen identitet. Og om hvordan vi skal ta med oss alt dette inn i fremtiden.
Hver gang teknologiske nyskapninger blir omtalt, er det gjerne de nye mulighetene som fremheves. Og det er riktig at de skaper andre handlingsrammer for oss enn dem vi hadde før. Det som ikke nevnes, er det som går tapt: Hva taper vi når brukere, forskere og historikere ikke lenger går til arkivet eller biblioteket for å studere noe, men finner alt på laptopen sin hjemme i sofaen? Hva taper vi på ikke å bla fysisk i store avispermer der alle papirutgavene er satt inn? Spiller det egentlig noen rolle om vi studerer en gammel avis på dataskjermen istedenfor å bla i den opprinnelige papiroriginalen? Mister vi noe vesentlig når vi ikke lenger får kjenne lukten av gammelt papir og ikke lenger får høre knitringer i gamle lydopptak, fordi de siden er renset for all støy under digitaliseringen? Dette «noe» som er gått tapt, hadde det en egenverdi som vi ikke lenger verdsetter i vår digitale tid? Eller er det bare gammeldags å tenke slik? Dette handler altså om hvordan vi forholder oss til alle de kildene som fortiden har gitt oss. I denne boken fremmes den oppfatningen at om vi skal forstå digitaliserte kilder, må vi også kjenne dem fra tiden før de ble digitalisert – for ellers er det vanskelig å forstå den forvandlingen de har vært igjennom da de ble omformet til datafiler. Det er altså ikke nok bare å interessere seg for sluttresultatene av massedigitaliseringen, vi må også kjenne tilstanden de
opprinnelig var i. Vi trenger altså å se nærmere på massedigitalisering både som fenomen og begrep.
Her kan den unge danske forskeren Nanna Bonde Thylstrup hjelpe oss. I sin bok The Politics of Mass Digitization argumenterer hun for at massedigitalisering er et av de viktigste fenomenene i vår tid. Hun skriver at dette ordet først og fremst er et profesjonelt begrep i fag som informasjonsvitenskap, mens det ellers er lite kjent utad. Hun hevder at massedigitalisering er digitalisering i et industrielt omfang, men legger straks til at det også er mye mer enn det.19 Hun viser til at massedigitalisering ofte gjennomføres som kostbare og spektakulære prosjekter, både av offentlige og private institusjoner. Noen gjennomføres nedenfra-og-opp, andre ovenfra-og-ned og av store byråkratiske institusjoner. Og det finnes egentlig få fellesnevnere mellom alle de ulike prosjektene som faller inn under dette begrepet. Hennes utgangspunkt er likevel at «mass digitization presents a new political cultural memory paradigm …».20
Massedigitalisering kan altså sees som et paradigmeskifte; altså som en grunnleggende forandring av måten vi i dag forvalter kilder og kunnskap om fortiden på. Det har perspektiver som går langt utover det ontologiske skiftet fra analog til digital form: massedigitalisering betyr en omforming (transformasjon) av fortidens kilder. Følgelig vil den også få vidtrekkende konsekvenser. Den fører for eksempel til at det vokser frem nye aktører, som møter de etablerte ved å etablere nye plattformer og møteplasser. Det betyr at massedigitalisering kan forandre de politiske omgivelsene for kulturhistoriske minneinstitusjoner. Med det mener hun at massedigitalisering kan få politiske virkninger. Og her kommer så Thylstrups mest sentrale argument: «Mass digitization of cultural memory is neither a neutral technical process nor a transportation of the politics of analog cultural heritage to the digital realms on a 1:1 scale.»21
Vi ser at Thylstrup her advarer oss mot å betrakte massedigitalisering som en nøytral, teknisk prosess. Tvert om, skriver hun, er massedigitaliseringsprosjekter høyst politiske, men ikke slik at de overfører politikken og policyen til kulturhistoriens analoge minneinstitusjoner over til den digitale sfæren i et en-til-en-forhold. Hun mener heller at massedigitalisering burde oppfattes som «an infrapolitical process that brings together a multiplicity of interests hitherto foreign to the realm of cultural memory».22 Massedigitaliseringens betydning ligger altså i hvordan den påvirker samfunnets infrastruktur, med de politiske implikasjonene som det innebærer. Thylstrup har funnet et ord for dette. Hun kaller virkningene for «infrapolitical» – og fenomenet for «infrapolitics.» På norsk blir det til adjektivet «infrapolitisk», og substantivet blir «infrapolitikk». Hun mener at dette er blitt underkommunisert i faglitteraturen om massedigitalisering.
Hele boken til Nanna Bonde Thylstrup har som formål å vise hva som ligger i denne infrapolitikken – både som begrep og som fenomen. Hun vil hverken for-
dømme eller hylle massedigitalisering, men vikle ut dens betydning og knytte den til samtidspolitikken.23 Med dette mener hun både nyliberalismen, senkapitalismen og det hun omtaler som de «sen-suverene» kreftene som i dag overskrider nasjonalstatens grenser. Thylstrups bok er uvanlig, fordi de fleste andre bidrag innenfor informasjonsvitenskap, datavitenskap og juss som oftest nøyer seg med å drøfte massedigitalisering gjennom ulike typer hvordan-spørsmål – uten å gå inn på det viktige hvorfor-spørsmålet. Ifølge Thylstrup er de fleste av disse studiene «problemløsende» og ikke «kritiske»: De søker å løse massedigitaliseringens praktiske utfordringer istedenfor å undersøke hvilke forutsetninger som ligger under og bak de store massedigitaliseringsprosjektene – for eksempel hva slags kunnskap de egentlig skaper. Hun spør for eksempel om hvor i den politiske konteksten den store trangen til å digitalisere i industriell målestokk egentlig kommer fra. Bidrag som bare er problemløsende, bidrar i liten grad til innsikt i denne typen spørsmål. Hun peker heller på de mer dyptgående strukturforandringene, sosiale mekanismene og politiske konsekvensene som massedigitaliseringen fører med seg.24
Thylstrup peker på at massedigitalisering knytter kulturarven til den transnasjonale epoken og ett av dens særlige uttrykk: den digitale kapitalismen. Den har så å si forvandlet kulturarvens institusjoner fra å være nasjonalstatens forvaltere av sitt lands kulturminner til å bli en del av den transnasjonale senkapitalismens økonomi. Kulturarvens forvaltere er blitt en del av det globaliserte samfunnet og rammes av utstrakt privatisering, globalisering og digitalisering. Det har satt biblioteker, museer og mange andre kulturarvinstitusjoner under press. En rekke aktører møtes i dette nye feltet; land som USA og bransjens teknologiske giganter, men også EU, policyskapere, toppsjefer, ansatte, datautviklere, ingeniører, lobbyorganisasjoner, programvareutviklere og forskere – så vel som lokale skanneroperatører, servere, kabler, algoritmer osv.25 Massedigitaliseringen knytter alle disse sammen og har satt det hele i spill. Den har gitt datamaskinene en ny rolle i forvaltningen av kulturarven – til og med som fortolkere. For allerede nå leses digitaliserte samlinger av maskiner istedenfor mennesker. Og tilleggsopplysninger til kildene – det vi kaller metadata – er blitt et spørsmål om maskinanalyse fremfor den typen kontekstualisering som levende mennesker kan utføre.26
Den store styrken ved Thylstrups bok er at hun setter ord på disse ikke-tekniske sidene ved massedigitaliseringen, for hun er veldig tydelig på at den ikke kan forstås som en uproblematisk og nøytral teknologisk prosess. Tvert om har den både økonomiske og politiske konsekvenser knyttet til privatisering, konsum og globalisering. Thylstrup knytter faktisk massedigitaliseringen direkte til vår tids nyliberalisme. Slik gjør hun massedigitalisering til et slags prisme som hun kan observere vår samtid igjennom, for å finne ut hvordan kulturarvens institusjoner og prosjekter ser ut i en sen-suveren fase, der de utfordres av en globalisering som
undergraver deres symbolske og politiske autoritet.27 Det er dette hun kaller «infrapolitikk.» Med dette begrepet har hun satt ord på de nye virksomhetene som ligger under og bortenfor enkeltstatens formelle apparat, organisert som de ofte er, som «glokale» og private eller som privatisert, materiell og sosial infrastruktur.28
Det er for å forstå massedigitalisering som fenomen at Thylstrup trekker inn nyliberalismen og hvordan den har påvirket infrastrukturen i mange land. Hun gjør det for å synliggjøre ting som ofte regnes som grunnleggende forutsetninger for mye av det vi har rundt oss i dag: verdiene, valgene og innflytelsen fra infrastrukturen blir ofte tatt for gitt og sett på som en selvfølge, og som deretter er blitt universelt akseptert.29 Det er derfor det er så viktig, skriver hun, at noen analyserer massedigitalisering og dens mer dyptgående konsekvenser.
Selv bidrar Thylstrup til dette med tre store casestudier. Den første gjelder Google Books, som er det mest omtalte prosjektet innenfor massedigitalisering i nyere tid. Fremstillingen hennes ble i 2021 supplert av de amerikanske bibliotekarene Deanna Marcum og Roger C. Schonfeld, som har gitt en inngående skildring av hele hendelsesforløpet for Google Books – sett fra den amerikanske biblioteksektoren.30 Om vi nå leser deres beretning opp mot analysen til Thylstrup, ser vi at Marcum og Schonfeld utfyller bildet av Google Books og langt på vei bekrefter hennes påstand om at massedigitalisering ikke er noen nøytral teknisk prosess, men heller koster og krever så mye og involverer så mange at det hele nærmest omdannes til et infrapolitisk felt, der ulike aktører driver med innbyrdes medspill og motspill. Noen vinner, andre taper. Slik fungerer massedigitalisering i dette nye infrapolitiske feltet. Det andre eksemplet som Thylstrup bruker, er nettstedet Europeana. Dette startet som sagt opp i 2008, som et europeisk svar på utfordringen fra Google Books. Det var franske politikere som drev saken frem og fikk EU til å støtte prosjektet. Dette var massedigitalisering initiert ovenfra og definert av Europa som geografisk og kulturell enhet – altså noe helt annet enn Googles prosjekt. Thylstrups tredje og siste case er de mange ulovlige nettstedene, som hun kaller for «skyggebiblioteker» fordi de befinner seg i et juridisk gråsoneland.31 Med dette har Thylstrup gitt oss tre eksempler som alle illustrerer hennes tilnærming til massedigitalisering, men på nokså ulike måter.
Mye av den faglitteraturen vi i dag har om massedigitalisering, henter sine eksempler fra den angloamerikanske verden eller fra de store europeiske landene. Derfor er det viktig at noen også lager studier av andre og mindre land – som for eksempel Norge. Selv et land i Europas nordlige periferi kan gjennomføre prosjekter av gigantisk omfang, selv om vi faktisk bare har en institusjon som opererer med de samme kildene og dimensjonene vi snakker om her. I sin bok nevner Nanna Bonde Thylstrup faktisk det norske Nasjonalbiblioteket og deres prosjekt – og omtaler det som «imponerende».32
Det er altså gode grunner til å gjennomføre en studie av massedigitalisering i Norge og hvordan den har foregått. I denne boken reiser vi derfor følgende problemstilling: Hva betyr det for vår kulturarv – her forstått som landets publikasjoner i alle former – at den nå omformes fra analog til digital form? Hvordan utfordrer dette de fagfeltene som studerer dem? Denne problemstillingen har jeg delt i fire delspørsmål. For det første: Hvordan har Nasjonalbiblioteket egentlig gjennomført massedigitaliseringen av landets historiske kilder? Det skal vi behandle i kapittel 1. For det andre: Hva betyr det for forskningen at granskning av fortidens kilder nå kan foregå på en dataskjerm som viser digitale versjoner av historiske originaler? Det skal vi behandle i kapittel 2. For det tredje: Hvordan har forskerne utviklet nye faglige tilnærminger for å møte de utfordringene som massedigitaliseringen nå skaper? Det skal vi se på i kapittel 3. Og for det fjerde: Hvilken betydning får det for brukere, forskere og historikere at de nå kan nyttiggjøre seg enorme datamengder og nye IT-verktøy? Det skal vi se på i kapittel 4.
Denne inndelingen tilsvarer grovt sett den enkleste kommunikasjonsmodellens skille mellom sender, budskap og mottaker: Senderen tilsvarer den massedigitaliserende institusjonen, budskap/innhold tilsvarer de digitale objektene som blir resultatet av prosessen – og mottakersiden aktualiserer hva brukerne av de digitaliserte datamengdene nå kan få til. Hele veien finnes det utfordringer og muligheter. Denne boken kombinerer viten om biblioteksektoren og informasjons- og kommunikasjonsteknologi med historieforskning og medievitenskap – og den retter seg mot historikere, historiestudenter, litteraturforskere, journalistikk- og mediestudenter, medieforskere, bibliotekarer og bibliotekstudenter og alle som er opptatt av hvordan vi forholder oss til fortiden i dag – med alt hva det innebærer i en digital tid.
Boken er derfor skrevet som folkeopplysning, og den retter seg mot dem som vil sette seg inn i dette for første gang, fordi det er viktig at flest mulig forstår hvor viktig massedigitaliseringen er – nå og fremover. Vi er derfor rett og slett nødt til å forstå hva massedigitalisering betyr, for, som Erik Lerdahl skriver: «Den som ikke møter bølgen, blir tatt av den.»33
Til slutt tre presiseringer. For det første: Begrepet «kulturarv» er veldig bredt og nesten altomfattende, så det trenger en presisering. I denne boken avgrenser vi begrepet til å gjelde alt som noen gang har vært publisert her i landet. Og landets offentliggjorte historie finner vi primært i ulike medier. Derfor er det medier forstått som historiske kilder det meste av det følgende skal handle om.
For det andre: Nasjonalbiblioteket er bokens casestudie. Vi ser derfor bort fra den andre store institusjonen på feltet, Arkivverket, selv om vi også skal nevne det flere ganger. En liknende bok som denne kan altså skrives om Arkivverket. Selv om fremstillingen trekker opp noen linjer gjennom Nasjonalbibliotekets virksomhet, er det ikke hensikten å skrive institusjonens historie her. Hverken det indre
livet i biblioteket ellers dets totale organisasjon hører med, men noen lange linjer er nødvendig som bakgrunn for å forstå det digitaliseringsprosjektet som denne boken handler om. Digitale samlinger utenfor Nasjonalbiblioteket, slik som A-tekst/Retriever, faller også utenfor rammene for denne boken.
For det tredje: Boken handler først og fremst om historisk primærmateriale i analog form som siden er blitt digitalisert og lagret som datafiler. Det er disse som primært blir behandlet i kapittel 3. Likevel skal vi også se litt på den store kontrasten: materiale som er blitt skapt digitalt (born digital), og som siden er blitt arkivert, slik at det kan gjenfinnes for forskningsformål (reborn digital material).34
Vi skal derfor også inkludere litt om Nasjonalbibliotekets lagring og arkivering av dagens nettmedier fra den norske delen av internett. Hvordan slik innsamling og lagring kan gjøres, er så omfattende at det allerede er skrevet egne bøker om det.35 Her åpner det seg så mange muligheter for videre forskning at det sprenger rammene for denne boken. Her trengs bidrag fra andre norske forskere, gjerne fra det punktet der denne boken slutter.
Ved å forandre nåværende mønster forandrer man også fortiden. Erik Lerdahl: Kunsten å overrumple seg selv, 2001: 61
Det var onsdag 29. mars 2006. I Nasjonalbibliotekets avdeling i Oslo trykket kulturminister Trond Giske på en knapp. Dermed skannet han omslaget til Henrik Ibsens første drama, Catilina, fra 1850. Det ble den første boken som Nasjonalbiblioteket digitaliserte i sin helhet. Skanningen var et symbolsk øyeblikk. For ved siden av stod nasjonalbibliotekar Vigdis Moe Skarstein. Sammen markerte de to starten på et prosjekt som hadde som mål å gjennomføre en fullstendig digitalisering av hele samlingen i Nasjonalbiblioteket. Skarstein sa at den digitaliseringen de nå startet, ville ta mellom 10 og 15 år å gjennomføre.
Kulturminister Trond Giske mente at den kommende digitaliseringen var «spesielt viktig», for det var vanskelig å finne relevant informasjon på internett fra tiden før det ble allemannseie. Han sa at «Det å få alt som er lagret før den digitale revolusjon, er veldig viktig. Jeg tror at om 10 til 15 år, vil vi ha alt tilgjengelig digitalt …». Han delte altså det samme tidsperspektivet som Vigdis Moe Skarstein, Nasjonalbibliotekets øverste leder. Kulturministeren la til at «Google skal ha litt av skylden for at dette har fått et puff fremover».1
«Inspirert av Google Book Search», skrev VG om seansen da kulturminister Giske trykket på skannerknappen. Avisen omtalte det nye prosjektets mål allerede i overskriften: «Nasjonalbiblioteket vil digitalisere alt.» Samme dag hadde Vigdis Moe Skarstein en stor kronikk i Aftenposten. Tittelen fortalte målet: «Europas første med alt på data».2 Prosjektet som Kulturdepartementet og Nasjonalbiblioteket nå gikk sammen om, var det norske svaret på det de to oppfattet som trusselen fra Google.
Det meste av digitaliseringen skulle foregå i Nasjonalbibliotekets avdeling i Mo i Rana. I juni 2006 omtalte lokalavisen Rana Blad prosjektet som «det største kunn-
kapittel 1: massedigitalisering på norsk …
skapsløftet i landets historie» – med en kostnad på en halv milliard kroner over 10–15 år. Ifølge avisen omfattet Nasjonalbibliotekets samling omkring 12 millioner objekter. Av disse var bare omkring en halv million objekter digitalisert så langt. Nasjonalbibliotekets IKT-direktør Svein Arne Solbakk sa at planen var «et av de mest ambisiøse digitaliseringsprosjekt som verden har sett til nå». Ingen andre nasjoner hadde nemlig bestemt seg for å gjennomføre full digitalisering av sine samlinger.3 Det norske svaret på utfordringen fra Google Books var altså massedigitalisering – men den skulle foregå på norsk måte, på et norsk materiale – og den skulle omtales med norsk politisk retorikk. Ved prosjektstart i 2006 var Nasjonalbiblioteket en nokså ny offentlig institusjon i Norge, selv om den kunne føre sine røtter langt tilbake. La oss se kort på tre faser i dets utvikling for å forstå mer av bakgrunnen og konteksten for den massedigitaliseringen som Nasjonalbiblioteket nå ville starte opp.4
Årene fra 1811 til 1980 utgjør dette bibliotekets første fase. Opprettelsen var en konsekvens av at kong Frederik VI av Danmark-Norge i 1811 besluttet å opprette et eget norsk universitet i Christiania. Universitetets navn ble Det Kongelige Frederiks Universitet og åpnet i 1813. Det nye universitetet måtte selvfølgelig ha sitt eget bibliotek. Begge institusjoner er altså eldre enn Grunnloven, som etablerte Stortinget og Høyesterett i 1814. Georg Sverdrup ble Universitetsbibliotekets første leder. Det tok ikke lang tid før hans institusjon ble tillagt funksjoner også som landets nasjonalbibliotek. Flere ganger siden ble det faktisk foreslått å endre navnet, slik at betegnelsen «Nationalbibliothek» skulle bli en del av tittelen. Men forslagene om dette ble avvist hver gang. Funksjonen som nasjonalbibliotek ble derfor underordnet rollen som universitetsbibliotek. Denne epoken er derfor blitt omtalt som «underordningsfasen».5
Allerede i 1815 innførte regjeringen en egen lov om pliktavlevering. Ordninger for bokinnkjøp ble også etablert. I tiårene som fulgte, ble Universitetsbiblioteket bygd opp til en stor akademisk boksamling. I 1883 ble Norske avdeling opprettet. Med den skilte biblioteket ut alle de norske bøkene i samlingen. Denne delingen ble først fullført i 1923.6 Fra da av opererte biblioteket med to kataloger: en norsk og en utenlandsk. Flere nye lover om pliktavlevering ble siden innført. Den nyeste kom i 1939, men den gjaldt kun for trykte skrifter.
Det viktigste ved Universitetsbiblioteket fra 1811 til 1980 var at dets oppmerksomhet først og fremst rettet seg mot bøker, eller mer presist: mot trykte skrifter. Selv om akademisk litteratur var en hovedoppgave, tok man også vare på aviser,
tidsskrifter og småtrykk. Det som falt utenfor, var andre medieformer enn det trykte ord. Derfor kan vi si at denne fasen var preget av underordning i dobbelt forstand. Først ble nasjonalbiblioteksoppgaver underordnet de funksjonene som fulgte av å være universitetsbibliotek. Deretter ble alle andre medietyper underordnet det trykte ord. Det skrevne og trykte ord i tallrike magasinhyller ble altså Universitetsbibliotekets hovedoppgave fra begynnelsen i 1813 og frem til 1980.
Årene fra 1980 til 2005 er bibliotekets andre fase. Det var da det nåværende Nasjonalbiblioteket ble til. Utredningene startet i 1980, og offisiell åpning fant sted i 2005. Disse årene er derfor institusjonens etableringsfase. Noe nytt var nå i ferd med å skje: Lagringen av bøker og litteratur ble utfordret av nye medietyper. Likevel fantes det ingen offentlig institusjon som tok seg av andre uttrykksformer enn trykte skrifter. Rollen som universitetsbibliotek definerte fortsatt virksomheten som en støttefunksjon for akademisk arbeid.7
Den store forandringen inntraff med et utvalg ledet av historikeren Berge Furre. Dets oppgave var å revidere den gjeldende pliktavleveringsloven fra 1939. I 1984 la utvalget frem sitt forslag: en utredning på 221 sider med tittelen «Frå informasjon til kulturarv». Utvalget var blitt oppnevnt av regjeringen i 1980. Foruten Berge Furre var flere andre kjente navn involvert i arbeidet, slik som forlagssjef Tor Bjerkmann i Pax forlag og historieprofessor Sivert Langholm. Utvalget konsulterte også eksperter, slik som musikkhistorikeren Nils Grinde, musikkformidleren Ella Arntzen i NRK og kringkastingshistorikeren Hans Fredrik Dahl.
Utvalget samlet seg om å vurdere selve avleveringsplikten for dokumenter i ulike medier. For dem gjaldt at bare en begrenset del av det som ble produsert i Norge av skrift, lyd og bilde ble registrert og bevart systematisk. Hver eneste dag gikk det tapt verdifullt kulturstoff og viktig historisk kildemateriale på grunn av dette. Kirke- og undervisningsdepartementet så det derfor som «ønskjeleg» å få utredet hvordan dokumenter i vid forstand «best kan bli teke vare på og gjort tilgjengelege for forsking og kulturformidling». For alle andre felter enn for trykksaker «saknar ein lovheimel for krav om levering og systematisk oppbevaring», het det. Utvalget skulle derfor se på arkivering av skrift, lyd og bilde.8
Det fremstod nå mer og mer som et problem at 1939-loven om pliktavlevering bare omfattet trykte skrifter på papir. En lang rekke nye medier var jo kommet til siden da, slik som mikrofilm og mikrofisch – samt film, radio, TV, video og EDB-dokumenter. Kort sagt: Det 20. århundrets medier ble ikke tatt vare på for fremtiden. Furre-utvalget pekte på at de nye mediene «fungerer analogt med
kapittel 1: massedigitalisering på norsk …
trykksaker i den meining at dei ber fram ein bodskap som blir tilgjengeleg for ålmenta». Det betød «ei mengd dokument som må sikrast for framtida».9
Furre-utvalget etablerte ett avgjørende kriterium for fremtidig lagring: at materialet var gjort «allment tilgjengelig». Med det mente de alle verker som ble fremført utenfor det private området, eller når eksemplarer av verket ble budt frem for salg, utleie, utlån eller på andre måter ble spredt utenfor privatsfæren. Betegnelsen «dokument» definerte utvalget som ett eller flere like eksemplarer av et verk som lagrer informasjon for senere overføring, lytting eller lesning. Utvalget definerte også begreper som film, forlag, forlegger, kortfilm, langfilm, kringkastet materiale, lydfesting, EDB-dokument og maskinlesbar informasjon. Slik kom Furre-utvalget til å definere alle nye tekniske formidlingsformer (utenom trykksaker) og pekte så på at den eksisterende pliktavleveringsordningen ikke svarte til «dagens mediesituasjon. Meir og mer av den nasjonale kulturen i vidaste meining blir boren fram i anna form enn som trykksaker. Det går tapt fordi det ikkje finst ordningar som sikrar dokument i andre media enn papir for ettertida.»10 Utvalget viste til at «Knapt nokon sektor av samfunnslivet kan fungera utan kunnskap og medvet om fortida». Kulturbevissthet og identitet for individer, grupper, klasser og nasjoner «føreset kunnskap om fortid og fortids samanheng med samtid». Utvalget pekte på samtidens «medierevolusjonar» – samtidig som «dei dramatiske endringane gjer at samanhengen med fortida lettare kan kjennast tapt».11
For utvalget var det derfor viktig å «syta for at kjelder til kunnskap om vår tid blir tekne vare på både for vår samtids studiar av eiga tid, og for dei som kjem etter oss … Slikt kulturvern er altså eit slag samtidsteneste for ettertida.» Problemet var at «vi i vår samtid ikkje veit hva slag teneste ettertida ønskjer av oss … men når tida kjem og framtida spør, vil det vere for seint – dersom vi ikkje har gjetta rett.» For: «I prinsippet kan alt som blir til i vår samtid, gi svar på spørsmål som blir stilte i framtida.»12 Utvalget skrev at «liksom vi stiller nye spørsmål til fortida, som aldri var stilte før, vil framtida stilla spørsmål om vår samtid som vi ikkje kan kjenna på førehand». De nye ordningene som utvalget foreslo, skulle derfor «gi tilgang til svar på spørsmål som ikkje er stilte, og spørsmål vi ikkje kan tenkja oss – frå menneske vi ikkje kjenner». Utvalget var opptatt av «dokument i vidaste meining, som ber tanker og sanseinntrykk vidare gjennom skrift, lyd og bilete i ulike media og med ålmenta som målgruppe».13 Utvalget la prinsipielt til grunn at «alment, tilgjengeleg informasjon formidla i alle typar media skal avleverast». Formålet var å bygge opp «ei nasjonal samling for studiar og forsking i nåtid og framtid».14 Furre-utvalget fant det altså påtrengende å oppdatere lovverket. Loven fra 1939 var blitt 45 år i 1984.
Lest i ettertid er Furre-utvalgets utredning et overraskende dristig, fremsynt og moderne dokument. De skrev ikke bare om alle de nye tekniske medieformene i det 20. århundre, men også om EDB-dokumenter og mikrofilm og mulighetene
for bokstavgjenkjenning gjennom Optical Character Recognition (OCR). Utvalget så for seg en fremtid der skrivemaskiner ble erstattet av tekstbehandlingsterminaler med digital lagring av teksten. Man måtte venne seg til å se på tekst som «database», het det, for i løpet av få år ville tekst- og bildemateriale bli lagret digitalt i datamaskiner for deretter å bli kjørt ut ferdig montert. Utvalget skrev også om fremtidens «intelligente kopieringsmaskinar» og om maskinlesbar informasjon.15
Datamaskinene ville bli mindre og kraftigere, signalene ville gå raskere og kreve mindre energi, og det ville komme «tenkjande datamaskinar». Utvalget pekte på nye medieformer som interaktiv videotex og teledata og spådde at datamaskiner snart ville bli allemannseie. Datamaskiner i hjemmet ville bli like vanlige som fjernsyn.16 Nye lagringsformer stod i kø: magnetplaten, magnetbåndet, disketten, datakassetten og videoplaten.17 Dette ble skrevet mange år før DVD-platen ble alminnelig. Utvalget skrev til og med om «breibandssamband». Og de forklarte at forkortelsen «Bit» stod for «Binary digIT», altså det binære tallsystemet med 0 og 1 som de eneste verdiene. Også overføringsmåten «pakkesvitsjing» skrev de om – altså den overføringsmetoden som er grunnlaget for internett. Utvalget viste til at «Fagfolk meiner vi står ved starten til ei utvikling som radikalt vil endra den informasjonsformidlinga vi har i dag».18
Utvalget til Berge Furre var altså godt orientert om fremtidens teknologiutvikling. De tok ikke bare for seg hele den nyeste teknologiske utviklingen innenfor mediefeltet, men tok det enda noen hakk videre ved å spørre «Kor haldbare er lagringsmedia?». Svaret ga de selv: «Informasjon på magnetiske media kan ikkje bevarast i all framtid. Informasjonen vil etter kvart forsvinna.»19 Magnetbånd kunne bare lagre sitt innhold i 15–20 år dersom de ble oppbevart under gunstige forhold. Det var også mange problemer ved det eksisterende Universitetsbiblioteket: Bygningen var gammel og nedslitt og plassmangelen stor. Lagringsforholdene for langsiktig oppbevaring av papirdokumenter var dårlig,20 og institusjonen slet med knappe personalressurser.
Men utvalget var offensivt og tenkte nytt. For det første ville de utvide ordningen med pliktavlevering. Den måtte utvides til å inkludere alle typer medier og ikke lenger begrenses til bøker og trykte skrifter. For det andre ville de utskille rollen som nasjonalbibliotek fra rollen som universitetsbibliotek, altså dele Universitetsbiblioteket. Et nytt «nasjonalbibliotek» ville bli en helt ny type institusjon i Norge, med ansvar for å ta imot, registrere, bevare og låne ut pliktavleverte dokumenter. Utvalget mente at det påtenkte nasjonalbiblioteket burde ta utgangspunkt i Norske avdeling og få overta Universitetsbibliotekets gamle lokaler på Solli plass i Oslo – utvidet med et tilbygg. Det gamle Universitetsbiblioteket burde så få et nybygg på Blindern. En egen offentlig institusjon burde altså etableres for å ta seg av alt pliktavlevert materiale – som utvalget omtalte som «kulturarven».
kapittel 1: massedigitalisering på norsk …
Begrepet «kulturarv» var et nøkkelord for Furre-utvalget. De kalte jo hele utredningen sin for «Frå informasjon til kulturarv». Men hva som skulle ligge i denne betegnelsen, var likevel nokså åpent. Derfor er det interessant at utvalget tok i bruk et annet ord i enda større grad, nemlig begrepet «medium». Utvalget gjorde nemlig mediebegrepet til selve grunnlaget for alle sine forslag. Forslagene deres vokste så å si ut av deres definisjon av mediebegrepet som «noko som kan lagra informasjon».21 Og siden nær sagt alt kunne brukes til å lagre informasjon – eller mer presist; bevare det innholdet som selve lagringsmåten fastholdt fra fortid til samtid – måtte det følgelig tas vare på. Det var strengt tatt ikke mediene forstått som kommunikasjonsmidler Furre-utvalget var opptatt av, men en smalere tilnærming til mediene: De ble oppfattet som lagringsformer. Dette var et mer spisset mediebegrep, men det var dette utvalget la til grunn for den nye institusjonen de så for seg. Den skulle omfatte alle lagringsformer – gamle og nye, brede og smale, med høy og lav status osv. Alle former skulle tas vare på. Utvalgets mediebegrep var så bredt at det inkluderte både bøker og litteratur, så vel som postkort, kart, plakater osv. – og alle andre tekniske former som tok vare på sitt innhold, slik som aviser, tidsskrifter, foto, film, radio og TV. Slik kom mediebegrepet til å bli inngangen til hele landets kulturarv. Eller mer presist: Mediebegrepet ble måten Furre-utvalget operasjonaliserte hvordan kulturarven skulle oppfattes og defineres på, både praktisk og teknisk.
Derfor var det egentlig et mediatek Furre-utvalget så for seg, et slags riks-mediatek. Her var utvalget svært nytenkende. De var derimot ikke like nytenkende når det gjaldt institusjonens navn. Hadde de vært helt konsekvente i sin ordbruk, kunne de kalt den nye institusjonen for «Nasjonalmediateket», men de holdt seg i stedet til bokbransjens tradisjonelle bibliotekbegrep da de foreslo at navnet burde være «Nasjonalbiblioteket» – selv om det altså var medieformer av alle typer som skulle være dets virkefelt – ikke bøker alene. Furre-utvalget var likevel mer mediesentrert enn boksentrert, og de brukte til og med betegnelsen «norsk mediehistorie» allerede på side 2.22 Det er en oppsiktsvekkende tidlig bruk av denne betegnelsen, for i 1984 fantes ikke «mediehistorie» som noe akademisk fagfelt, hverken i Norge eller i utlandet. På dette tidspunktet fantes det heller ingen fagbøker, tidsskrifter eller fagartikler som drøftet hva «mediehistorie» var. I 1984 var det fortsatt tre år til Universitetet i Oslo skulle opprette et nytt og tverrfaglig Institutt for medier og kommunikasjon – og enda mye lenger frem før «mediehistorie» ble etablert som gjenstandsfelt der.
Dette viser at Nasjonalbiblioteket var tenkt som en medieinstitusjon helt fra unnfangelsesøyeblikket: Dets oppgave skulle være å ta vare på den informasjonen som var lagret i ulike medieformer. Den nye institusjonen skulle dermed være noe annet enn et tradisjonelt bibliotek, men siden bøker var «noko som kan lagra infor-
31. januar 2023 åpnet Nasjonalbiblioteket sitt nye fjellanlegg i Mofjellet i Mo i Rana. Fjellhallene er så store at de kan romme hele Nidarosdomen. Dette er Norges nye kunnskapskatedral. Åpningen markerte starten på en ny epoke: I årene som kommer skal enorme mengder historisk materiale lagres inne i dette fjellet – både i fysisk og digital form. Men hva betyr det egentlig når stadig større deler av vår historie overføres til digitale formater og lagres slik?
Boken gir en bred innføring i hva digitaliseringen av historiske kilder betyr for vår oppfatning av fortiden, landet og oss selv. Du kan lese om hva massedigitalisering er, om hvordan ulike medieformer omskapes av digitaliseringen, om det nye fagfeltet digital historie – og om «big data» og bruken av nye IT-verktøy i historieforskningen. Sentralt i fremstillingen står mediebegrepet, som går igjen i alle prosessene boken omtaler.
Boken henvender seg til alle som er interessert i vår kulturarv, og er særlig egnet for lesere som møter denne tematikken for første gang, i fag som historie, bibliotek- og informasjonsfag, teknologi- og kulturfag, så vel som journalistikkstudier og mediefag.
henrik g. bastiansen (f. 1964) er professor ved Avdeling for mediefag ved Høgskulen i Volda. Han har utgitt en rekke bøker og artikler om medier og mediehistorie, blant annet Norsk mediehistorie. 3. utgave (2019) med Hans Fredrik Dahl, og Å formidle det ufattelige. Mediene og Holocaust (2023) (red.) med Carl Emil Vogt. I denne boken tar han med seg sin mediehistoriske bakgrunn inn i de problemstillingene som digitaliseringen av historiske kilder og medier reiser.