zum Hauptinhalt

NETZ IM BILD: Heute hier, morgen dort, aber wo?

Weltweit versuchen Nationalbibliotheken, der Vergänglichkeit des Netzes Herr zu werden. Der Anspruch ist hoch: Es geht um die ewige Aufbewahrung des Internets.

hre, wem Ehre gebührt: Wer von Internetarchivierung spricht, kommt an Brewster Kahle nicht vorbei. Schon 1996, noch bevor das Netz wie selbstverständlich zum Alltag der Massen gehörte, hatte der amerikanische Informatiker die Idee eines vollständigen, globalen Internetarchivs. Seitdem gilt sein „Internet Archive“ als erste Anlaufstelle für alle, die nach längst verschollenen Web-Welten suchen. Die Zeitreise hat allerdings ihre Haken: Inhalte, die älter als zehn Jahre sind, werden oft nicht richtig dargestellt oder bleiben unauffindbar. Von vielen Seiten existieren ohnehin nur zufällige, unregelmäßige Schnappschüsse. Auch die Suchfunktion der multimedialen Datenbank ist alles andere als ausgereift. Bundeskanzlerin Angela Merkel kommt gerade mal auf 80 Treffer.

Vielleicht ist der Anspruch des Internet Archive einfach zu hoch. In den Nationalbibliotheken, also den staatlichen Institutionen, die traditionell für die Sammlung aller Publikationen eines Landes zuständig sind, backt man jedenfalls kleinere Brötchen. „Wir konzentrieren uns im Moment auf eBooks, Online-Journale, wissenschaftliche Publikationen und digitale Ausgaben von Tageszeitungen“, erklärt Stephan Jockel, Pressesprecher der Deutschen Nationalbibliothek (DNB). Den dazugehörigen gesetzlichen Sammelauftrag hat die DNB seit 2006, seitdem sollen und müssen alle deutschsprachigen Netzpublikationen aus dem In- und Ausland archiviert werden. Eine Auswahl trifft die Bundesbehörde dabei nicht. Von der Doktorarbeit bis zum Roman aus dem Self-Publishing-Verlag gilt alles als bewahrenswert.

Trotzdem ist die Beschränkung auf Formate wie Epub oder PDF fragwürdig. Was ist mit Blogs, Foren, Nachrichtenseiten, was mit Wikipedia, Facebook oder Twitter? Die Grenzen zwischen Lesenden und Schreibenden, zwischen Sendern und Empfängern sind im Netz hinfällig geworden, letztlich ist alles eine Form der Publikation. Stephan Jockel bestreitet das gar nicht. „Der Sammelauftrag geht natürlich weiter, demnächst fangen wir deshalb auch an, Webseiten von Parteien, Bundesbehörden und gemeinnützigen Organisationen zu archivieren.“ Noch müsse man sich notgedrungen auf solche relativ statischen Inhalte beschränken. „Denn wir sollen ja nicht nur sammeln, sondern auch erschließen und zugänglich machen.“

Nur – wie soll das konkret funktionieren? Weltweit suchen Archivare nach Strategien und Richtlinien, wie sich das Internet, diese überbordende, hochdynamische Datenflut, sinnvoll sortieren, ablegen und aufbewahren lässt. Weil die Fragen drängend und die Antworten schwierig sind, hat man einen Dachverband gegründet, das International Internet Preservation Consortium. Regelmäßig treffen sich die Mitglieder auf Kongressen, vergeben Fördergelder und tauschen Erfahrungen aus.

Das ist bitter nötig, denn bislang gibt es noch keinen internationalen Standard in Sachen Netzarchivierung. Während in Deutschland erst seit sechs Jahren massenhaft elektronische Publikationen gesammelt werden, hat in den USA die Library of Congress schon vor zwölf Jahren begonnen, thematische Sammlungen anzulegen. Mittlerweile stehen zu etlichen außen- und innenpolitischen Ereignissen, darunter die amerikanischen Präsidentschaftswahlen, die Anschläge des 11. September, der Irakkrieg und die Krise von Darfur umfassende Einzelarchive zur Verfügung.

In Großbritannien wiederum setzt man seit 2004 auf die kontinuierliche Speicherung einiger tausend repräsentativer Webseiten. „Bislang geschieht das manuell“, erklärt Helen Hockx-Yu, Leiterin der Abteilung Web Archiving der British Library. Das sei aber personell aufwendig und inhaltlich unzureichend. Ihr Team entwickelt deshalb gerade eine Software, mit der sich der Prozess in Zukunft teilautomatisieren lässt, „Twittervane“ heißt das Programm. „Damit werten wir über einen bestimmten Zeitraum die Tweets zu einem Ereignis aus, zum Beispiel zu den Olympischen Spielen.“ Das Programm ermittelt dabei die Links, auf die sich die Twitternutzer gegenseitig aufmerksam machen. „So können wir erkennen, welche Inhalte besonders beliebt sind und die meistempfohlenen Webseiten bei unserer Archivierung berücksichtigen.“

Wie Methoden des Crowdsourcing, die Einbeziehung der Massen im Netz und ihrer Interessen, die Arbeit der Archivare sinnvoll ergänzen können, ist nur eines von vielen Forschungsfeldern. „Die digitale Archivierung wirft kuratorische Fragen auf, aber auch juristische und technische“, so Hockx-Yu. Dazu gehört das umstrittene Thema Urheber- und Verwertungsrechte – denn die Archive müssen, um ihrem Auftrag nachzukommen, digitale Kopien erstellen und Inhalte wieder öffentlich zugänglich machen dürfen. Vor allem aber müssen sie gewährleisten, dass die kulturellen Schätze in den digitalen Archiven in Zukunft überhaupt noch lesbar sind.

Auch wenn die Verfallszeiten von Dateiformaten und Endgeräten immer kürzer werden. „Wir archivieren ja nicht nur für ein paar Jahre“, sagt DNB-Sprecher Jockel. Nationalbibliotheken denken langfristiger als die meisten Webseitenbetreiber, genauer gesagt: für die Ewigkeit.

Wie der Weg in die ewige Lesbarkeit aussehen kann, daran forscht Tabea Lurk an der Hochschule der Künste in Bern. „Grundsätzlich gibt es zwei Strategien für die digitale Archivierung“, erklärt die Wissenschaftlerin, „die Migration und die Emulation.“ Bei der Migration werden die Daten immer wieder in neueren Versionen abgespeichert. „Das Problem ist, dass wir dabei Verluste hinnehmen müssen.“ Oft ändert sich bei der Archivierung die Darstellung oder die Navigation. Die Authentizität des Originals geht also verloren – für einen Archivar ist das absolut inakzeptabel.

Mit gelegentlichen Aktualisierungen ist es deshalb nicht getan. In den Metadaten des Materials muss akribisch dokumentiert werden, welche Software, welches Betriebssystem und welche Hardware benötigt werden, um ein Dokument im Zweifel emulieren, also originalgetreu nachbilden zu können. Richtungsweisend für Archivare ist dabei noch immer jener Standard, den die US-Raumfahrtbehörde Nasa bereits 1999 entwickelte und der unter dem Begriff „Open Archival Information System“ bis heute Referenzmodell für dynamische digitale Langzeitarchivierung ist.

„Bei komplexen digitalen Objekten setzen wir ohnehin auf Emulation“, sagt daher auch Tabea Lurk, deren Hochschule ab 2013 einen Aufbaustudiengang für Restauratoren, Kuratoren und Künstler anbietet. Allerdings ist das Aufbewahren der alten Geräte dabei auch nur eine mittelfristige Lösung. Stattdessen müssten Archive und Museen zukünftig in der Lage sein, historische Abspielumgebungen an neueren Geräten zu simulieren. In Bern kooperiert man deshalb eng mit den Kollegen aus der Informatik. „Und natürlich mit der Spiele-Community“, sagt Lurk, „die ist da schon sehr weit.“

Dass in Zukunft noch viele solcher interdisziplinärer Projekte nötig sind, davon ist auch Helen Hockx-Yu überzeugt: „Das Netz beinhaltet so viele Informationen, dass es die Ressourcen einer einzigen Institution weit übersteigt, das alles zu archivieren.“ Es bedürfe einer gemeinsamen kulturellen Anstrengung, auch Unternehmen, Organisationen oder Privatpersonen müssten für die Sicherung des digitalen Erbes Verantwortung übernehmen. „Wir können den Job nicht alleine machen.“

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false