zum Hauptinhalt

Meinung: Alle Bücher ins Netz

Ein Plädoyer für die Digitalisierung der Bibliotheksbestände Von Walther Umstätter

Wenn Wissen Macht bedeutet, dann bergen Bibliotheken das größte Machtpotenzial. Diese Erkenntnis gewinnt zurzeit neue Aktualität, weil der Wechsel von der klassischen Bibliothek zur digitalen Bibliothek immer rascher voranschreitet.

Bücher, die im Volltext über das Internet angeboten werden, sind nichts Neues. Erinnert sei an Bibliomania, Ebook Library, Ebrary, Electronic Text Center, Internet Archive, Net Library, Online Books Page, das Gutenberg Projekt oder an Questia. Die damit verbundene digitale Bibliothek sollte jedoch weder mit einer elektronischen Buchhandlung wie Amazon noch mit der virtuellen Bibliothek verwechselt werden, die einst multidimensionale Möglichkeiten der Wissensvernetzung bieten wird. Auch die Befürchtung, dass die digitale Bibliothek keine gedruckten Bücher mehr haben wird, ist abwegig.

Eigentlich hatte die digitale Bibliothek 1963 mit dem „Weinberg Report“ als Antwort der USA auf den Sputnik-Schock (1957) ihre Geburtsstunde. Damals erkannten die USA, dass man sich unbeabsichtigte Doppelarbeit im internationalen wissenschaftlichen Wettbewerb nicht leisten kann. Folglich begannen sie mit der Digitalisierung von Bibliografien und Katalogen. Danach wurden immer mehr neu erscheinende Texte in so genannten Volltextdatenbanken recherchierbar gemacht. Schon 1963 schätzte man, dass rund zehn Petabit an Information in der US-amerikanischen „Library of Congress“ lagern. Eine Digitalisierung des Gesamtbestandes stellt heute kaum noch eine Herausforderung dar.

Je nach Dateityp, Qualität, Bestandsgröße einer Bibliothek, Formenvielfalt der Bestände, Seitenumfang der einzelnen Bücher oder auch der Berücksichtigung der notwendigen Schonung derselben, ist die Digitalisierung unterschiedlich aufwendig. Während der Vorgang vor Jahren durchschnittlich tausend Dollar kostete, rechnet man bei heutigen Großprojekten unter Einsatz modernster Robotik noch mit zehn Dollar.

Darum hat Google im Jahr 2004 mit den Bibliotheken der University of Michigan, Harvard, Stanford, Oxford und der New York Public Library sein Digitalisierungsprojekt „Google Print“ bzw. „Google Book Search“ (GBS) gestartet. Google hat bekräftigt, sich rechtlich selbstverständlich in den Grenzen des „fair use“ zu bewegen. Dieses „fair use“ hat im angloamerikanischen Raum Tradition und regelt, vergleichbar der momentanen Diskussion in Deutschland, in welchen Grenzen kopiert werden darf. Dass Verlage befürchten, sie könnten erhebliche Einbußen erleiden, wenn das Kopieren immer leichter wird, ist nahe liegend. Folglich strebt man nach technischen Lösungen, die jede Kopie registrieren.

Bei GBS plante man zunächst in sechs Jahren die Digitalisierung von sieben Millionen Büchern, wobei die jeweiligen Bibliotheken eine elektronische Kopie ihrer Bestände erhalten werden. Wenn Harvard allein rund 15 Millionen Bücher besitzt, geht es voraussichtlich zunächst eher um die Altbestände, die nach der Digitalisierung besser vor Abnutzung geschützt und wesentlich einfacher weltweit zugänglich gemacht werden können.

Prominent unterstützt wird das Projekt von Al Gore, dem ehemaligen amerikanischen Vizepräsidenten. Gore sieht sich gerne als „Erfinder des Internets“ und wurde kürzlich im Boston Globe (17. März), zum „grandfather of the Google Library Project“ gekürt.

Die Digitalisierung von Büchern wird kommen. Zum Schutz vor Zerfall und zur Vereinfachung des globalen Zugriffs auf Wissen. Wenn sich heute Verlagshäuser gegen die Digitalisierung der Buchbestände wehren, erinnert das an die Auseinandersetzung zwischen Old und New Economy. Jene Verlage, die den technischen Fortschritt mitgehen und sich die neuen Technologien zu Nutze machen, werden die Gewinner sein. Die anderen bestraft das Netz.

Der Autor lehrt am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität zu Berlin.

-

Zur Startseite

showPaywall:
false
isSubscriber:
false
isPaid:
showPaywallPiano:
false