Digital Humanities : Garagenbastler der Geisteswissenschaften

Den Digital Humanities fehlt ein sinnstiftendes Manifest: Es gilt, die Lücke zwischen Datensammlern und Gelehrten zu schließen. Ein Gastbeitrag.

Jens Loescher
Eine Frau sitzt in einer Bibliothek an einem Tisch, im Hintergrund sind Gipsköpfe von Gelehrten zu sehen.
Was kommt nach der Gelehrtenkultur? Jens Loescher sieht in der digitalen Wende eine Chance, sich methodenkritisch auf das zu...Foto: Imago/Stefan Noebel-Heise

Jüngst gab es – wieder einmal – die Krise der Germanistik. Dabei verdeckt das immanente Rotieren um die nächste Theorie oder das simple „Weiter-so“ das Ausmaß, mit dem die digitale Wende die Geisteswissenschaften fordert. Es geht nicht um Hermeneutik plus digitale Technik, sondern um eine „digitale Heuristik“ (Peter Haber), die alte und neue Methoden verknüpft und so die Perspektive unserer Fächer erneut schärft.

Die viel gescholtene Unfähigkeit unserer Studierenden, sich die historischen Inhalte und die verstehende Methode unserer Disziplinen zu erarbeiten, kann auch damit zusammenhängen, dass die digital natives von unseren Werkzeugen der Wissens- und Evidenzgenese nicht mehr überzeugt sind. Insofern birgt die digitale Wende die Chance, sich methodenkritisch auf das zu besinnen, was unsere Fächer ausmacht.

Nostalgisch blickt das Fach auf die Gelehrtenkultur

Die Digital Humanities sind ein Fach, dessen Inhalte und Qualitätsstandards seit geraumer Zeit der Klärung harren. Während sich die Germanistik ausdiskutiert hat, fehlt den digitalen Geisteswissenschaften das Manifest. Woran liegt das? Das Fach ist längst auf der Reise in neue Gefilde, will aber immer noch in Ithaka ankommen. Nostalgisch blickt es, wie die Kritiker der Germanistik, auf die Gelehrtenkultur, die einem anderen, dem analogen Dispositiv entstammt. Gleichzeitig wird kurztaktig und projektbezogen Software auf den Markt geworfen.

Ein roter Faden ist in dieser „Parade von Prototypen“ (Franciska de Jong) kaum erkennbar, weil die inhaltlichen Fragen den Kategoriensprung der technischen Entwicklung nicht mitvollzogen haben. Automatisiertes Rechnen ist kein Mikroskop, und auf den Schultern von Riesen thront nicht mehr der Zwerg allein. Die Tüftler und Programmierer unter den ersten Digital Humanists hatten den Mut, technikaffin und theoretisch zu denken. Diese Personalunion aus Garagenbastler und Gelehrtem klafft gegenwärtig auf. Wer macht sich Gedanken über inhaltliche Zielsetzungen digitaler Innovation?

Die aktuellen Themen der Digital Humanities setzen dafür die richtigen Akzente, bleiben aber (noch) ohne die theoretische und brückenschlagende Verve, die das Fach in der Öffentlichkeit erst zwingend machte. Datenvisualisierung ist gut, läuft aber Gefahr, die feinen Ausschläge der statistisch generierten Ergebnisse zu kappen. Stilometrie und digitale Gattungsforschung sind gut, aber vermeiden letztendlich die Tuchfühlung mit dem Text und holen damit das hermeneutische Fragen des Geisteswissenschaftlers nicht in die digitale Domäne. Korpusbasierte Methoden sind gut, kranken aber an fehlender Repräsentanz der Datengrundlage und an anfälligen Auszeichnungswerkzeugen.

Die transdisziplinäre Bereithaltung von Daten und Werkzeugen ist gut, verschafft aber dem Fach keinen Masterplan. Räumliche Repräsentationen wie virtuelle Forschungsumgebungen und 3-D-Modelle sind gut, entfalten aber (noch) nicht die intellektuelle Schubkraft, die Franco Moretti einst von literarischen Räumen zur digitalen „Verräumlichung“ der Literatur führte.

Es gibt kein Zurück - selbst wenn wir wieder Papier und Bleistift benutzen

Viele Philologen, auch meine Lehrer, prägt trotz aller turns die Auffassung, dass die Wissensspeicher der Literatur als ästhetisch vermittelte quantitativ uneinholbar sind, sich allenfalls sukzessive einer genauen Lektüre öffnen. In anderen theoriefernen Spielarten wird Wissen im „Dialog“, im „Sinnhorizont“ zwischen Rezipient und Text oder im Vorgang der Rezeption generiert. In jedem Fall entzieht sich der Text oder das Werk als singuläres der Empirie, die ja per Definition auf vielen Datenobjekten aufbaut. Hermeneutik als Leitkonzept ist seit ihren romantischen Ursprüngen gerade nicht „öffentlich“ und kollaborativ. Erst recht nicht replizierbar. Das setzt unsere Evidenz in fundamentalen Kontrast zu quantitativen Verfahren und zur Arbeitsweise im Netz.

Die Chance des Fachs Digital Humanities liegt in der Kombination der Paradigmen. In einigen grundsätzlichen Arbeiten schlägt der britische Digital Humanist Willard McCarty ein „kognitives“ Gedankenexperiment vor: Wie andere technische Sattelzeiten bringe die digitale Wende die Zumutung mit sich, das eigene Denken für den neuen Formalismus handhabbar zu machen. Selbst wenn wir fortan wieder Papier und Bleistift benutzten, bleibe, so McCarty, diese Zumutung bestehen. Computer sind nun einmal nicht mehr „wegzudenken“.

Leibniz’sche Gedankenalgebra könnte in der Tat die Kluft zwischen informatischer und geisteswissenschaftlicher Fachkultur verringern, die viele interdisziplinäre Projekte vor Belastungsproben stellt. Informatiker wollen Prozesse automatisieren und brechen deshalb geisteswissenschaftliche Fragestellungen auf handhabbare Formate herunter. Es gibt, mit Ausnahme der musikwissenschaftlich interessierten Informatik, keine Versuche, hermeneutische Prozesse in maschinenlesbaren Programmen abzubilden. Geisteswissenschaftler haben kein Gespür dafür, wie komplex Algorithmen gestaltet sein müssen, damit Melodien nach Ähnlichkeiten geordnet oder antiquierte Worte erkannt werden können. Von Synthesen dieser niedrigschwelligen kognitiven Schritte ganz zu schweigen.

Von den Schwächen der Wikipedia lernen

Mich interessiert in diesem Zusammenhang weniger das formale re-engineering von kognitiven Prozessen, sondern deren Ergebnis: die topologische Verteilung des Wissens. Wir alle nutzen das „Schmuddelkind“ Wikipedia. Wikipedia ist eben keine Gelehrtenenzyklopädie, sondern eine von den Massen verfasste, redigierte, erweiterte und prinzipiell unabgeschlossene Wissensbasis, im inkrementellen, also schrittweisen, Zuschnitt eine Weiterführung von Diderots und d’Alemberts Aufklärungsprojekt. Die Versionsgeschichte eines beliebigen Eintrags lehrt durchaus Respekt vor dem offenen Format und dem langen Atem der crowd. Ganz abgesehen davon, dass communities in der Medizin oder Biologie, die ihre Wikis und Wikipedia-Seiten betreuen, ja auch schon „massenhaft“ agieren, nicht aus der Gelehrtenstube heraus.

Die Stärke der Wikipedia ist auch ihre Schwäche: das gesamte Weltwissen inkrementell abzubilden, erfordert eine Klassifikation der Inhalte. In schönem Rekurs auf die antiken und scholastischen Anfänge der Wissensorganisation wird dies neudigital Ontologie genannt. Disziplinen wie die Biologie, die seit jeher klassifikatorisch arbeiten, haben mit dem Transfer ihrer Bestände in Wissensbasen kein Problem. Es liegt auf der Hand, dass dies mit geisteswissenschaftlichen und kulturellen Inhalten anders bestellt ist. Verzichtet man, wie Wikipedia, auf eine Ontologie, dann wächst das Wissen ungeordnet und – noch schlimmer – unverknüpft. Das „Erdferkel“ wird nicht den „Röhrenzähnern“ untergeordnet und diese nicht den „Höheren Säugetieren“, sondern sie existieren gleichberechtigt und isoliert nebeneinander. Sind „Erdferkel“ in Mode, wächst die Zahl der Einträge, und es entsteht der Eindruck, dass „Erdferkel“ „über“ den „Röhrenzähnern“ stehen.

Vom semantischen Netz, das neues Wissen generiert, trennen uns Lichtjahre

Deshalb wurde vor zehn Jahren das Projekt DBpedia ins Leben gerufen, das die sogenannten Infoboxen der Wikipedia übernimmt und die dort vorhandenen digitalen Objekte mit Eigenschaften versieht, die durch eine Ontologie kontrolliert werden („DB“ steht für „database“). Das System „weiß“ also nun, dass „Albert Einstein“ Quantenphysiker war wie Paul Ehrenfest, Heisenberg und Pauli. Auf dieser Basis lassen sich weitere Wissenselemente mit „Albert Einstein“ verknüpfen, auch entfernte wie „spielt Klavier“ oder komplexe wie „Allgemeine Relativitätstheorie“. Der Sprung von der Wikipedia zur DBpedia besteht im Wesentlichen aus einer Zunahme an maschinenlesbaren Auszeichnungen, die entsprechende Objekte bei Suchanfragen auffindbar machen und die ein semantisches Netz knüpfen, das neue Aspekte sichtbar macht wie: Albert Einstein spielte Klavier.

In einer Stichprobe habe ich DBpedia semantische Relationen zwischen Albert Einstein und Paul Ehrenfest aufrufen lassen. In einer „tiefen“ Wissensrepräsentation könnten folgende Aspekte kodiert sein: Frontstellung zu den statistischen Hardlinern um Niels Bohr und Werner Heisenberg, die Rolle mathematischer Formalisierungen und von Metaphern, Analogien der Quantenphysik zur Akustik, Verweise auf Manuskripte und weiterführende Literatur in einschlägigen Repositorien. Das System gibt uns zurück, dass „Physik“ ein relevantes, beide verbindendes Konzept ist und dass „Ernst Mach“ und „Ludwig Boltzmann“ eine Rolle dabei spielten.

Selbst eine flache Wissensrepräsentation sähe anders aus, und vom semantischen Netz, das neues Wissen generiert, trennen uns Lichtjahre. Dafür sind komplexe informatische Probleme verantwortlich. Der praktische Handlungsauftrag an die Digital Humanities könnte in der Modellierung einer tragfähigen Ontologie bestehen. In der Archäologie und in den großen Forschungsmuseen wird an einem entsprechenden Prototyp gearbeitet. In der Wissenschaftsgeschichte lassen sich, um nur zwei Beispiele zu nennen, „Taxonomien“ von Laborinstrumenten denken oder von Schreibtypen auf der Basis von Manuskripten, etwa Arbeits- und Skizzenheften. Beides wäre sinnvoll, um eine Geschichte naturwissenschaftlicher Innovation zu schreiben.

Wie viel kollaboratives Arbeiten verträgt die Wissenschaft?

Hier kommt auch das Projekt Bürgerwissenschaft ins Spiel: In Kulturplattformen wie der Europeana sowie der Deutschen Digitalen Bibliothek könnte, kollaborativ oder kuratiert, dem Laborinstrument die Erstbeschreibung beigelegt werden oder ein annotiertes 3-D-Modell oder ein Video, das den Versuchsverlauf nachstellt. Mit dieser medialen Topologie des Wissens sind erneut biologische Plattformen wie GBIF oder Xeno-Canto Vorreiter, bei denen Tierarten mit der historischen Artbeschreibung und Lautaufnahmen verlinkt werden.

Wissensmodellierung als Programm greift die eingangs erwähnten methodenkritischen Fragen auf: Wie ermöglichen wir neue Formen des Verstehens im „distant reading“ großer Datenmengen? Wie weit wollen wir den textuellen Bias der Geisteswissenschaften und die Linearität und Kontrolliertheit von Forschungsnarrativen zugunsten neuer Wissensformen aufgeben? Und schließlich: Wie finden wir die richtige Balance zwischen der Leitkultur Wissenschaft und glaubhaften Partizipationsangeboten? Wie viel kollaboratives Arbeiten verträgt die Wissenschaft?

Der Autor ist Privatdozent für Neuere Deutsche Literatur an der Universität des Saarlandes.

Digitale Kulturgeschichte: Wie die Berliner Arabistin Beatrice Gründler ihr Projekt einer wissenschaftlichen Online-Edition der Fabelsammlung „Kalila und Dimna“ angeht, lesen Sie hier.

Mehr lesen? Jetzt gratis E-Paper testen!

8 Kommentare

Neuester Kommentar
      Kommentar schreiben