Skip to content

Der World Digital Preservation Day an der Deutschen Nationalbibliothek in Frankfurt a.M. (Tagungsbericht)

Am 28. und 29. November 2018 veranstaltete die Deutsche Nationalbibliothek in Kooperation mit nestor eine Konferenz zur Bewahrung des digitalen kulturellen Erbes. Die Tagung war auch ein Beitrag an den zweiten World Digital Preservation Day. Ein Tag ganz im Zeichen der digitalen Archivierung, der von all jenen begangen wird, die sich der Herausforderung stellen, die flüchtigen digitalen Daten unserer Zeit zu sammeln, zu erhalten und langfristig zugänglich zu machen. So wie wir bei docuteam!

Der Tagungsort: die Deutsche Nationalbibliothek in Frankfurt am Main

Bereits bei der Begrüssung zur Konferenz wurden die grossen Herausforderungen genannt: einerseits die Formenvielfalt, welche das digitale Erbe mit sich bringt, andererseits die exponentiell steigende Datenmenge, mit der ein Umgang gefunden werden muss. Mit der Digitalisierung von Kulturgut hat ausserdem ein Wandel stattgefunden: es geht nicht mehr nur um das in sich abgeschlossene Kulturobjekt, das erworben, archiviert und später einfach wieder hervorgeholt und genutzt werden kann. So wie für die Nutzer und Nutzerinnen von Kultur heute Prozesse (Streaming) und Erfahrungen den Besitz von Objekten (Kassetten, Platten) teilweise abgelöst haben, müssen Gedächtnisinstitutionen diese Prozesse abgreifen und später wieder erfahrbar machen können. Neben den Herausforderungen wurde aber auch auf die Chancen hingewiesen, Lösungen gemeinsam zu suchen – und zu finden: das professionelle Netzwerk und die Zusammenarbeit in Communities sind wichtiger als je zuvor.

Das Programm bestand aus drei grossen Themenblöcken: Bewahrung des Webs als kulturellem Erbe, Nachhaltigkeit von Software sowie die Langzeitarchivierung von interaktiven Inhalten. Dabei wurden alle Ebenen durchlaufen: vom Lesen obsolet gewordener Datenträger über Hardwareemulation, Software- und Webarchivierung bis hin zur Nutzung digitaler Bestände – zum Beispiel mit Methoden der Big Data-Prozessierung. Ein Ausblick in die Aktivitäten der Communities rundete das Programm ab.

Beim Thema Webarchivierung kam vor allem die Nutzerseite zu Wort. Immer wieder wurde betont, dass das Internet den Ruf eines Archivs hat, das nichts vergisst. Wir wissen, dass dem nicht so ist. Täglich verschwinden zahlreiche Seiten, verändern Pages ihren Inhalt, führen Links ins Leere. Umso wichtiger sind die Webarchive, die von unterschiedlichen Initiativen und Gedächtnisinstitutionen aufgebaut worden sind.

Peter Webster, Historiker und Berater für die Nutzung und den Aufbau von Webarchiven, zeigte anhand der eigenen Forschungstätigkeit den Wert und die Bedeutung von archivierten Webseiten. Beispielsweise untersucht er die Verlinkung von Webseiten als link graph, um sog. Websphären aufzudecken.

Markus Eckl, der am Lehrstuhl für Digital Humanities der Universität Passau arbeitet und das Web aus soziologischer Perspektive analysiert, berichtete von der methodologischen Vorarbeit, die für eine Forschung mit historischen Webseiten geleistet werden muss: Überlegungen zur Repräsentativität eines Korpus, den relevanten Akteuren oder die (Nicht-)Vollständigkeit von Webarchiven um nur ein paar Punkte herauszugreifen.

Von technischen Lösungen bei der Nutzung von Webarchiven sprach Helge Holzmann. Er entwickelte ein auf Big Data-Prozessierung basierendes Framework (ArchiveSpark (https://github.com/helgeho/ArchiveSpark), um Webarchive sinnvoll durchsuchen zu können. Ohne spezialisierte Technologien ist es nämlich gar nicht so einfach, die richtigen Daten aus einem Webarchiv zu extrahieren und danach auszuwerten.

Peter Webster über den Wert und die Bedeutung von Webarchiven

Das zweite grosse Thema der Konferenz war die Softwarearchivierung und damit auch die Bewahrung von interaktiven Inhalten. Software bleibt, genauso wie Webseiten, an sich nicht lange «haltbar». Sie muss ständig gewartet und weiter entwickelt werden. Andernfalls «verdirbt» sie. Software ist immer nur in einem komplexen Ökosystem nutzbar, das aus Hardware, Ein- und Ausgabegeräten, Betriebssystemen, Softwarebibliotheken und weiteren Abhängigkeiten besteht.

Zwei sehr unterschiedliche Wege der Softwarearchivierung wurden präsentiert. Im Rahmen des Projekts EMiL, vorgestellt von Tobias Steinke, wurde im Auftrag der Deutschen Nationalbibliothek ein Emulator entwickelt, der historische Programme, z.B. digitale Kunstwerke, Computerspiele oder Officetools, mit authentischem Look and Feel wieder nutzbar macht. Dafür muss am ursprünglichen Code nichts geändert werden. Stattdessen wird die Umgebung simuliert (emuliert), in welcher der Code einst ausführbar war.

Dass ein Emulator bei weitem nicht gleich ein Emulator ist und welche Herausforderungen dies in der Archivierung von Computerspielen mit sich bringt, haben sowohl Andreas Lange, Präsident der European Federation of Games Archives, Museums and Preservation Projects, als auch Jens-Martin Loebel von der Universität Bayreuth in eindrücklicher Weise geschildert. Verschiedene Emulationsstrategien können Effekte unterschiedlich gut wiedergeben, was zu einer, letztlich immer vorhandenen, Translation Gap führt.

Ganz anders geht softwareheritage.com vor. Die Plattform, die von Stefano Zacchiroli vorgestellt wurde, crawlt Softwarerepositories wie GitHub oder Bitbucket, um frei verfügbaren Quellcode abzugreifen und langfristig zu bewahren. Darunter befindet sich beispielsweise der Code, der für die Apollo 11 Mitte der 1960-Jahre entwickelt worden und auf GitHub frei verfügbar ist. Auch wenn Quellcode allein nicht ausreicht, um Software auszuführen, stellt er doch eine Möglichkeit dar, den Aufbau und die Funktionsweise später nachzuvollziehen.

Stefano Zacchiroli bei seinem Vortrag zur Plattform softwareheritage.org

Und dann gibt es da noch das Problem der Datenträger: Damit digitale Daten archiviert werden können, müssen sie nämlich zunächst in einem lesbaren Format vorliegen. Von den Erfahrungen, obsolete Datenträger zu lesen, wenn man weder weiss, in welchem Format die Daten darauf abgelegt worden sind noch wie ein Gerät aussehen könnte, mit dem sie gelesen werden könnten, berichtete Dirk von Suchodoletz von der Universität Freiburg.

Schliesslich stellte Natasa Milic-Frayling die UNESCO PERSIST Technology and Research Working Group vor, deren Vorsitz sie hält. Die Nachhaltigkeit von Software müsse auch auf globaler Ebene diskutiert und mit sowohl technischen und finanziell tragbaren Lösungen unterstützt als auch mit ethischen Überlegungen untermauert werden.

Dass es für die Archivierung von digitalem kulturellem Erbe keine Lösung gibt, die, einmal entwickelt, immer wieder genutzt werden kann, erklärt sich von selbst: die Lösungen sind selbst wieder digitale Umgebungen, die stetig gewartet, weiter entwickelt und eines Tages durch neue Technologien abgelöst werden müssen. Umso wichtiger ist der Austausch von Erfahrungen und Ideen zwischen den Institutionen, Unternehmen und Personen, die sich mit der digitalen Archivierung beschäftigen. Diese Konferenz war ein wertvoller und anregender Beitrag dazu.

Back To Top