Es wirkte, als wäre die erste Etappe einer Bergbesteigung zurückgelegt. Bei der internationalen Konferenz Originalerhalt in Perspektive, die am 23. und 24. November in der Berliner James-Simon-Galerie und digital stattfand, schauten die an der Gründung der KEK Beteiligten zunächst mit Stolz zurück auf den gemeinsam gemeisterten Weg: Seit Einrichtung der Koordinierungsstelle vor zehn Jahren konnten Politik und Öffentlichkeit erfolgreich für die Erhaltung schriftlicher Originale sensibilisiert werden. Rund 850 Projekte hat die KEK seither mit 18,4 Millionen Euro gefördert und darüber hinaus als Katalysator für die Bestandserhaltung gewirkt.

"Die Erhaltung von Kulturgut hat eine Aufwertung erfahren", analysiert Johannes Kistenich-Zerfaß, Leiter des Hessischen Staatsarchivs Marburg, zum Auftakt der Konferenz. Die bereitgestellten Mittel von Bund und Ländern hätten sich von 2012 bis 2021 etwa verdoppelt, schätzt er. "Das ist ein toller Erfolg." Und dennoch handelt es sich bei diesem Betrag nur etwa um ein Drittel der 63,2 Millionen Euro, die pro Jahr notwendig wären, um mindestens ein Prozent des schriftlichen Kulturguts insgesamt im Original zu erhalten, wie es die KEK 2015 in ihren Bundesweiten Handlungsempfehlungen als Ziel ausgegeben hat. Damit war der Blick auf der internationalen Konferenz auch schon nach vorne, auf die vorausliegende Wegstrecke gerichtet.

Zwei Fragen stehen im Mittelpunkt

Kistenich-Zerfaß umriss die Herausforderungen, vor denen Akteur∙innen der Bestandserhaltung derzeit stehen. Wie können sie Ressourcen nachhaltig einsetzen? Im Konkreten: Welche Bestände sollten sie zuerst erhalten oder restaurieren? Und welchen Platz kann die Erhaltung im Licht des massiven Trends zur Digitalisierung von Kultur- und Schriftgut einnehmen? Es waren zwei zentrale Fragen, die die mehr als 250 Teilnehmenden über zwei Tage intensiv beschäftigten. "Es darf nicht zulasten des Originals digitalisiert werden", fordert Kistenich-Zerfaß. Digitalisierung und Bestandserhaltung dürften auch nicht gegeneinander ausgespielt werden. Da Objekte für die Digitalisierung in einem guten Zustand sein müssten, ließen sich vielmehr bei der Fördermittelbeantragung auch Synergien sehen.

Konferenzaufbau
Pandemiebedingt war die Konferenz als hybrides Event organisiert. Für angereiste Referent·innen bereitet Björn Schmidt die Registrierung vor. © Staatsbibliothek zu Berlin, Carola Seifert

Und doch ist ein gewisses Spannungsfeld nicht zu leugnen, wie André Page, Leiter der Sektion Erhaltung, und Agnes Blüher, Chemikerin und Leiterin der Papierentsäuerung, beide an der Schweizerischen Nationalbibliothek, in ihrem gemeinsamen Vortrag mehrfach anklingen ließen. Sie erläuterten ihre Erfahrungen mit der Massenentsäuerung von Bibliotheksgut. Obwohl das Verfahren einst als ein Leuchtturm der Bestandserhaltung galt und die Bilanz nach zwanzig Jahren überwiegend positiv sei, werde die großangelegte Massenentsäuerung in der Schweiz Ende Juni 2022 eingestellt. Die zugehörige papersave swiss-Anlage könne nicht mehr rentabel betrieben werden. Die Digitalisierung konkurriert um dieselben finanziellen Ressourcen, obschon es auch eine Frage des Stellenwerts in der jeweiligen Einrichtung sei, berichtet Blüher. Öffentliche Archive, Bibliotheken und Sammlungen sind grundsätzlich den sich ändernden Nutzungsgewohnheiten verpflichtet. Heutige Nutzer·innen sind zunehmend im Digitalen zuhause und kennen die haptischen Medien nurmehr in zweiter Linie, stellt der Chemiker und Kulturwissenschaftler Matija Strlič von der Universität Ljubljana klar. Daraus ergibt sich unstreitig der Auftrag, die Bestände digital verfügbar zu machen.

Ein Blick nach Finnland zeigte, welch langfristige und komplexe Aufgabe sich allerdings mit der Massendigitalisierung von Archiven tatsächlich auftut. Dort ist das Finnische Nationalarchiv per gesetzlichem Auftrag damit betraut, Archivgut aller staatlichen Behörden zu digitalisieren. Rund 130 Laufkilometer sollen gemäß festgelegter Kriterien massendigitalisiert werden. Für das Ende der papiernen Unterlagen wurde ein Entsorgungskonzept erarbeitet, schilderte Ville Kajanne, Leiter der Abteilung für Massendigitalisierung. Nur etwa zwei Prozent des behördlichen Schriftguts wird laut aktueller Schätzungen künftig noch in analoger Form aufbewahrt werden.

Digitalisierung als Herausforderung für den Originalerhalt

Diese konsequente Umstellung vom analogen auf das digitale Format warf auf der Konferenz etliche Fragen auf: Welche Originale werden in analoger Form erhalten? Wie sicher kann man sein, dass die Originale nicht mehr nötig sind? "Es sind vor allem Dokumente der letzten vierzig Jahre, die ohnehin digital bei den Behörden eingegangen sind, die nun wieder in die digitale Form überführt werden", stellt Kajanne im Gespräch klar und macht die Position des Finnischen Nationalarchivs deutlich. "Die digitale Darstellung ist ein Dokument, keine Kopie." Aufbewahrt würden gleichwohl alle Unterlagen, die als Kulturerbe erachtet würden, etwa auf besonderen Trägermaterialien erstelltes Schriftgut und Bestände, die zu fragil seien, um sie einem Scanprozess zu unterziehen. "Es ist immer eine Einzelfallentscheidung, die die jeweilige staatliche Behörde trifft."

Dem Start der Massendigitalisierung in Helsinki war ein Pilotprojekt vorausgegangen. Viel habe man daraus gelernt, sagt Kajanne. "Schon bei der Anschaffung der Scanner: Liefern diese die Bildqualität, die der Hersteller angibt? Können sie Vorder- und Rückseite im angegebenen Tempo einlesen?" Wenn der Scanvorgang zu langsam abläuft, dauert es viele Jahrzehnte, bis alle Unterlagen digitalisiert sind. Ganz wichtig sei auch ein automatischer Stopp des Scanvorgangs bei einem Fehler, ebenfalls keine gerätetechnische Selbstverständlichkeit. Nur die Software für den Scanvorgang selbst konnte das Archiv kommerziell erwerben. Wie die Daten dann weiterverarbeitet werden, sei so spezifisch, dass man ein eigenes Programm erstellt habe.

James-Simon-Auditorium
Für hybride Events ist auch Präsenz erforderlich. Referierende und KEK konnten sich in den Sitzreihen weiträumig verteilen. © Staatsbibliothek zu Berlin, Carola Seifert

Nichtsdestotrotz ist die Massendigitalisierung beileibe kein automatischer Vorgang. 30 Beschäftigte arbeiten in der Abteilung, schildert Kajanne. An mehreren verschiedenen Checkpoints prüfen sie manuell und automatisiert, ob die Digitalisate lesbar, vollständig und identisch mit der papiernen Vorlage sind. Jede Akte erhält zudem einen Barcode, damit sie jederzeit logistisch rückverfolgbar ist und "kein komplettes Chaos ausbricht", sagt Kajanne. Nach der ersten Qualitätskontrolle werden aus der zu archivierenden jpg-Datei weitere Dateien erzeugt, etwa eine kleinere Datei zur Ausgabe an Nutzer·innen und eine Datei mit den bibliografischen Angaben. Zwei Regalkilometer pro Jahr bewältigen die 21 Scanner momentan. Selbst bei einer denkbaren Geschwindigkeit von neun Kilometern pro Jahr würde allein die Digitalisierung der Akten der zentralen Regierungsbehörden, die für die Digitalisierung infrage kommen, 14,5 Jahre dauern, rechnet Kajanne vor und führt aus: Das Tempo sei eine politische Entscheidung. Wenn schneller digitalisiert werde, stiegen die momentanen Kosten. Bei Betrachtung des Gesamtvorhabens würden die Ausgaben im Vergleich aber sinken.

Kajanne sieht viele Vorteile der Massendigitalisierung: Akten lassen sich mit wenigen Klicks Nutzer·innen zugänglich machen. Bisher mussten Bürger·innen mühsam durchs Land reisen, um entsprechende Dokumente einzusehen. "Mit künstlicher Intelligenz lassen sich die Daten künftig durchforsten und ganz neue Erkenntnisse gewinnen", stellt er in Aussicht. "Das ist der nächste Schritt." Ein digitales Zentralarchiv kann allerdings für die breite Öffentlichkeit nur so nützlich sein, wie seine Metadaten gut sind. Bibliothekar·innen und Archivar·innen wissen das seit Langem. Aus diesem Blickwinkel weicht die dichotome Einteilung in Original und Digitalisat etwas auf.

Nicht-invasive Verfahren haben Priorität

Dass die Unterteilung in das analoge und digitale Format ohnedies an Grenzen stößt, machte der Vortrag von Oliver Hahn, Leiter des Fachbereichs "Analyse von Kunst- und Kulturgut" an der Bundesanstalt für Materialforschung und -prüfung in Berlin, besonders deutlich. Sein Spezialgebiet ist die spektroskopische Analyse von Kulturgut. Auf diese Weise können Mitarbeitende in Objekte hineinschauen, ohne sie zu zerstören. Was sie erhalten, ist ein digitales Spektrogramm: es liefert digitale Metadaten mit Erkenntniswert im Zwischenbereich von Original und klassischem Digitalisat. Es sind Vorzeichnungen unter Rembrandts Werken und anderen Gemälden, die Hahns Arbeitsgruppe entdeckte. Den Mitarbeitenden des Berliner Labors und dem Kooperationspartner, der Klassik Stiftung Weimar, fiel in den digitalen Spektrogrammen auf, dass der Kopf in der Zeichnung "Lesender alter Mann" von Ferdinand Bol wohl von Rembrandts "Mann mit Bart" kopiert wurde. Das wirft neue Fragen zur Entstehung des Gemäldes auf, die Kunsthistoriker∙innen aufgreifen können.

YouTube-Logo mit Hintergrund
Alle Vorträge auf YouTube nachhören: https://www.youtube.com/@originalerhalt

Auch die Herkunft und Zusammensetzung von Tinten, Kreiden, Malfarben und Tuschen lassen sich mit der Kombination aus Röntgenfluoreszenzanalyse, Multispektralanalyse und Reflektografie offenlegen. "Was wir generieren, sind neue Metadaten, die unbedingt mit dem Original aufbewahrt werden müssen und zu ihm gehören", meint Hahn. Er geht sogar soweit zu sagen: "Diese Metadaten können sehr viel tiefere Einblicke eröffnen, als es das menschliche Auge bei der Betrachtung des Originals vermag. Das Original ist und bleibt jedoch das Unikat, das in jedem Falle erhalten werden muss." Auch für die Restaurierung können spektroskopische Metadaten entscheidend sein. Erst anhand der zerstörungsfreien Analyse können Fachleute entscheiden, ob eine Verfärbung Folge der Alterung oder vielleicht der Reparatur eines Dokuments ist. Hahn sieht die spektroskopischen Methoden allerdings nicht nur als eine Art Lupe für Kulturgut. Sie eignen sich auch dazu, als Mengenverfahren angewendet zu werden.

Softwarebasierte Lösungen werden immer wichtiger

Derzeit untersucht er zusammen mit den Kolleg∙innen vor Ort beispielsweise systematisch den umfangreichen Bestand der Klassik Stiftung Weimar. "Gerade bei Werken der sogenannten zweiten Garde gibt es die spannendsten Einblicke in die Entstehungsgeschichte und die Maltechnik der jeweiligen Zeit." Jede einzelne Messung dauere nur wenige Sekunden. Man benötige mehr und vor allem neue Mengenverfahren, war denn auch eine Botschaft auf der Konferenz. Das sei nötig, um die schiere Masse an wertvollem Kulturgut zu bewahren und zu bewältigen – bei knappen Mitteln. Derzeit könnten vorhandene Gelder teilweise nicht ausgegeben werden, weil der Dienstleistermarkt nur begrenzte Kapazitäten habe, bedauert Kistenich-Zerfaß.

Einmachglas
Das Gastgeschenk für die Referierenden: Schokolade in Konservierungsgläsern. © Staatsbibliothek zu Berlin, Carola Seifert

Neben naturwissenschaftlichen Mengenverfahren wie der Massenentsäuerung oder der Spektroskopie gehören auch softwarebasierte Lösungen zur Bestandserhaltung. Ein entsprechendes Verfahren stellte Michael Fischer, Mitarbeiter im Referat Sacherschließung an der Badischen Landesbibliothek, vor. Dort hat das Personal die Nachweissituation optimiert, um bei mehreren über verschiedene Standorte verteilten Pflichtexemplaren dasjenige bestimmen zu können, das vor Ort bewahrt, entsäuert und schließlich digitalisiert wird. Das Datenmodell zu dieser Nachweisoptimierung wurde im Rahmen eines KEK-Modellprojekts entwickelt. In der Anwendung managt das Programm effiziente Arbeitsteilung und Bestandserhaltung in einem. Dieser Ansatz kann auf die verteilten Pflichtbestände in den anderen Ländern übertragen werden. Ulrich Fischer, stellvertretender Leiter des Historischen Archivs der Stadt Köln, präsentierte ein Mengenverfahren zum digitalen Puzzeln der sogenannten Köln-Flocken, die nach dem Einsturz des Archivs 2009 geborgen wurden. Die Papierfragmente werden nun auf Grundlage des gesetzlichen Auftrags wieder zusammengesetzt. Das Unternehmen MusterFabrik Berlin entwickelte eine Software mit dazugehörigen Spezialscannern, die das Archivteam dabei unterstützen, die ein bis drei Millionen Papierstücke in den nächsten Jahren zusammenzufügen. Damit ließen sich auch die zerschnittenen Notizen von Gottfried Wilhelm Leibniz bearbeiten, erklärte Fischer die Relevanz dieses Mengenverfahrens.

Datenmodellierungen erlauben Zukunftsprognosen

IT-gestützte Lösungen haben über die Jahre in der Bestandserhaltung an Bedeutung gewonnen. Einen eigenständigen Platz nehmen Datenmodellierungen ein, die Restaurator·innen bei ihren Entscheidungen unterstützen. Und das sowohl im Hinblick auf das Vorbeugen von Schäden als auch die Restaurierung. Ein Beispiel aus der aktuellen Forschung lieferte die Chemikerin Floriana Coppola aus Strlič' Arbeitsgruppe an der Universität Ljubljana. Sie hat den Zerfall von 300 Büchern aus dem 14. bis 20. Jahrhundert in der historischen Bibliothek Classense im italienischen Ravenna simuliert. In ihren Modellberechnungen stellte sie fest: Wenn die Bücher bei ausreichend niedriger Raumfeuchte und abgesenkter Temperatur gelagert werden, halten sie durchaus 600 weitere Jahre. Die Bibliothek passte daraufhin die Lagerungsbedingungen an. Modellierung und mehr internationale Kooperation zwischen den Forschungseinrichtungen, Laboren und den Träger∙innen von Kulturgutbeständen würden die Qualität der Bestandserhaltung verbessern, betonte Strlič. Cristina Duran Casablancas vom Stadtarchiv Amsterdam und dem University College London unterstützte diesen Aufruf zu mehr Interdisziplinarität.

James-Simon-Galerie
Im Außenbereich der James-Simon-Galerie wurde weiterdiskutiert. © Staatsbibliothek zu Berlin, Carola Seifert

Den besten Simulationen zum Trotz bleiben allerdings Unwägbarkeiten und Überraschungen. Die Jahrhundertaufgabe, das Kulturgut mit knappen Ressourcen nachhaltig zu bewahren, wird zusehends vom sich verändernden Erdklima und der Klimaschutzpolitik beeinflusst. Einerseits müssen auch Bibliotheken und Archive ihren Energieverbrauch senken. In Dänemark etwa sollen sie bis 2050 klimaneutral betrieben werden. Schon heute, so legte Marie Vest, Leiterin der Abteilung Bestandserhaltung der Königlichen Bibliothek in Dänemark, dar, nutze man beim Neubau eines Archivs erneuerbare Energien wie Sonnen- und Erdwärme, um den Treibhausgasausstoß so gering wie möglich zu halten. Chris Woods, Leiter des gemeinnützigen National Conservation Service in Großbritannien, sieht den Trend zur passiven Lagerung als weitere Klimaschutzmaßnahme. Es sei gar nicht immer notwendig, Bestände zu klimatisieren und die Raumluftfeuchte maschinell zu senken, wie er mit eigenen Untersuchungen belegen konnte. Wenn die Räume ausreichend dicht gegen die äußere Umgebung abgeschirmt seien und die Bestände selbst nicht zu viel Feuchtigkeit enthielten, sei es manchmal möglich, die Klimaanlage auszuschalten, ohne das Kulturgut zu beschädigen. Interessanterweise spielt der Energieverbrauch bei der Digitalisierung derzeit eine untergeordnete Rolle. "Dabei benötigt die Datensammlung und der Betrieb der Rechner sehr viel Energie", hebt Strlič in der Schlussdiskussion hervor. Der Strom zum Betrieb der digitalen Archive müsse folgerichtig ebenfalls aus klimaneutralen Quellen kommen. Ein analoges grünes Archiv dürfe nur ein digitales grünes Schwesterarchiv haben, stellt Vest klar. Es sind die skandinavischen Länder, die die klimapolitische Dimension der Bestandserhaltung frühzeitig erkannt haben. "Dort ist das Kulturerbe in die Klimaschutzpolitik einbezogen", sagt Johanna Leissner, Chemikerin und Vorsitzende der EU Open Method of Coordination (OMC) Expertengruppe Strengthening cultural heritage resilience for climate change. "In Deutschland dagegen nicht." Aus ihrer Sicht ist gegenwärtig noch zu ermessen, was der Klimawandel für das Kulturgut bedeute.

Über allem dräut der Klimawandel

Groß sei etwa die Unsicherheit, wie sehr Starkregen und Hitzewellen schaden könnten. Zwar seien bewegliche Bestände wie Bücher oder Tonträger in Innenräumen weniger betroffen, weil sie in Sicherheit gebracht und vor dem unmittelbaren Einfluss der Witterung geschützt sind, aber auch sie würden in Zukunft stärker bedroht. Simulationen ergaben etwa, dass mit einem Anstieg der Jahresdurchschnittstemperatur vor allem der Schimmelbefall drastisch zunehmen dürfte. Auch der Insektenbefall in den Archiven könnte sich häufen, erörtert Leissner. Wolle man solchen Bedrohungen mittels Klimatisierung begegnen, müsse man den steigenden Energiebedarf bedenken. Nicht zuletzt, so Leissner, wirke der Klimawandel eben auch indirekt: Wenn Katastrophen Geld kosten, sei unter Umständen für anderes weniger da. Der Wettstreit um finanzielle Ressourcen nähme zu. Es sei eine Perspektive der Bedrängnis.

Es gehe immer darum, sich möglichst alle Optionen für künftige Generationen zu erhalten, betonte Jacob Nadal, Leiter der Bestandserhaltung von der Library of Congress in den USA. Kulturgut hat einen maßgeblichen ideellen Wert, der weit über seinen monetären Wert hinausgeht. Nicht zuletzt deshalb waren Bücher in der Geschichte immer auch ein Politikum, ob in Kriegen, in denen sie beschlagnahmt und entwendet, oder in der NS-Zeit, in der sie verbrannt wurden. Es war Richard Ovenden von den Bodleian Libraries der University of Oxford, der diesen unbezahlbaren Charakter des Schriftguts in seinem Abendvortrag regelrecht zum Leben erweckte. Archive und Bibliotheken bewahren das Wissen der Gesellschaften und geben als Gedächtnisspeicher einzigartige Einblicke in eine Jahrtausende lange Kulturgeschichte. Nur der Erhalt des Kulturguts ermöglicht diese unersetzbaren Perspektiven.