LIBREAS.Library Ideas

Das Dokument in Bitstromlinienform. Sarah Dudeks Thesen zur Zukunft des Dokuments.

Posted in LIBREAS.Referate by Ben on 13. November 2012

zu Sarah Dudek (2012): Die Zukunft der Buchstaben in der alphanumerischen Gesellschaft. Text und Dokument unter digitalen Bedingungen. In: Bibliothek Forschung und Praxis 36 (2), S. 189–199.

Online verfügbar unter http://dx.doi.org/10.1515/bfp-2012-0023.
Preprint: http://www.b2i.de/fileadmin/dokumente/BFP_Preprints_2012/Preprint-Artikel-2012-AR-2799-Dudek.pdf )

von Ben Kaden

Ein Fach wie die Bibliotheks- und Informationswissenschaft, von dem Bibliotheks- und Informationspraxis und wenn es gut läuft auch noch andere Teile der Gesellschaft neben der Ausdeutung von Vergangenheit und Gegenwart auch Handlungsanweisungen für ihre Zukunftsplanung erwarten können, muss sich zwangsläufig mit Prognostik auseinandersetzen.

Entsprechend zahlreich findet sich das Wort „Zukunft“ in den aus dem Fach hervorgehenden Publikationen. Allein das Korpus des LIBREAS-Weblogs enthält grob gezählt 550 Erwähnungen. Unter anderem auch deshalb, weil wir uns mit der Zukunft von gestern befassen. (Die Zukunft von gestern. Ein Beitrag zur Open-Access-Debatte aus dem Jahr 1996. / Die Zukunft elektronischer Datennetze aus dem Blickwinkel des Jahres 1980. / Dietmar Daths schießpulverne Zukunft des Internet aus dem Jahr 2002. / Bibliographie als Utopie. Zu einer Position aus dem Jahr 1896. ) Das Feld ist dankbar und ergiebig, vermag doch die Beurteilung im Blick zurück mit einem nachsichtigen Lächeln leicht all das aufdecken, was stimmte und noch leichter das, wo man sich einst irrte.

Schwieriger verhält es sich mit gegenwärtigen Blicken in die Zukunft. Denn weder der, der die Zukunftsentwürfe aufzeichnet, weiß, was tatsächlich geschehen wird, noch der, der an diese Thesen glauben oder eben nicht glauben möchte. Andererseits bleiben uns doch zwei Aspekte, die eine Einschätzung der Plausibilität von Zukunftsskizzen stützen: Einerseits die zugeschriebene Wahrscheinlichkeit, die man in gewissem Umfang aus der Gegenwart und vergangenen Entwicklungslinien abschätzen kann. Und natürlich die Tatsache, dass bestimmte Richtungsentscheidungen für die Zukunft, die im Heute fallen, erst durch den Diskurs um die Zukunft ihre Orientierung erhalten. Spielen die richtigen Parameter mit den richtigen Argumenten gut zusammen, gibt es wirklich so etwas, wie selbsterfüllende Prophezeiungen.

I

Sarah Dudeks unlängst in der Zeitschrift Bibliothek Forschung und Praxis erschienenen Überlegungen zur „Zukunft der Buchstaben in der alphanumerischen Gesellschaft“ brauchen allerdings gar nicht mehr viel Durchsetzungskraft, denn im Prinzip rollt der Waggon schon eindeutig in die von ihr aufgezeichnete Richtung. Nicht zuletzt dem am Institut für Biblitoheks- und Informationswissenschaft lehrenden Stefan Gradmann ist es zu verdanken, dass sich hier in unserem Fach eine eindeutige Ausrichtung im Diskurs etabliert hat.

Wie geschickt der auf Vilém Flusser anspielende Titel gewählt ist, kann man dagegen diskutieren, zumal sie Flusser und die begrifflich schon problematische Fixierung von Gesellschaft auf die alphanumerische Conditio der in ihr verwendeten digitalen Kommunikationsmittel im Aufsatz leider nur wenig reflektiert. Auch das Thema der Buchstaben dient ihr mehr als Sprungbrett denn als Element.

Dabei ist der referenzierte Aufsatz des Medienphilosophen – Alphanumerische Gesellschaft, ohne den determinierenden Artikel „die“ – durchaus einschlägig, wobei Flusser sogar das subversive Potential des Buchstabenlesens (in einer Computer-dominierten Kommunikationswelt „ein elitäres, kontemplatives, gemächliches Unterfangen) andeutet, am Ende aber auch ein wenig halbherzig apolitisch in die Akademie zurückschickt. (Vilém Flusser (1989) Alphanumerische Gesellschaft. In: Vilém Flusser: Medienkultur. Frankfurt/Main: Fischer, 1997, S. 41-60)

Wo Flusser davon ausging, „daß das Buchstabenlesen für das gegenwärtige Bewußtsein unnötig geworden ist“ (ebd.) agiert Sarah Dudek etwas zurückgesetzter (vielleicht auch dank der 22 Jahre Erkenntnisdistanz zwischen seiner und ihrer Lagebeurteilung) und im Grunde kann man ihr ohne Einschränkung zustimmen.

Ihre Prämisse ist auf Dokumente bezogen klar:

„Dokumente besitzen seit Jahrhunderten eine konstitutive Funktion in der gesellschaftlichen Kommunikation. Der Umgang mit ihnen folgt festgeschriebenen oder tradierten Regeln: vom Urheberrecht bis zu Kulturtechniken wie Lesen, Schreiben, Zitieren und Publizieren.“

Wobei das Dokument in diesem Kontext auf das Druckwerk reduziert wird. In der Erweiterung stehen zwei Anschlussprämissen:

„Für Geisteswissenschaften stellen Dokumente den Haupt-Untersuchungsgegenstand dar.“

und

„Bibliotheken organisieren Dokumente, machen sie zugänglich und halten sie verfügbar.“

Von diesem Ausgangspunkt ausgehend durchdringt die Autorin die Veränderungen, die sich daraus ergeben, dass Inhalte in digitalen Umgebungen dematerialisiert im so genannten „Bitstream“ vorliegen:

„Im Digitalen ist alles ein Bitstream. Mit den Grenzen des physischen Dokuments verschwindet auch die Klarheit des Dokumentbegriffs. Der Bitstream kann nicht mehr – in Analogie zum Papier – als Trägermedium aufgefasst werden […]“

Der materiale Grund des Dokumentes ist verschwunden. Und das hat Folgen. Beispielsweise für den Begriff des Dokuments, der, so die erste These „erodiert“.

„Das Dokument verliert unter digitalen Bedingungen seine physische Abgrenzung – und Dokumentkonzepte, die sich in der Gutenberg-Ära verfestigt haben, ihre Definitionskraft.“

II

Genau genommen sehen wir, dass unsere Vorstellungen vom Dokument nicht mehr mit der Realität (in diesem Bezugsrahmen) übereinstimmen, die Begriffe nicht passen und die Konzepte, die eine gewisse Stabilität implizieren, grundsätzlich relativiert werden. Digitale Bedingungen verändern das Dokument demnach als Form und als Phänomen (also „unser Verständnis davon“) radikal. Und zwangsläufig ändert sich, wenn sich der grundsätzliche Referenzpunkt „Dokument“ verändert, auch alles, was mit ihm zusammenhängt – vom Publikationswesen bis zur Wissenschaft und selbstverständlich die zwischen diesen beiden Größen eingehängte Institution der Bibliothek.

Das Problem ist nur, dass wir aus der jetzigen Warte nur sehr eingeschränkt absehen können, wie sich diese Entwicklung konkret vollziehen wird. Aus mitunter guten Gründen zögern viele Akteure in diesem Zusammenhang, wenn die Entwicklung allzu disruptiv zu werden scheint. Dies gilt besonders dann, wenn das Gegebene gut funktioniert, wogegen das Zukünftige seine Funktionsfähigkeit zwangsläufig erst beweisen muss. Das Medium Buch funktioniert offensichtlich nach wie vor nicht schlecht. Diese Vorsicht erklärt auch die zweite These:

„Die zahlreichen Imitationen des analogen Mediums im Digitalen zeigen, dass wir uns derzeit in einer Übergangsphase vom analogen zum digitalen Paradigma befinden, in der jedoch die Analogien zunehmend brüchig werden.“

Man tastet sich im Rückgriff auf das Bekannte und Stabile eher langsam in den neuen Möglichkeitsraum vor. Dies führt zu Hybriden wie dem E-Book, das gewohnte Nutzungspraxen mit einigen Vorteilen der digitalen Rezipierbarkeit anreichert.

Dass dies der Vorhut der Entwicklung, also vor allem denjenigen zu langsam geht, die sich frühzeitig auf eine technologische Perspektive orientierten und damit selbstverständlich ein großes Interesse an der Durchsetzung haben, ist nachvollziehbar. Aus Sicht der technischen Machbarkeit sind die Simulationsvarianten zweifellos wenigstens nah am Anachronismus. Andererseits lässt sich fragen, ob nicht gerade diese Formen der meist nach Konzepten der Druckwelt erstellten Inhalte doch in gewisser Weise besser gerecht werden, als die Auflösung in Semantic-Web-Strukturen.

So erfolgt auch die semantische Durchdringung tatsächlich weniger als konsequente Dekonstruktion des Dokuments und mehr als eine die Struktur beschreibende Anreicherung. Solange Bücher und Aufsätze entstehen, als würden sie doch gedruckt (auch wenn ihr Lebenszyklus digital bleibt), ist das PDF-Format vielleicht wirklich das ihnen angemessene. Die Herausforderungen für Bibliotheken präsentieren sich dagegen an dieser Stelle überschaubar bzw. auf technische Fragen beschränkt. Konzeptionell bleibt das Dokument vorerst stabil.

III

Die eigentliche Schwierigkeit zeigte sich dann, wenn die Grenzen wirklich fielen. Linked Open Data könnte ein Durchbruch sein. Was sich daraus ergäbe, erläutert die Autorin in der ziemlich komplexen Erklärung ihrer beinahe unscheinbar ansetzenden dritten These.

„Das Charakteristikum der Diskretheit digitaler Dokumente verändert den Dokumentbegriff und die Kulturtechniken grundlegend.“

Diskretheit ist hierbei zunächst einmal die Sub-Codierung von Inhalten, die sie für Maschinen lesbar und verarbeitbar macht. Gemeint ist die Auflösung und zugleich Explizierung jedes Textes in Bits. Diese ermöglicht eine unüberschaubare De- und Rekonstruierbarkeit direkt auf der, wenn man so will, Atomstruktur der Inhalte. Daraus folgt, so die Autorin:

„Das semiotische System wird gewechselt: vom alphabetischen zum Binärcode, von analoger Unschärfe zum diskreten Datum.“

Dass die Hermeneutik unter diesen Umständen aber zugleich zwangsläufig ihre semiotische Bezugsebene ändert, bezweifle ich. Jedenfalls für traditionelle, d.h. druckanalog verfasste bzw. digitalisierte Inhalte. Sie bietet vielmehr zusätzliche Möglichkeiten, die sich jedoch zunächst überhaupt in ihr Programm – dem Verstehen von Sinnzusammenhängen – integrieren lassen müssen. Wann sich dagegen genuin hypertextuelle, geisteswissenschaftlich relevante Inhalte durchsetzen, die die ganze Bandbreite des Möglichen ausnutzen und daher möglicherweise eine spezifische „Digitale Hermeneutik“ benötigen, dürfte weniger mit den Optionen des Linked Open Data zu tun haben, als damit, wie sich die kreative Produktion dieser medialen Optionen bedient. Bislang geschieht dahingehend wenig. So bleiben die Gegenstände der Geisteswissenschaften in diesem Punkt weitgehend in einem Rahmen, der vergleichsweise wenig umstürzt.

Neben der traditionellen Auseinandersetzung mit solchen Inhalten erwächst für Wissenschaftszweige wie die Computerphilologie und andere disziplinäre Facetten, die häufig unter dem Label „Digital Humanities“ zusammengefasst werden, „eine weitere Signifikatenebene, ein weiteres Symbolsystem […], um Text prozessierbar zu machen.“

IV

Diese Entfesselung der Lesbarkeit müssen Theoriebildung und wissenschaftliche Fragestellungen aber erst einmal einholen. Ansätze wie das Distant Reading scheinen sich in der Kerndomäne der Geisteswissenschaften, nämlich der Frage, wie wir die Welt sinnhaft verstehen und beschreiben (können), bisher bestenfalls selbst als Gegenstand und kaum als Methode anzubieten. Geisteswissenschaft muss, wenn es um Sinn geht, immer auf die unmittelbare Ebene der konkreten sprachlichen Darstellung. Quantitative Verfahren und solche der Mustererkennung bieten sich dagegen ohne Zweifel für die Strukturerkennung. Nur ist die Frage, ob sich Geisteswissenschaften einfach so in einen informatisch grundierten Neostrukturalismus werden einbetten lassen wollen.

Die „Sprache ist das Leitmedium der geisteswissenschaftlichen Forschung“, betont nicht nur Marcus Beiner (Humanities. Was Geisteswissenschaft macht. Und was sie ausmacht. Berlin: Berlin University Press, 2009). Es ist davon auszugehen, dass hier mit Sprache gerade nicht der Binärcode gemeint ist, sondern das binär Codierte. Geisteswissenschaftlich wird hierbei höchstens die Praxis der binären Kodifizierung selbst interessant. Alles andere scheint eher einen Bezugspunkt für die Bibliotheks- und Informationswissenschaft oder auch eine semiotisch orientierte Informatik zu bilden.

Wenn der auch von Sarah Dudek zitierte Gerhard Lauer Daten als zukünftig hegemoniale Größe für Geisteswissenschaft und Bibliotheken sieht (vgl. dazu auch https://libreas.wordpress.com/2012/07/18/daten_bibliothek/ ) ist das tatsächlich mehr für die Bibliotheken relevant, da Daten in diesem Zusammenhang dem entsprechen, was man in analogen Zahlen „Bände“ nannte. Sie rücken also in gewisser Weise an die Stelle, die im Analogen die materiellen Träger besetzten. Gerade deshalb sollte die Inhaltserschließung noch vordringlicher zur Aufgabe dieser Einrichtungen werden. Wobei nichts dagegen spricht, dies mit neuen Verfahren der Formalerschließung auf der Ebene der eigentlichen Textstrukturen zu koppeln. Denn sicher hilft es dort, wo nicht mehr der Band die Eingrenzung sichert, strukturformale Merkmale wie Kapitel, Absatz oder Zeile als Navigationspunkt heranzuziehen – Strukturmerkmale übrigens, die sich vermutlich auch in digitalen Umgebungen solange halten, wie wir Fließtext schreiben.

Dafür wäre unbedingt zu klären, was Sarah Dudek in ihrer vierten These anspricht:

„Der Textbegriff wird in digitaler Umgebung gegenüber dem Dokumentbegriff aufgrund der Auflösung der Dokumentgrenzen und der Trennung von Form und Inhalt wichtiger.“

Leider führt diese einfache These in die Untiefen der Reichweite dessen, was Text beinhaltet, nämlich der Grenze zwischen Form, Struktur und Inhalt. Wo sein Pendant „Dokument“ eben dank der traditionellen materiellen Grundbindung vergleichsweise greifbarer ist, wird der Begriff „Text“ aufgrund seiner prinzipiellen Immaterialität höchst div- bzw. kontrovers umzirkelt.

Ob man es sich so leicht machen kann wie Sarah Dudek, die Text doch auf „die (narrativen) Strukturen (im semiotischen Sinne)“ begrenzt und zugleich offen lässt, was die Klammerung um „narrativ“ bedeuten soll, ist fraglich. Die Struktur jedes Textes besitzt eine Mehrdimensionalität, der diese Reduktion nicht gerecht wird. Dieser Einwand greift m.E. auch, wenn es sich hier nur um eine Arbeitsdefinition handelt, die sich in die Argumentation fügen soll. Wir haben auch in den beschriebenen Hypertext-Umgebungen dann, wenn wir sie aus dem Blickwinkel semantischer Netze betrachten, zwei in Wechselwirkung stehende Textebenen: die strukturformale und die der Bedeutung. Dazu kommt die binäre Ebene, also die der Daten, die aber nach dem Abschied von Dokument (und vielleicht auch dem Format der geschlossenen Datei) nur noch so relevant ist, wie es in analogen Nutzungsumgebungen die Papiersorte war.

In Entsprechung zu den Textebenen liegen zwei Rezeptionsformen vor: Die algorithmische der Maschine und die kognitive des Menschen. Damit korrespondierend gibt es auch (mindestens) zwei Produktionsformen für Text: die algorithmische bei der automatischen Re-Kombination z. B. bei der automatischen Indexierung und die des Schreibens durch einen Menschen. Zudem sind an dieser Stelle dahingehend Zwitterformen denkbar, dass ein menschlicher Akteur konkret gerichteten auf Algorithmen basierenden vollzogenen Lese- und Schreibprozesse anstößt.

Die Autorin kritisiert im Zusammenhang mit Ontologien – die um technisch umsetzbar zu sein, zwangsläufig von weitgehend festen Denotationen ausgehen müssen und damit den flexiblen Kern der Sprachverwendung nicht zu greifen bekommen– aus einer anderen Warte aus eine informatische Verständnisform, „die jegliches semiotische Modell ignoriert und vor allem Text als eigenständiges semiotisches System unberücksichtigt lässt.“ Sie identifiziert damit das Grundproblem der, wenn man so will, nachdokumentarischen buchstäblichen objektfreien Netze:

„Bei all diesen Beobachtungen der Auflösung des Dokuments und des Dokumentbegriffs ist bislang noch weitgehend ungeklärt, wie der Inhalt, wie der Text, der nun ohne klare Grenzen in vernetzter Umgebung vorliegt, die pragmatisch-gesellschaftlichen Funktionen des Dokuments übernehmen kann.“

Das Dilemma ist klar. Denn eigentlich lautet die Frage digitaler Texterschließung derzeit: Was können und was wollen wir an Strukturen in einem Text und im Anschluss textübergreifend erfassen und zueinander in Beziehung setzen?

Ob Ontologien oder schlichte Mark-Up-Strukturen: Jegliches Umfeld zum Umgang mit digital kodierten Texten muss vorprogrammiert werden. Dies reproduziert nicht unwesentlich die Begrenzung der möglichen Nutzungen und Rezeptionsvarianten des Texte, die ihm bei materiellen Datenträgern gegeben sind (wenn auch in anderer Form) und überträgt diese Einschränkung sogar auf seine semantische Ebene. Wie viel dadurch im Ergebnis gewonnen wäre, ist derzeit offen.

Generell gilt: Wo wir die technischen Dispositive für die Produktion und Rezeption möglicher Texte vorprogrammieren, schließen wir grundsätzlich bestimmte Möglichkeiten ein und andere aus. Passend dazu lautet die fünfte These Sarah Dudeks:

„Technische Formate und Standards basieren auf Text- und Dokumentmodellen, die Auswirkungen auf den möglichen Umgang mit digitalen Dokumenten haben.“

Sie bezeichnet nicht weniger, als dass menschliche Akteure in diesen digitalen Umwelten auch die Programmierung verstehen können müssen, um diese Prozesse und ihre Wirkungen kompetent beurteilen zu können. Es geht fast um eine Art Metaphysik des Digitalen, die freilich den Vorteil bietet, dass die ersten Gründe programmstrukturell vom Menschen gemacht und damit eher verstehbar sind. Dabei erwähnt die Autorin zutreffend, dass die binäre Aufschlüsselung, „einen simplifizierenden Textbegriff befördert, der durch Markup in Analogie zum überlieferten Textbegriff gebracht wird.“ Wir können’s leichter verstehen, weil es eben einfacher gehalten ist.

V

Liest man von den Schwierigkeiten und Fallstricken der Entwicklung vor dem Hintergrund, dass es sogar zunächst einmal praktisch nur darum geht, mittels Mark-Up-Strukturen zwar nicht mehr die Dokumente selbst, aber doch Texte nach sehr traditionellen Konzepten fassbar zu machen, fragt man sich, ob der Zweck tatsächlich den Aufwand im Bereich der Mittel rechtfertigt. Die abschließende Antwort darauf findet sich selbstverständlich erst in der Zukunft. Aber selbst wenn semantische, pragmatische oder semiotische Netze nur rudimentäre Umsetzungen und Akzeptanz finden, dürfte die sechste These in jedem Fall zutreffen.

„Im Zuge einer Rekonstruktion des Dokumentbegriffs unter digitalen Bedingungen entstehen neuartige digitale Dokumente und Kulturtechniken, auf die sich Bibliotheken einstellen müssen und an deren Stabilisierung sie mitwirken können.“

Sie wäre – wenn man „neuartig“ etwas abschwächt – schon für eine rein PDF-basierte Dokumentenkultur valide. Bereits die aufwendigen Arbeiten zur digitalen Langzeitarchivierung zeigen, dass sich für die Bibliotheken längst einiges verändert hat. Welche neuartigen Dokumente sich wirklich stabilisieren werden und welche damit in Wechselwirkung stehenden Kulturtechniken sich herausbilden ist derzeit ebenso eine offene Angelegenheit. Immerhin gibt es fixe Basisstandards und auf absehbare Zeit werden Mark-Up-Auszeichnungen die Essenz digitaler Texte sein. Diese neuartige Struktur für digitale Dokumente hat sich also bereits durch- und festgesetzt.

Darin liegt m. E. auch der Hauptspielraum, den digitalen Textstrukturen derzeit eröffnen:

„Wenn Markup im Sinne des Explizitmachens des im Druckmedium Impliziten, aber auch im Sinne semantischer Auszeichnungen´den Text begleitet, entsteht mit seinen unterschiedlichen Markup-Versionen eine Interpretations- und Rezeptionsgeschichte des Textes.“

Versionierung bedeutet eine Explikation der Genese und Entwicklung eines Textes in Rezeption und Bearbeitung und damit – geisteswissenschaftliche – mutmaßlich eine präzisere Einsicht in Entstehung, Entstehungsbedingung und Entstehungsgründe von kreativen Inhalten bzw. Sinn. Verständlicherweise sind Editionswissenschaft und Philologie Triebkräfte der so genannten Digitalen Geisteswissenschaften.

Für die allgemeine Publikationspraxis in den Geisteswissenschaften sieht die Autorin „eine Entwicklung von der großen Prosaform – sei es dem Roman oder der Monographie als Werk eines Autors oder einer Autorin – hin zu kleineren, zergliederbaren Formen […].“ Wie groß hieran der Anteil der technischen Dispositive ist und wie weit sich hierin publikationskulturell eine Reaktion auf die prinzipielle Echtzeitverfügbarkeit nahezu unbegrenzter Publikationsmengen zeigt, die eine ökonomische Optimierung sowohl der Produktion wie auch der Rezeption einfordern, wäre eine interessante Forschungsfrage.

Die „differenziertere […] Kontextualisierung von (digitalen) Dokumenten und bibliographischen Metadaten“ könnte eine entsprechende Rückwirkung u. a. seitens der Institution Bibliothek sein. So findet sich m. E. der eigentlich sinnvolle Ansatzpunkt für die beschriebenen Technologien in der schlichten Notwendigkeit, einer (im Bitstream des Web) unbegrenzten Verfügbar- und auch Rekombinierbarkeit von Texten bzw. Inhalten entsprechende Erschließungs- und Filterformen beizugeben, die die Nutzung dieser Texte bzw. Inhalte überhaupt erst ermöglichen.

Suchmaschinen, insbesondere Google, realisierten die ersten massentauglichen Konzepte. Mittlerweile erweisen sich diese als nicht mehr zureichend. Ein Folgekonzept ist beispielsweise die Einbindung sozialer Filterverfahren, die durchaus in Wechselwirkung mit semantischen Technologien zur Texterschließung gesetzt werden.

Die Fehlstelle im Aufsatz Sarah Dudeks scheint mir in der weitgehenden Ausklammerung des Phänomens zu sein, dass mittlerweile menschliche Akteure und Spuren ihrer Handlungen (Clickstream) in Bezug auf Webinhalte in Form von semantisch angereicherten Profilen in den Gesamttext des Web eingeschrieben und mit traditionellen Inhalten relationiert werden. Die Redokumentarisierung (also vielleicht sogar tatsächlich die redocumentarisation der Pédauque-Gruppe) umfasst nun die sozialen Beziehungen und das Individuum als Akteur. Sie bildet es im Binärcode in gleicher Form wie die von diesem in welcher Form auch immer angesprochenen Texte im Web ab. Nie zuvor waren die menschlichen Akteure stärker in Dokumentenkontexte eingebunden. Dahingehend liegt für mich die Stoßrichtung einer Wiederholung der Urfrage der Dokumentation: Was ist ein Dokument?

Das traditionelle Dokument löst sich also, so meine These, vor allem dadurch auf, dass es einen sich stetig (nämlich mit jedem Abruf und jedem Link) verändernden Begleittext zugeordnet bekommt, der es mehr als jemals zuvor zu einem sozialen Geschehen werden lässt. Es bleibt im Web als Knotenpunkt notwendig, an den die Referenzen angebunden werden. Es muss jedoch zuvor als ein solches deklariert werden, um in der Struktur als „Dokument“ erkennbar und auffindbar zu sein. Die Inhalte sind in diesen (pragmatischen) Netzen hauptsächlich dann interessant, wenn sie bestimmte Rezeptions- und Verknüpfungshandlungen auslösen.

Für die Geisteswissenschaften verschiebt sich demzufolge der Gegenstandsbereich vom Dokument hin zur dokumentierten Spur von Nutzungen bestimmter Inhalte. Insofern ist die großangelegte Korpusdurchdringung der Digitalen Geisteswissenschaften auch nur ein Übergangsmodell, dessen Bezugsobjekte irgendwann im frühen bis mittleren 21. Jahrhundert verschwunden sein werden. Die webbezogenen Geisteswissenschaften der Zukunft, so meine Prognose, werden sich der Theorie des digital vermittelnden Handelns widmen (müssen). Und Bibliotheken (und Archive und Museen, etc.) sowie Bibliotheks- und Informationswissenschaft werden sehr viel zu tun haben, dafür entsprechende Erfassungs-, Erschließungs- und Abbildungsformate zu nutzen.

Das, was man im Rahmen des (Social) Semantic Web entwickelte, wird man sicher sehr gut dafür nutzen können. Interessanterweise scheint das Web an dieser Stelle wirklich die Rolle eines Mediums zu übernehmen, das die Ablösung des traditionellen Verständnis vom Dokument forciert. Und zwar sowohl für die Geisteswissenschaften wie auch die Bibliotheks- und Informationswissenschaft hin zum handelnden Akteur, also zum Menschen.

Daher glaube ich weniger, dass die (Bibliotheks-) und Informationswissenschaft, wie Stefan Gradmann meint, „als „Geisteswissenschaft“ im besten Sinne gedacht sein muss.“ (Stefan Gradmann (2012): Le Redocumentarisation – ein informationswissenschaftliches Editorial. In: Information. Wissenschaft & Praxis. 63 (3) S. 141-143). Sondern mehr, dass es darum geht, sie zu einer Art Sozialwissenschaft, gern auch mit einer besonderen Betonung des geisteswissenschaftliche Grundelements des Verstehens, auszudifferenzieren.

Was auch mit einschließt, dass wir uns an Flussers Buchstabentheorie erinnern und vor allem das subversive Potential des Buchstabenlesens – nämlich zum Deep und Slow Reading, dieser genuin geisteswissenschaftlichen Praxis – in den Mittelpunkt der Überlegungen holen. Flusser mag darin, aus welchem Grund auch immer, einen Luxus sehen und in den litterati eine zukünftige Elite. Gerade diese Prognose dürfte im Zukunftsdiskurs den Gegenentwurf zur selbsterfüllenden Prophezeiung darstellen: Die bewusste Provokation, die einen entsprechenden aktiven Widerspruch herausfordert. Rhetorisch ist es ein furchtbar simpler Trick, den man freilich nur anwendet, wenn es einem nicht um das oberflächliche Rechthaben, sondern um die Tiefe der Sache geht: Man behauptet exakt das Gegenteil, was einem wünschenswert erscheint in der radikalsten Form, um damit eine allgemeine Mobilisierung genau dagegen hervorzurufen. Leider klappt’s nicht immer und dann glauben die Zuhörer, Zuseher und immer weniger Leser wirklich an die Apokalypse.

(Berlin, 12.11.2012)

2 Antworten

Subscribe to comments with RSS.

  1. Walther Umstaetter said, on 13. November 2012 at 16:45

    Bezüglich der Bibliothekswissenschaft als „Geisteswissenschaft“ sollten wir uns wohl daran erinnern, dass die Naturwissenschaften aus der Philosophie hervorgingen und noch heute genügend Naturwissenschaftler einen PhD haben. Bibliothekswissenschaft als Natinalökonomie des Geistes (Harnack) ist leicht zu verorten. Auch die Informationswissenschaft, auf der Basis der unglaublich wirkungsvollen Informationstheorie, so wie sie sich aus dem Eta-Theorem Boltzmanns zwingend ergab, ist eindeutig zuzuordnen. Aus meiner Sicht ist es gerade die Informationstheorie, die die Trennung von Geistes-, Natur- und Sozialwissenschaften verringert hat, weil sie überall hin ausstrahlt. Auf diese Vereinheitlichung einer großen in sich logischen Wissenschaft hinzuwirken ist sicher auch Aufgabe der Bibliotheks- als Geisteswissenschaft, weil sie ja das gesamte Wissen der Menschheit sammeln, ordnen und verfügbar machen soll (ohne Diskriminierung). Die oft hilfreiche Trennung von Science und Arts and Humanities gibt es im Deutschen glücklicherweise nicht, sie sind beide Teil einer Wissenschaft. Schon darum unterscheiden sich Weltbilder in verschiedenen Sprachen, und Deutsch als Wissenschaftssprache muss ebenso gepflegt werden wie jede andere Sprache, insbesondere dort, wo sie dem Angloamerikanischen überlegen ist. Weil die verschiedenen Sprachen die Fundamente für Weltbilder im Wissenswettbewerb sind.
    Walther Umstätter

  2. Walther Umstaetter said, on 13. November 2012 at 18:29

    Und noch eine Anmerkung:

    Entgegen der oft wiederholten Behauptung, der Mensch könne nicht in die Zukunft sehen, ist das Hauptziel der Wissenschaft genau das zu tun, um vorhersehbaren Gefahren auszuweichen. Wir müssen sogar um so weiter vorausschauen je rascher eine Entwicklung ist. Darum brauchen wir in der Wissenschaftsgesellschaft immer mehr Wissenschaft. (Haben Sie es gemerkt? Wissen(schaft) erfordert zwangsläufig immer mehr Wissen(schaft) 😉 Wissen als begründete Information gibt uns die Möglichkeit von Ursachen auf ihre Wirkungen zu schließen. Weil das bei unserem noch immer höchst begrenzten Wissen nur in sehr kleinem Rahmen gelingt, müssen wir deutlicher als das meist geschieht, uns unsere Unwissenheit bewusst machen. Sie ist dann auch die Grundlage für neues wissenschaftliches Nachdenken. Am Anfang der größten wissenschaftlichen Erkenntnisse stand immer erst die Problemerkennung, da ihre Bewusstmachung, mit der Erkenntnis des Problemkerns, nicht selten schon die Problemlösung enthält. Außerdem sollte man nicht vergessen, dass es ja gerade der Mensch mit seinem viel diskutierten freien Willen ist, der Entwicklungen oft unvorhersehbar beeinflusst. Denn Probleme können je nach Problemstellung ausgetrickst, beseitigt, gelöst, umgangen oder vermieden werden. Die meisten Vorhersagen sind schlichte Extrapolationen, obwohl so mancher Trend nur die Elongation einer Pendelbewegung ist. So ist Bildung in erster Linie das Pendeln um die Mitte der Ausgewogenheit eigener und gesellschaftlicher Interessen. Da gibt es Zeiten in denen wir nach mehr Wissen streben und solche, in denen wir uns mehr auf das bereits Vorhandene besinnen, das gesammelt und geordnet werden muss, um die Lücken wieder besser zu erkennen.

    Bezüglich Campbell und der Diagnose Kadens „Ende des 19. Jahrhunderts“ ist daran zu erinnern, dass man damals definitorisch diskutierte, dass eine Bibliothek nur als solche zu bezeichnen sei, wenn ihre Bestände geordnet sind. Daraus ergab sich ja dann auch die LCC, DDC und der Wettbewerb in den zahlreichen deutschen Klassifikationen (Einführung in die Katalogkunde) um die beste Aufstellung bzw. Dokumentarische Erschließung.

    Was „Nützlichkeit und Genuss“ und das Zitat von S. 126 (Campbell) anbelangt, kann man sicher Reklame im Sinne eines exclamare für ein inauguriertes bibliothekarisches Angebot assoziieren. Es sollte schmackhaft gemacht werden. Immerhin hatte ja schon Leibniz ein solches bibliothekarisches Produkt, angesichts der Frankfurter Buchmesse mit ihren etlich hundert Büchern angestrebt. Und an der Vollständigkeit sind dann noch Otlet und la Fontaine gescheitert. Auf weit höherem Umfang scheitern wir noch heute trotz Digitalisierung daran. Hier fehlen noch die neuen Enzyclopädisten, die das Wissen der Welt nicht nur sammeln und erschließen, sondern auch filtern und geordnet in einem semiotischen Thesaurus als Wissensorganisation verfügbar machen. Auch Campbell konnte nur so weit vorausschauen, so weit sein Wissen reichte.


Hinterlasse einen Kommentar