LIBREAS.Library Ideas

Open Access ist „ein Geschenk an Google und Konsorten“. Meint Uwe Jochum heute in der FAZ.

Posted in LIBREAS aktuell, LIBREAS.Debatte by Ben on 23. November 2016

Eine Anmerkung von Ben Kaden (@bkaden)

zu

Uwe Jochum:Digitale Wissenschaftskontrolle. In: Frankfurter Allgemeine Zeitung, 23.11.2016, S. N4
Peter Geimer: Jede Ähnlichkeit wäre rein zufällig. In: Frankfurter Allgemeine Zeitung, 23.11.2016, S. 9

Sowohl Feuilleton wie auch der Wissenschaftsteil der Frankfurter Allgemeinen Zeitung unterstreichen mit der aktuellen Themenwahl erneut, wie nachdrücklich sich das Blatt als Meinungsmedium für Debatten zur digitalen Wissenschaft und zum digitalen Publizieren in der Wissenschaft versteht. Das ist an sich eine gute Sache, weil es prinzipiell die Vielfalt der Stimmen und Positionen in diesen Diskursen erhöht und damit Material zur Auseinandersetzung und zum Hinterfragen eventueller und vermeintlicher Selbstverständlichkeiten führt. Ein wenig bedauerlich ist es freilich, dass gerade der Wissenschaftsteil zu diesem Thema mit einer Auswahl handverlesener Autoren (wo sind eigentlich die Frauen, die zu diesem Thema schreiben?) aufwartet, die man nun schon als Veteranen der Debatte bezeichnen muss, was, wie bei Veteranen nicht unüblich, zu gewissen Redundanzen in der Argumentation führt. Das macht es am Ende auch ermüdend, Gegenargumente zusammenzustellen und wenn man dem bewundernswert engagiert gegen die Windmühle des Open-Access-Zwangs antwitternden Stroemfeld-Verlag die Hand reichen möchte – der dieser leider zu oft mit Beißreflex und also bunt gewürfelten Unterstellungen begegnet – dann sicher in der Feststellung, dass es oft beim Austausch von Textbausteinen bleibt.

Aber vielleicht ist das eindimensionale Format des Zeitungsartikels, der in keine Synopse führt, sondern die Leserinnen und Leser der FAZ seit Jahren im Kreis um dieses eigentümliche Phänomen des Open Access herum, auch nicht das Idealmedium solcher Debatten. Andererseits kommt man so per Pressedokumentation sicher eher auf ministeriale Schreibtische und ein bisschen mutet es so an, als wären diese Ablagen der Hauptgrund, warum Roland Reuss und nun auch wieder einmal Uwe Jochum so viel Platz in diesem Forum erhalten.

Man muss Uwe Jochum in jedem Fall schon einmal zugestehen, dass er deutlich präziser und sicher auch klüger schreibt, als der berühmte Philologe aus Heidelberg. Sein aktueller Text kommt nun unter einer Überschrift „Digitale Wissenschaftskontrolle“ auf den Bildschirm und impliziert viel Gefahr für Wissenschaft. Das Mittel ist das Digitale. Nachzuweisen gilt nun noch im Text, wer sich dessen bedient. Man kann es gleich weg-spoilern: Uwe Jochum vermutet wie viele der wenigen Streiter gegen Open Access eine Art Verschwörung von „George Soros und seine[n] Open-Access-Freunden“, die mit einer Verkündungsschrift – nämlich der Budapester Erklärung – auszogen, die Reichweite des Urheberrechts zu minimieren und zwar bis auf „das Recht auf einen bibliografischen Nachweis“.

Auf die Frage nach der Motivation hat Uwe Jochum eine eindeutige Antwort:

„Jedem Internetnutzer sollte inzwischen klar sein: Es sind diese Personen- und Verkehrsdaten, mit denen im Netz das Geld verdient wird, nicht der „Content“. Klar sollte auch sein, dass mit den Gewinnen eine Politik finanziert wird, die auf einen Ausbau der nichtstaatlichen Kontrollzone zielt, in der die Daten und das Geld nur so fließen können.“

George Soros ist bekanntlich Investor und spielt daher, so Jochum, ein bisschen Philanthropie einzig und allein deshalb vor, um mit den Daten aus der Wissenschaft am Ende noch reicher zu werden als er schon ist. Wir werden also alle manipuliert und es gibt nur wenige, wie Uwe Jochum, die dieses perfide Spiel durchschauen und warnen:

„Am Ende hat der Staat seine Wissenschaft verschenkt, aber es ist in Wahrheit kein Geschenk an seine Bürger, sondern ein Geschenk an Google und Konsorten.“

Gemeinhin sollte man bei Formulierungen wie „und Konsorten“ immer vorsichtig sein, weil sie als Sammelklasse alles aufnehmen, was man in sie hinein imaginieren möchte. Warum die FAZ-Redaktion, die in jedem Jugend-Schreibt-Programm armen Lehrerinnen und Lehrern aufdrückt, dass größte Präzision bis auf die Mantelfarbe des Melkers, den ein Zwölftklässer beschreiben soll, die Essenz von Qualitätsjournalismus sei, solche Dinge durchgehen lässt, bleibt ihr Geheimnis und zwar eines, über das man angesichts der vielen Lapsus, die man im Blatt regelmäßig entdecken muss, immer wieder staunt. Aber das ist eine andere Baustelle und wäre eigentlich auch lässlich, wenn das Blatt nicht immer eine so furchtbare Arroganz zum Kern seiner Selbstvermarktung wählte.

Das zentrale Missverständnis des Missverständnisses, welches Uwe Jochum bei Open Access sieht, beruht darauf, dass er wie auch Roland Reuss hinter dem mittlerweile sehr diversifizierten Publikationsmodell eine einheitliche Ideologie vermutet, der man mit dem unnachgiebigen Einsatz für Werkherrschaft, Autorenrechte und das gedruckte Buch entgegentreten muss. Denn wahlweise führt sie eine Neo-DDR (Reuss’sche Position) oder in die totale Google-Facebook-Amazon-Apokalypse (Jochum) und in jedem Fall zur totalen Kontrolle, wobei die den totalen Staat dienenden Monopolisten „unbehelligt vom Staat und ohne demokratische Legitimation, aber unter dem Zuckerguss der Bequemlichkeit Kontrollsysteme als gesellschaftlich-technischen Normalzustand […] installieren.“ Der Staat will also alles kontrollieren – außer das Silicon Valley? Aber das soll er kontrollieren und sonst möglichst niemanden?

Diese eigenwillig postmodernen Anti-Open-Access-Argumentationen inszenieren einen aus Sicht vieler eher unnötigen Kulturkampf und stoßen, jedenfalls bei den unideologischen Nutzerinnen und Nutzern der unterschiedlichen Open-Access-Verfahren, deshalb so oft auf Verwunderung, weil diese Frequenz eigentlich schon lange zugunsten eines pragmatischeren und kritischeren Verständnisses zu den Möglichkeiten und Grenzen von Open Access abgestellt wurde. Die Idee des Open Access hat in der Tat emanzipatorische Ursprünge und zielte gegen Monopole (Stichwort: Zeitschriftenkrise). Ihr Scheitern an vielen Stellen ist etwas, was man aufarbeiten muss. Gerade deshalb ist es traurig, dass die FAZ wertvollen Debattenplatz zum Thema an eine Aufregung verschenkt, die etwa zehn Jahre zu spät kommt.

Es hat sicher auch etwas mit der Trägheit des wissenschaftlichen Schreibens selbst zu tun, dass in Programmschriften regelmäßig die Genealogie der Budapester und Berliner Erklärungen bemüht wird. Aber an sich ist heute jedem bewusst, dass Open Access in bestimmten Bereichen gut funktioniert und in anderen weniger gut. Ob man, wie die Universität Konstanz, die Nutzung des Zweitveröffentlichungsrechts mit einem dienstwerkartigen Verständnis von Wissenschaft durchsetzen möchte, ist berechtigt Gegenstand einer aktuellen Auseinandersetzung.

Bedauerlich an der zähen Debatte um Open Access ist, dass sie mit ihrem eigenartigen Fackelzug zum Strohmann eine andere und viel spannendere Entwicklung überdeckt, nämlich wie der Einfluss digitaler Medialität sowie entsprechender Werkzeuge und Kanäle das Spannungsverhältnis von Little Science und Big Science mittlerweile auf die lange davon weitgehend verschont gebliebenen Geisteswissenschaften projiziert. Es gab besonders in der Frühphase dessen, was man Digital Humanities nennt, durchaus sehr von Tech-Ideen motivierte Vorstellungen, geisteswissenschaftliche Arbeit könnte nun endlich auch zur Großforschung werden. (Die aktuelle, von wissenschafts- und kulturhistorischen Erkenntnissen völlig unbelastete, Panik/Begeisterung vor/für Künstliche/r Intelligenz wärmt das an einigen Rändern wieder auf.)

Hier würde sich unter anderem zugleich auch die Frage der Verwertbarkeit bzw. Verwertbarmachung geisteswissenschaftlichen Wissens und von Methodologien stellen und wenn Webannotation eines der großen kommenden Themen ist, dann sieht man auch, wohin man leuchten könnte. Andererseits warten die Unternehmen, die sich auf diesem Feld bewegen sicher nicht auf die digitaltechnische Aushöhlung philologischer Institute. Da ist es einfacher und schneller, ein paar Absolventinnen oder Absolventen entsprechender Studiengänge anzuwerben, für die der Universitätsbertrieb ohnehin nur noch selten attraktive akademische Karrierepfade vorhält. Die Infrastruktur wird dann bei Bedarf selbst entwickelt. Es ist also sehr unwahrscheinlich, dass irgendein Start-Up geduldig genug ist, um ein mit DFG-Geldern entwickeltes Tool abzuwarten und zu kannibalisieren. Und ein Staatsapparat, der aktuelle DH-Tools zur Massenüberwachung und „Industriespionage“ (vgl. Jochum) einsetzt, wäre fast bemitleidenswert harmlos.

Deutlicher wird, wie sich unterschiedliche Domänen – hier Geisteswissenschaft, dort Digital Humanities und irgendwo auch die Netzwirtschaft – herausbilden, die sich auf dieselben Objekte beziehen – so wie es nun mal parallel kritische Editionen, Taschenbuchausgaben und ein Kindle-E-Pub derselben Texte gibt. Nur weil etwas die gleiche Bezugsgröße hat, heißt es noch lange nicht, dass es eine Konkurrenz darstellt. Wenn etwas in der Debatte fehlt, dann ist es, diese Differenz herauszuarbeiten.

Ein selbstreflexiver(er) Umgang mit der Wechselwirkung zwischen Wissenschaft und den Einflüssen digitaler Praxen und Technologien führte im Idealfall zu einer schärferen Abgrenzung der Erkenntnis- bzw. Handlungsbereiche und würde allzukurzen und alarmistischen Einschätzungen wie der Peter Geimers im heutigen Feuilleton-Aufmacher – „Londons Tate Gallery arbeitet mit Technik-Schnickschnack an der Selbstaufgabe wissenschaftlicher Kritik.“ – entgegen wirken. Seine These ist, dass die Kunstgeschichte ihren kritischen Kern aufgibt, wenn jemand mit Mustererkennungssoftware experimentiert:

„Man müsste dieser Selbstaufgabe geisteswissenschaftlicher Kritik keine größere Beachtung schenken, wenn sie nicht einem aktuellen Trend zur Enthistorisierung und Essentialisierung der Kunstgeschichte entsprechen würde.“

Der Kunsthistoriker schüttelt damit zwangsläufig heftig das Bad mit dem Kind und verliert sich, in der Sache ganz nachvollziehbar übrigens, in einer Polemisierung, die aber ebenfalls sichtlich von einer wahrgenommenen Bedrohung getragen wird:

„Solche Skepsis an der geisteswissenschaftlichen Mimikry der Laborwissenschaften hat nichts mit Technikfeindlichkeit, mangelnder Neugierde oder dem Festhalten an etablierten Positionen zu tun. Wenn man die Studien aber nicht nach an ihrer szientistischen Rhetorik, sondern an ihren Resultaten misst, zeigt sich in der Regel, dass hier entweder mit hohem finanziellen und apparativen Aufwand experimentell ermittelt wurde, was man auch vorher schon wusste (etwa dass Experten Gemälde anders betrachten als Laien), oder aber Aussagen formuliert werden, deren wissenschaftliche Subtilität bezweifelt werden kann (etwa dass Männer in Ausstellungen Unterhaltung suchen, Frauen gerne die Begleittexte lesen und ansonsten emotional angesprochen werden möchten).“

Allein, dass er die Banalität der in der Tate gezogenen Schlüsse so entblößen kann, widerlegt ihn jedoch und demonstriert, dass die geisteswissenschaftliche Kritik nach wie vor existiert. Was außerordentlich zu begrüßen ist. Der Vorteil grundständigen wissenschaftlichen Wissens liegt darin, dass man damit um die Grenzen des Erkennbaren weiß und sich eben nicht euphorisiert in den nächsten Trend wirft, um alles bisherige aufzugeben. Man ist sehr fokussiert und oft auch aus Erfahrung bescheiden in seinen Erkenntniszielen (einige Alpha-Forscher ausgenommen), im besten Fall zugleich offen genug, um die Elemente aus nun aktuell der digitalen Wissenschaft anzunehmen, die Aspekte der eigenen Arbeit erleichtern.

Es gilt also gerade diese Kritik zu pflegen, die es ermöglicht, zu durchschauen und durchschaubar zu machen, wenn eine an ein Forschungsprogramm herangetragene vermeintliche Revolution gegen die eigenen Interessen läuft. Daher ist es vollkommen zulässig, wenn Roland Reuss, Uwe Jochum oder auch andere für ihre Sache streiten. Unzulässig wird ihr Streit, jedenfalls unter Bedingungen der Diskursethik, allerdings dann, wenn sie selbst kompromisslos und völlig überzogen mit Unterstellungen, vagen Behauptungen, falschen Tatsachen (Uwe Jochum behauptet ein „staatliches Publikationsmonopol“ und ignoriert das erstaunlich nicht-staatlich monopolisierte Gold-OA), mit Beleidigungen und der berühmten Opferkarte durch die Feuilletons marschieren und alles attackieren, was auch nur minimal von ihren Vorstellungen abweicht. Das bringt am Ende nur Unordnung und sonst nichts in die Debatte. Wo ein Zwang zu Open Access angedacht wird, muss man darauf hinweisen. Wissenschaftler, die gern Open Access publizieren, als „naive oder böswillige“ (regelmäßiger O-Ton Stroemfeld-Verlags-Twitter) Büttel einer höheren Macht (aktuelle Label, austauschbar: DFG, BMBF, BMJ, Google) zu attackieren, kehrt sich freilich in gesunden Debatten sofort gegen den Angreifer.

Um es noch einmal zu betonen: Die Geisteswissenschaften sind nachweislich und vermutlich auch nachhaltig dort von Monografien dominiert, wo eine akademische Karriere angestrebt werden und zwar mit allen wissenschaftssoziologischen Vor- und Nachteilen. Eine Open-Access-Publikation oder auch jede Form des nur digitalen Publizierens gilt in den meisten Bereichen eher als karriereschädlich. Kein Open-Access-Repositorium wird dies ändern und Bibliotheken werden damit vermutlich sogar gern leben, da Bücher wunderbar unkompliziert durch den Geschäftsgang zu schleusen ist. Dies bezüglich können Verlage und Werkschöpfer ruhig schlafen. Das Zweitveröffentlichungsrecht (Open Access als grüner Weg) berührt diesen Bereich überhaupt nicht. Eine szientifizierte Wissenschaftsmessung für Geisteswissenschaften ist erwiesenermaßen untauglich, zumal sie schon für andere Disziplinen nur sehr eingeschränkt passen. Entsprechenden Tendenzen sollte man auf jedem Fall entgegenwirken. Es gibt genügend stechende Argumente und wissenschaftliche Nachweise, so dass man das stumpfe Schwert der Polemik dafür gar nicht bemühen muss. Ein konstruktiver Diskurs – und es ist schlimm, dies betonen zu müssen – funktioniert nur mit einer grundlegenden wechselseitigen Anerkennung und einer Rückbindung an das Nachvollziehbare. Die Strategie von Roland Reuss und nun auch Uwe Jochum ist leider hauptsächlich die der Skandalisierung, die, wie oben bereits angedeutet, über die Köpfe ihrer Peers hinweg zielt und offensichtlich – Stichwort, leider, #fakenews – eine allgemeine Stimmung zu forcieren versucht, welche auf wissenschafts- und urheberrechtspolitische Entscheidungen einwirken soll. Ob diese Rechnung aufgeht, wird man sehen. Unergründbar bleibt nach wie vor, woher die erstaunliche Affinität von hochgebildeten und -reflektierten Akteuren für Untergangsszenarien und die Lust an der Rolle als einsamer Kämpfer für das Gute und (Selbst)Gerechte kommt. Ich hoffe sehr, dass wir eines Tages das Vergnügen haben werden, dazu eine ganz nüchterne und gründliche Diskursanalyse lesen können. Bis dahin bleibt uns immerhin die FAZ am Mittwoch.

(Berlin, 23.11.2016)

Advertisements

LIBREAS – Call for Papers: Post-Digital Humanities aus bibliotheks- und informationswissenschaftlicher Sicht

Posted in LIBREAS Call for Papers by libreas on 4. Mai 2016

Update: Aus mehreren Gründen, zu denen in nicht geringem Umfang die Leichtigkeit des Sommers gehört, wird der Call for Papers für die Ausgabe zu den postdigitalen Geisteswissenschaften bis zum 31. Oktober 2016 verlängert. In dieser Hinsicht unterscheiden wir uns von anderen aktuellen Calls aus dem Digital-Humanities-Umfeld und bleiben uns zugleich treu. Es können also nach wie vor Aufsätze, Rezensionen und andere Beiträge an redaktion@libreas.eu geschickt werden. Wir freuen uns darauf, grüßen herzlich und wünschen schöne Spätsommertage.

Ihre / Eure LIBREAS-Redaktion, 31.08.2016


“[C]omputational technology has become the very condition of possibility required in order to think about many of the questions raised in the humanities today.”

David M. Berry (2011): The Computational Turn: Thinking about the Digital Humanities, S.2

 

a) Wer braucht die Digital Humanities?
Ein Ballon schwebt über der Landschaft der Geisteswissenschaften. Er trägt die Aufschrift “Digital Humanities” und führt bei denen, die ihn sehen, zu unterschiedlichen Reaktionen. Einige sind begeistert und laufen ihm nach. Andere sind verschreckt. Wieder anderen erscheint er unerreichbar. Und schließlich gibt es noch die, die ihn gleichgültig seiner Wege ziehen lassen.

Vielleicht handelt es sich aber auch nur um ein Trugbild. Unverkennbar arbeitet heute nahezu jede Geisteswissenschaftlerin und jeder Geisteswissenschaftler mit digitalen Werkzeugen. Das Verfassen, Publizieren, Kommunizieren und Visualisieren von Wissenschaft ohne digitale Werkzeuge ist im 21. Jahrhundert schlicht unmöglich. Handelt es sich dabei bereits um Digital Humanities? Das ist fraglich.

Werden andererseits aber digitale Werkzeuge, die forschungsunterstützend wirken und eine Art “Laborifizierung der Geisteswissenschaften” nach sich ziehen könnten (vgl. zu dieser These auch diesen Beitrag), zum allumfassenden akademischen Alltag wie Textverarbeitungs- und E-Mail-Software? Auch das scheint unwahrscheinlich.

Wahrscheinlicher ist, dass sich etwas zwischen diesen Polen als zielführend herausstellt: digitale Anwendungen setzen sich dort durch, wo sie einen konkreten Bedarf bedienen und eine nennenswerte Verbesserung der wissenschaftlichen Arbeitsbedingungen beziehungsweise Erkenntnisbedingungen versprechen. Die Erfindung des digitalen und damit schnell und ortsunabhängig im Volltext durchsuchbaren Bibliothekskatalog beispielsweise stellte einen grundsätzlichen Schritt für eine effiziente Informationssuche dar und ist heute Standard aller Bibliotheken. Er ist natürlich zugleich ein Arbeitswerkzeug der Geisteswissenschaften. Als Baustein der Digital Humanities wird er dagegen selten benannt und wahrgenommen.

Für die kommende Ausgabe von LIBREAS stellen wir u.a. gerade deshalb die Frage: Welche Rolle können Informationseinrichtungen wie Bibliotheken und Informationsspezialisten innerhalb des Digital Humanities-Spektrums übernehmen? Bleiben sie bei ihren Aufgaben des Sammelns, Erschliessens und Anbietens? Oder gehen sie darüber hinaus? Es gab in den letzten Jahren mehrere Projekte in die Richtung des „Heraustretens“ – aber was ist aus ihnen geworden? Viele Projekthomepages sind heute verwaist, was üblich ist – aber gibt es feststellbare langfristige Nachwirkungen der Projekte selbst? Oder ist eine solche aktivere Rolle nur ein Wunschdenken der Bibliothekarinnen und Bibliothekare und die Forschenden begnügen sich eigentlich mit besseren Zugriffen auf (digitalisierte) Bestände?

Wer die Digitalisierung der Geisteswissenschaften mitgestalten will, sollte Bedarfe identifizieren und Angebote entwickeln und vermitteln, die auf diese Bedarfe passen. Um den Ansprüchen der Wissenschaft zu genügen, sollte dies systematisch und erkenntnisorientiert geschehen. Es gibt bereits eine Disziplin dafür, die sich freilich dieser Aufgabe auch bewusst widmen (wollen) muss: die Bibliotheks- und Informationswissenschaft. Und diese muss vermutlich als Erstes die Frage nach dem Bedarf konkretisieren: Um wessen Bedarfe geht es? Die der Einrichtungen, die der Forschungsfördereinrichtungen oder die von Forschenden? Oder gar die der Gesellschaft?

b) Digital Humanitäres – Label oder wissenschaftliche Revolution?

Das Konstrukt Digital Humanities mit dem Bemühen um den Status als eigene Disziplin, was sich unter anderem in der Benennung von einigen interdisziplinären Lehrstühlen manifestiert, soll bekanntlich inter- oder transdisziplinäre Kooperationen ermöglichen. Die unvermeidliche Kooperation mit der Informatik ist dabei eher formaler oder methodischer Natur und inkludiert kein gemeinsames Forschen. Aber erforschen die verschiedenen Geisteswissenschaften unter dem Titel DH überhaupt gemeinsame Phänomene oder Objekte? Die Einführungsliteratur zur DH betont gerne, dass sich der Begriff auf (a) den Einsatz von Methoden, (b) auf Digitales als Untersuchungsobjekte und (c) auf das Leben mit dem Digitalen als Untersuchungsgegenstand bezieht. Aber wird damit nicht ein gemeinsames Label auf viel zu unterschiedliche Forschungsfragen und -praxen bezogen? Was bringt das Label bei diesem Umfang noch und vor allem, wie sollen Bibliotheken und ähnliche Einrichtungen damit umgehen?

Es scheint, als sollten unter dem Label “Digital Humanities” unterschiedliche und teilweise unvereinbare Akteure und in vielen Fällen auch mit einem Revolutionsversprechen zusammengeführt werden. Das Neue steht vor der Tür und trägt derzeit ein glitzerndes Shirt auf dem Big Data, gern vor einer Cloud, steht. Das sieht en vogue aus, ist aber nicht immer zwingend sinnvoll. So bleibt offen, ob das Anliegen eines unifizierenden trans- und disziplinären Überbaus unter der Bezeichnung “Digital Humanities” überhaupt tauglich sein kann, um die mannigfaltigen Verschiebungen im Bereich der digitalen Wissenschaft zu umfassen. Brauchen wir das Label “DH”?

Eine erste Unklarheit taucht im deutschsprachigen Raum bereits bei der Übersetzung und den damit verbundenen Aktivitäten dieser „Wissenschaft“ auf. Umfasst dieses Label nun die Digitalisierung (Digitalization) von beispielsweise Kulturobjekten oder eher die Einführung EDV-basierter Arbeitsprozesse (Digitization)? Die tatsächliche Forschungspraxis, also die Studien, die unter diesem Label publiziert werden, scheinen eher in eine andere Richtung zu deuten. Oft wird in kleinen Forschungsgruppen, teilweise auch alleine, an Einzelfragen gearbeitet, häufig an einzelnen oder wenigen Digitalisaten. Ist das nun eine Revolution? Oder nicht doch eher eine Weiterentwicklung, aber weniger, wie etwa in den Naturwissenschaften, zu einer „datengetriebenen“ Forschung, sondern zu einer Forschungspraxis, deren konkrete Ausgestaltung noch grundsätzlich zu klären wäre?

c) Die Bibliotheken als Ort oder als Zulieferer für die Digital Humanities?

Sicher können Bibliotheken und die Bibliotheks- und Informationswissenschaft Rollen und Aufgaben übernehmen, die als Digital Humanities gekennzeichnet werden. Aber ist die Bibliotheks- und Informationswissenschaft nicht sogar die genuine digitale Geisteswissenschaft? So lässt sich jedenfalls eine denkbare These fassen. Und eine zweite ergänzt, dass sie dies ganz natürlich tun kann, da zumindest die Gegenstandsseite vieler Geisteswissenschaften sowie die Digitalisierung dieser Forschungsobjekte von vornherein von Bibliotheken verwaltet und gesteuert wurde. Sie bieten also Material, Literatur und Infrastruktur. Böten sie auch die Analysewerkzeuge, also das “Labor”, schlösse sich der Kreis. Dies wurde bereits initiiert, beispielsweise mit der Digitalen Forschungsplattform des Hathi-Trusts. Aber – genauso wie bei anderen Virtuellen Forschungsumgebungen – stellt sich die Frage, welcher konkrete Nutzungsmöglichkeiten damit verbunden sind und ob eine Weiterentwicklung sinnvoll wäre. Entsprechen diese Angebote tatsächlich dem, das Forschende – die zumeist auch selber in ihren eigenen Arbeitsumgebungen mit digitalen Werkzeugen umgehen können – wollen und nutzen, oder eher etwas, von dem sich vor allem die Forschungsfördereinrichtungen und die Bibliotheken als Anbieter wünschen, dass sie es täten?

Gleichzeitig stellen sich Bibliotheken mit solchen Projekten in ein Konkurrenzverhältnis. Dass sie Digitalisieren können ist richtig. Aber das heisst nicht, dass Forschende in ihren Projekten nicht auch en masse selbst Digitalisieren. Dass Bibliotheken Infrastrukturen zur Verfügung stellen können ist ebenfalls richtig. Aber ebenso realisieren Forschende selbst immer mehr digitalen Infrastrukturen für sich selber oder ihre Community. Was ist daraus zu lernen? Sollen Bibliotheken die Forschenden verstärkt adressieren oder soll man entsprechende Bemühungen von Bibliotheken besser zurückfahren? Und für Bibliothekswissenschaft lautet die Frage: Wie soll man dieses Phänomen untersuchen?

d) Die Post-Digital Humanities als Idee

Betrachtet man die Entwicklung der Wechselbeziehung von Digitalität und Gesellschaft, so erkennt man, dass sich viele Bereiche längst in einem Zustand befinden, den man als zum Postinternet gehörig beziehungsweise als postdigital bezeichnen kann. Insofern liegt es nahe, einen Begriff der “Post-Digital-Humanities” – als die Zeit nach den großen Versprechen, in der die DH in den Allgemeinbetrieb übergeht – analog zur “Postinternet”-Kultur ins Spiel zu bringen. Die Chance in eines solchen, eventuell, Gegenlabels, liegt in der Öffnung eines dekonstruktiven und damit das Selbstverständnis hinterfragenden sowie zugleich voranbringenden Ansatzes. Denn ein allen Geisteswissenschaften gemeinsames Merkmal ist der Diskurs, der auch das Hinterfragen der eigenen Methoden beinhaltet. Daher entscheiden wir uns sehr bewusst für diese Bezeichnung sowohl zur Bestimmung des gegebenen Zustands als auch als, hoffentlich, Bezugspunkt und Auslöser für entsprechende Reflexionen.

Postdigitale geisteswissenschaftliche Arbeit ist also eine wissenschaftliche Praxis, die sich unter dem Einfluss und auch mit den Mitteln digitaler Technologien, Netzwerken und Kultureffekten vollzieht. Das Spektrum reicht von n-gram-Analysen über große und kleine Digitalisierungsprojekte bis zu Altmetrics, beinhaltet also in etwa all das, was in der vordigitalen Wissenschaft nicht umsetzbar, oft nicht einmal konzipierbar war. Damit lässt sich die Reflexion sinnvoll über das engere Feld der DH-Anwendungen erweitern, das de facto vor allem im Bereich der Analyse großer Datenmengen, beispielsweise der Korpuslinguistik oder auch der digitalen Mustererkennung für die Kunstgeschichte ihre sichtbarsten Konkretisierungen erfährt.

Wir versuchen zu ergründen, wie sich Bibliotheken in diesem Komplex positionieren (können), wie sie entsprechende Bedarfe ansprechen (können) und welche theoretischen Grundlegungen diese Anwendungspraxis aus der Bibliotheks- und Informationswissenschaft erwarten kann. Dabei muss berücksichtigt werden, dass die Digital Humanitäres seit ihrer Etablierung als Diskurs immer von Kritiken begleitet werden, auf die sie bislang nur bedingt Antwort geben können. Beispielsweise besteht die Gefahr auf Strukturen aufzubauen, die so nur im Globalen Norden vorhanden sind, ohne dass diese Rahmung informationsethisch reflektieren wird. Auch können die Digital Humanities bislang kaum auf den Einwurf antworten, dass sie für kritische Forschungsmethoden und -fragestellungen, die aktuell große Teile der Geisteswissenschaft prägen, kaum Hilfestellungen geben. Das Distant Reading, also die Analyse großer Corpora, scheint das Close Reading von Dokumenten beispielsweise für post-koloniale Fragen oder Fragen der Konstitution von Subjektidentitäten kaum ersetzen zu können.

e) Die Bibliotheks- und Informationswissenschaft als Meta-Akteurin

Schließlich wollen wir die Schraube noch weiterdrehen und fragen, inwieweit die Bibliotheks- und Informationswissenschaft mit ihrem Metafocus auf die Idee von Information, Wissen und Wissensvermittlung, selbst eine modellhafte, bewusst digitale Phänomene und Folgen reflektierende quasi postdigitale Geisteswissenschaft sein kann? Kann sie womöglich durch eine systematische Beschäftigung mit den Bedingungen, Möglichkeiten und Folgen digitaler Geisteswissenschaft zu einer allgemeinen Normalisierung des Verständnisses solcher Prozesse beitragen und damit zu einer Art “Leitdisziplin” für die Geisteswissenschaften werden?

Für die Ausgabe #30 von LIBREAS suchen wir Beiträge (Artikel, Essays, Kommentare, Ideen), die sich in diesem Reflexionsfeld bewegen und idealerweise auch aufzeigen, welche Rolle die in der jüngeren Vergangenheit tief verunsichterte Bibliotheks- und Informationswissenschaft in der und für die Landschaft der Geisteswissenschaften übernehmen könnte. Der Termin für Einreichungen ist der 31. August Oktober 2016 über die Adresse redaktion@libreas.eu.

Redaktion LIBREAS. Library Ideas

Berlin, Bielefeld, Chur, Dresden, München im Mai 2016

Wo beginnt die Vorgeschichte der Digital Humanities und was kann man aus ihr lernen?

Posted in LIBREAS.Referate by Ben on 9. Oktober 2015

Eine Notiz zu

Marcus Twellmann: »Gedankenstatistik« Vorschlag zur Archäologie der Digital Humanities. In: Merkur, 797 (Vol.69, Oktober 2015). S. 19-30

von Ben Kaden (@bkaden)

I.

Vermutlich ist es das Zeichen einer Reifung, wenn für ein junges Forschungsfeld, zum Beispiel die Digital Humanities, einerseits eine Art Geschichtsschreibung einsetzt und dies andererseits in Publikumszeitschriften geschieht. Der Merkur – Subtitel „Deutsche Zeitschrift für europäisches Denken“ – gehört traditionell zu diesen leider in der Zahl eher geringen Titeln, die den Überschlag von einer geistes- und kulturwissenschaftlichen Fachöffentlichkeit hin zu einer an intellektuellen Themen interessierten allgemeinen Öffentlichkeit regelmäßig schaffen. Es handelt sich buchstäblich um eine Zeitschrift, denn es werden die Themen der Zeit be- und aufgeschrieben und wenn man beispielsweise Jürgen Habermas‘ Artikel zu Moral und Sittlichkeit aus der Dezemberausgabe 1985 nachliest, staunt man, wie trotz aller beschworenen Verkürzung von Halbwertszeiten des Wissens bestimmte ideengeschichtliche Phänomene erstaunlich geltungsstabil bleiben können.

Ob dies ähnlich auch für Marcus Twellmanns Text zur Archäologie der Digital Humanities aus der Oktoberausgabe des Jahres 2015 gelten wird, werden wir erst 2045 beantworten können. Die Chancen stehen aber nicht schlecht, denn der Konstanzer Kulturwissenschaftler nähert sich dem Phänomen bereits historisch und zwar aus einer methodengeschichtlichen Perspektive. Ist Pater Roberto Busa mit seiner computergestützten Aquin-Erschließung der Nukleus der Digital Humanities bzw. des Humanities Computing? Nicht unbedingt, meint Twellmann. Und schlägt vor:

„Betrachten wir solche humanwissenschaftlichen Formationen als protodigital, die auf einer mathematischen Verarbeitung numerischen Daten basierten und Verfahren hervorbrachten, die später computertechnisch implementiert werden konnten.“

(more…)

Perspektiven für die Digital Humanities (z.B. als Post-Snowden-Scholarship).

Posted in LIBREAS.Debatte, LIBREAS.Feuilleton by Ben on 30. Juni 2015

Eine Notiz von Ben Kaden (@bkaden)

I

In der letztwöchigen Ausgabe der New York Review of Books (LXII, 11) bespricht der Literaturkritiker Christopher Benfey Mark Greifs Buch The Age of the Crisis of Man: Thought and Fiction in America, 1933-1973 (Princeton : Princeton University Press, 2015). Besonders überzeugend findet er die Ausführungen Mark Greifs zum Aufkommen der Theory, die mit den Arbeiten von Autoren wie Claude Leví-Strauss oder Roman Jakobson und Jacques Derrida erst dem Strukturalismus und dann Folgetheorien zu einer Popularität in den Geistes- und Sozialwissenschaften in den USA verhalfen. Greif, so Benfey, sieht beispielsweise in der Dekonstruktion eine Wiederbelebung von Ideen des New Criticism, also streng formalistischer Annäherungen an literarische Texte. Benfey zieht nun die Verbindungslinie von den New Critics zu den Digital Humanists. Ähnlich, so schreibt er, wie einst die Neue Kritik von den traditionell orientierten Wissenschaftlern als ein zu klinischer Ansatz und daher als Gefahr gesehen wurde, sehen sich neue Formen des Lesens („new ways of reading“) heute mit dem Vorwurf, sie seien „antihumanistic“ konfrontiert. Diese neuen Formen des Lesens entsprechend nun dem, was hier unter Digital Humanities verstanden wird: (more…)

Neues von der Digitalkritik. Zu einem aktuellen Text Evgeny Morozovs.

Posted in LIBREAS.Feuilleton by Ben on 2. Mai 2014

Eine Notiz von Ben Kaden / @bkaden.

 Das BOOKFORUM ist eine dieser Zeitschriften, die regelmäßig auf einem hohen Niveau genau den Kulturjournalismus publizieren, den man sich vom Zeitungsfeuilleton wünschen würde. Allerdings muss dieses täglich liefern, während das BOOKFORUM zweimonatlich in die Verkaufsregale gelangt, dafür dann aber weniger kostet als eine Woche Tagespresse.

Beiträge wie die dahingeschnurrte Ode auf das E-Book des Informatikers John Hennessy, welche die Frankfurter Allgemeine Zeitung aus einem unerfindlichen Grund in ihrer Reihe über die Auswirkungen der digitalen Revolution auf die Geisteswissenschaften (vgl. dazu auch LIBREAS.Weblog vom 12.03.2014) eingeordnet hat und daher auch in der Wissenschaftsbeilage am Mittwoch druckte, fänden da sicher keinen Platz. Was, bitteschön, haben diese beiden zweifellos fantastischen kalifornischen Life-Hacks mit der Digitalisierung der Geisteswissenschaften zu tun:

„Die große Schrift auf meinem E-Reader bietet den Vorteil, dass ich auf dem Crosstrainer lesen kann und am Ende den Eindruck habe, die halbe Stunde sei schneller vergangen und noch sinnvoller genutzt. Und beim gedimmten Schein eines Lesegeräts um zwei Uhr nachts wecke ich meine Frau nicht auf, was bei der offenbar altersbedingt zunehmenden Schlaflosigkeit ein enormer Vorteil ist.“

Dass die Sacherschließung der FAZ aus der ziemlichen trivialen Sonnenscheinlektüre extrahiert:

„Themen zu diesem Beitrag: George Washington | Nelson Mandela | Steve Jobs  | Studenten“

von denen drei Themen (Namen) auf Bücher, die John Hennessy gerade las, verweisen und nichts mit dem Artikel sonst zu tun haben und die Studenten nur als Zielgruppe auftauchen, vor denen der Informatikprofessor seine Leseerlebnisse gern präsentiert, ist eher ein Beispiel für die Grenzen digitaler Inhaltsverarbeitung. Allerdings ist eindeutig, dass die Themenzuschreibung gar nicht dokumentarischen Zwecken dient, also der Orientierung von Leser und Nutzer, sondern der Suchmaschinenoptimierung.

Dennoch: Weder einen Geistes- noch einen Dokumentationswissenschaftler (und nicht einmal einen SEO-Experten) versetzen solche halbhoch in den Diskurs durchgeschossenen Textphänomene anders als verärgert, jedenfalls wenn derartige Artikel mit dem Anspruch in die Welt gesetzt werden, etwas Reflektiertes über die Gegenwart darzustellen.

Selbstverständlich finden sich in den Ausgaben des BOOKFORUMs genauso zahllose Aspekte, mit denen man nicht blindlings mitgehen möchte, allerdings meistens doch auf handwerklich deutlich höherem Niveau und daher ganz anders anschlussfähig an den Diskurs, den man führen möchte und um den es ja eigentlich in derartigen Medien gehen soll.

In der aktuellen Ausgabe bespricht nun der mit seinen Thesen nicht immer ganz unumstrittene Evgeny Morozov das Buch The People’s Platform: Taking Back Power and Culture in the Digital Age der Kanadierin Astra Taylor, die vor einigen Jahren mit ihrem Dokumentarfilm Zizek! bekannt wurde und die uns im Vorwort noch einmal an eine zentrale Erkenntnis der Ernüchterung erinnert, welche sich spätestens vor einer Dekade und allerspätestens mit dem reifenden Web 2.0 durchsetzte :

“In some crucial respects the standard assumptions about the Internet’s inevitable effects have misled us. New technologies have undoubtebly removed barriers to entry, yet, […] cultural democracy remains elusive. While it’s true that anyone with an Internet connection can speak online, that doesn’t mean our megaphones blast out our messages at the same volume. Online some speak louder than others. There are the followed and the followers. As should be obvious to anyone with an e-mail account, the Internet, though open to all, is hardly an egalitarian or noncommercial paradise, even if you bracket all the porn and shopping sites.” (Taylor, 2014)

In seiner Review zum Buch, die angesichts dessen, das ihm, wie die Textstelle andeutet, ein eher zahmes Stück Rotwild vor die kritische Flinte geführt wird, recht milde ausfällt (“why set the bar so low?“), vermerkt Morozov an einer Stelle einen Bezug zu Bibliotheken und der soll hier, wenn er beim close reading schon auffiel, dokumentiert werden.

Auf die, besonders aus europäischer Sicht, sehr berechtigte Frage, warum es keine (zu Google) alternative, nicht-kommerzielle und also auf das Geschäftsmodell Werbung setzende Suchmaschine gibt, die in nennenswerten Umfang genutzt wird, (denn selbstverständlich gibt es nach wie vor Alternativsuchmaschinen, wobei beispielsweise die durchaus etwas verbreitet zu nennende holländische www.ixquick.com ja auch Werbeanzeigen in die Ergebnislisten integriert, wo es nur geht) antwortet Astra Taylor offenbar: weil die Debatte um das Digitale von Menschen dominiert wird, die sowohl als Person wie auch in ihrer Vorstellungskraft beschränkt erscheinen.

Evgeny Morozov - Public Libraries

In Ermangelung einer besseren Abbildung hier das Zitat der paraphrasierten Textstelle direkt vom Blatt.

Evgeny Morozov, immerhin mittlerweile selbst ein Großkopfeter der Digitaldebatten, antwortet: Das mag schon sein. Die Ursache liegt aber noch auf einer elementareren Ebene. Die Menschen hungert und dürstet nicht gerade nach Alternativen, so wie es sie, meint Morozov, auch nicht nach öffentlicher Bildung und öffentlichen Bibliotheken hungert und dürstet.

Empirisch wird hier unhaltbar über einen sehr grob gezähnten Kamm geschoren, aber darauf nehmen Digitaldebatten, die rohwollige Argumente lieben und brauchen, bekanntlich eher selten Rücksicht. Der Kern der mehr Ergänzung als Gegenrede ist dennoch zu beachten und passt ein wenig zu dem, was ich vor zwei Wochen hier im LIBREAS-Weblog zum Thema Digital Managerialism zu behandeln versuchte.

Evgeny Morozov richtet seinen Schlaglichtkegel auf das Problem, dass öffentliche Kultureinrichtungen generell geschwächt werden (was oft mit der Begründung / Selbstberuhigung der Entscheidungsträger erfolgt, eine mystische Freeconomy des Internets böte vollumfänglich kostensparendere und zugleich attraktivere Alternativen) und dies bevorzugt unter der direkten Anbindung solcher Institutionen in einen Wettbewerbskontext, der sie kategorial eigentlich gar nicht erfassen sollte.

„Market knows best”, so das Mantra, auf das Morozov verweist und das, so lässt sich ergänzen, trotz allem Long-Tail-Geklapper, bestimmte Nischen dauerhaft vermauert, weil es am Markt trotz allem zumeist am besten über die Marge des schnellen Massendurchsatzes funktioniert. Was langsam in Produktion, Konsumption und Wirkung ist und dazu auch noch viel kostet, bleibt entweder etwas für eine Elite oder verschwindet, wie die Nicht-Flagship-Stores in der Alten Schönhauser Straße, in der offenbar die Lage gar nicht mit eigentlichen Umsätzen sondern nur noch aus dem Werbeetat finanzierbar wird.

Es ist mittlerweile offensichtlich, wie sich dieser neoliberale Schliff der Perspektive (Wachstum, Reichweite, Page-Impressions, Viralisierung) hervorragend mit den immateriellen und dennoch zählbaren digitalen Aktivitäten der Menschen integrieren lässt, zumal die hochdynamische Ressource Aufmerksamkeit sogar noch zuhauf unabschätzbare Emergenzen und damit Chancen (bzw. Business-Opportunities) verspricht.

(Die Modeläden in Berlin-Mitte funktionieren auch häufig mehr als Showroom für einen Online-Shop, über den dann das eigentliche Geschäft gemacht wird, weshalb man auch fast immer gebeten wird, die E-Mail-Adresse für ein „exklusives” Kundenprofil zu hinterlegen (10%-Rabatt, einmal im Jahr als Gegenleistung) – der Konnex wird gleich vor der Haustür sichtbar.)

Morozov ist weitgehend beizupflichten, wenn er betont, dass sich der neoliberale und der Digitalitätsdiskurs überschneiden und gegenseitig verstärken und dass diese Effekte auch auf nicht primär digitale Räume zurückwirken und damit zugleich auf öffentliche Bibliotheken, die sich zwar (wenigstens in Deutschland) dank Onleihe, einer versunkenen Bibliothek-2.0-Partizipations-Schimäre und dem Zeitgeistdiskurs eine Digitalkur verordnet haben, die aber keinesfalls totalisierend auf die Institution wirken muss. Entgegen der landläufigen Einschätzung sind die Menschen in Deutschland nämlich noch gar keine John Hennessys, die ihre Erfüllung darin finden, die tägliche halbe Stunde körperliche Selbstoptimierung auf dem Cross-Trainer dank E-Lektüre „noch sinnvoller” zu nutzen.

Für den Diskurs, sogar für den zu den so genannten Digital Humanities (bzw. digitalisierten Geisteswissenschaften), streut Evgeny Morozov gegen Ende seiner Review noch ein weiteres Körnchen Kritik ein:

„In fact, the presumed theoretical novelty of such terms [er bezieht sich hier konkret auf „digital sharecropping“, das man im WWW als Digitale Naturalpacht übersetzt findet, vgl. auch Carr, 2012] – invariably appended by qualifiers like „digital“ – isn’t genuine. It serves mainly to distract us from more lucid frameworks for understanding how power works today.”

Eine ideale öffentliche, also auf das Phänomen einer aufgeklärten Öffentlichkeit gerichtete (vgl. dazu auch Schulz, 2009, S. 52ff.), Bibliothek würde sich möglicherweise statt dem sanften Mythos der Digitalkultur mehr oder weniger treuherzig hinterherzuwuseln, genau auf diese Frage, nämlich der Möglichkeit eines Durchdringens gegenwärtiger Machtstrukturen und Machtbestrebungen, konzentrieren und ihren Nutzern die Materialien in der Form bereitstellen, die für diesen Blick vor, durch und hinter die Kulissen notwendig ist. Dazu zählen Besprechungen wie die Morozovs und an guten Tagen auch noch die, na ja, Qualitätspresse, also so etwas wie die FAZ. Dazu zählt auch, wie Morozov betont, ein Hinterfragen der Sprache selbst, in die wir den Diskurs einspannen:

“In reframing long-running political debates around impressive-sounding but mostly empty concepts like the „digital“, even those Internet pundits who lean to the left end up promoting extremely depoliticized, neoliberal agendas.”

Wie sehr die von Haus aus sprachsensiblen Geisteswissenschaften und vielleicht darin eingebettet eine entsprechend sprach- und diskurskritisch operierende Bibliothekswissenschaft  hier aktiv werden könnten, bevor sie sich, bisweilen leider förderpolitisch getrieben, oft mehr mit neuen Labeln als mit neuen Paradigmen digitalkulturell metamorphisieren, muss eigentlich nicht weiter erklärt werden.

Akzeptierte man das prinzipielle Verschränktsein des Digitalen, wie wir es heute kennen, mit dem Neoliberalen, dessen Handlungsmuster bereits länger massiv in die Universitäten dringen, und machte man es selbst stärker zum Gegenstand der Erkenntnisarbeit, ginge damit vielleicht sogar ein tieferes Verständnis auch dafür einher, wie die gegenwärtigen Machtstrukturen Wissenschaft korrumpieren. Ein wenig aufgeklärte Widerborstigkeit (nicht zu verwechseln mit unaufgeklärter pauschaler Ablehnung), im besten Fall hin zu eigenen und selbstbewussten Gestaltungsansprüchen könnte nicht zuletzt Prophylaxe für das sein, was die deutschen Tageszeitungen unter dem Druck der Zeitungskrise (und nicht des Journalismus) schon eine Weile bedroht: die Überoptimierung hin zur Irrelevanz. Für Bibliotheken auf dem Weg zu Digitalen Bibliotheken gilt übrigens und wenig überraschend nach wie vor ganz ähnliches.

Der abschließende Vorwurf Evgeny Morozovs an Astra Taylor lautet, dass sie nicht verstanden hat, dass es in der Digitaldebatte (“digital debate”) nichts zu gewinnen gibt, sondern dass man nur aus ihr aussteigen kann. Was Morozov von jedenfalls mir und vielleicht noch ein paar anderen Teilnehmern des Diskurses unterscheidet, ist, dass ich niemandem Unverständnis unterstellen würde, wohl aber ein diskursethisch fragwürdiges Verhalten, denn die Exit-Option ist in keiner Weise fruchtbar sofern die Rahmenbedingungen des Diskurs intakt sind. Wenn uns digitale Kommunikationsräume trotz aller Defizite etwas gegeben haben, dann genau diese Voice-Optionen. (Zur berühmten Hirschman’schen Dreiheit (Hirschman, 1970) fehlt also nur noch Loyalität, die aber in einem offenen Diskurs unpassend ist, da sie der Kritik im Weg steht.)

Und im Gegensatz zu dem offenbar trotz allem ebenfalls im Wettbewerbs- und Kampfparadigma gefangenen Morozov, der glaubt, dass es um das Gewinnen, Verlieren und das Rechthaben, also um Durchsetzung geht, weiß die Diskursgemeinschaft, in der wir uns als Geistes- und Bibliothekswissenschaftler bewegen sollten, dass das Interessante im Verstehen und Durchschauen der Prozesse zu suchen ist, also dem, was Morozov selbst bezüglich des Machtkomplexes oben anspricht. Die Entscheidungen, die beispielsweise notwendig sind, um eine Erweiterung und Modifikation geisteswissenschaftlicher Standardmethodologien oder bibliothekarische Dienstleistungen mit digitalen Technologien angemessen zu steuern und zu begleiten, sollten wir erst dann treffen, wenn wir beim Verstehen, Durchschauen und – auch das – Überdenken der jeweiligen Handlungsziele ein gewisses bzw. wissenderes Niveau erreicht haben. Am Ende könnte das sogar für die öffentlich finanzierte Wissenschaft und die Bibliotheken auch ökonomisch vorteilhafter sein. Wofür man nicht einmal einen Bezug zur Adolf von Harnacks Nationalökonomie des Geistes herstellen muss (vgl. Umstätter, 2009). Aber natürlich problemlos könnte.

Berlin, 02.05.2014

Quellen

Nicholas Carr (2012) The economics of digital sharecropping. In: roughtype.com, 04.05.2012

John Hennessy (2014) Vorzüge des E-Books: Mit Charles Dickens auf dem Crosstrainer. In: Frankfurter Allgemeine Zeitung / faz.net. 28.04.2014.

Albert O. Hirschman (1970) Exit, Voice, and Loyalty: Responses to Decline in Firms, Organizations, and States. Cambridge, MA: Harvard University Press

Ben Kaden (2013) Heute in der FAZ. Jürgen Kaube über Evgeny Morozov. In: LIBREAS.Tumblr, 09.12.2013

Ben Kaden (2014) Am Impuls der Zeit. Hans-Ulrich Gumbrecht ringt in der FAZ um ein Verständnis der digitalisierten Gegenwart. In: LIBREAS. Weblog, 12.03.2014

Ben Kaden (2014) Konzepte des Gegenwartsdiskurses. Heute: Digital Managerialism. In: LIBREAS. Weblog, 18.04.2014

Evgeny Morozov (2014) Chip Democratic. In: Bookforum. VOl. 21, Issue 1. S. 9

Manuela Schulz (2009) Soziale Bibliotheksarbeit : „Kompensationsinstrument“ zwischen Anspruch und Wirklichkeit im öffentlichen Bibliothekswesen. Berlin: Simon Verlag für Bibliothekswissen.

Astra Taylor (2014) The People’s Platform: Taking Back Power and Culture in the Digital Age. New York: Metropolitan Books

Walther Umstätter (2009) Bibliothekswissenschaft im Wandel, von den geordneten Büchern zur Wissensorganisation. In: Bibliothek – Forschung und Praxis. Band 33, Heft 3. S. 327-332. DOI: 10.1515/bfup.2009.036,

Nach Feyerabend. Wieder ein Methodenzwang? Eine Skizze zum Diskurs um Digitale Bibliothek, Digitalkultur und Digital Humanities.

Posted in LIBREAS aktuell, LIBREAS.Feuilleton by Ben on 8. April 2014

von Ben Kaden (@bkaden)

I. Digital Humanities als Begleitforschung zur Gegenwart

Noch relativ neu, aber bereits alt genug, um im gutsortierten Berliner Remittentenfachhandel zum halben Preis angeboten zu werden, ist der Sammelband Digital Humanities aus der Reihe Nach Feierabend, also dem Zürcher Jahrbuch für Wissensgeschichte. Die Halbwertzeit derartiger Printpublikationen nähert sich offenbar der von Publikationen im Web. Bei der DNB ist der Titel dagegen offenbar noch nicht einmal im Haus (Stand: 07.04.2014). So schnell also rotiert die Buchhandels- und Diskursmaschinerie. Aber vielleicht ist doch alles anders und es handelt sich nur um Messeexemplare.

Es ist ein faszinierendes Symptom der digitalen Gegenwart, dass sich Wissensgeschichtsschreibung nicht zuletzt anhand der sozialen Begleitmedien für alle Ereignisse und Phänomene, die sich in der Reichweite entsprechend aktiver Akteure (beispielsweise einer vitalen Twitter-Community) befinden, in Echtzeit und teilweise sogar bewusst mit dieser Rolle vollzieht.

Das Buch zur Debatte ist dann eigentlich vor allem ein fixierter Zwischenmarker, der nach herkömmlichen Mustern die Dynamik eines ununterbrochenen Gesprächs bündelt und greifbar macht. So ein Sammelband hascht in gewisser Weise nach all den Diskursfäden und -topoi, die im Sozialen Netz der Tagungen und Symposien und im Social Web des digitalen Austauschs herumschwirren, fängt einige davon ein und setzt sie fest. Er schlägt damit die Brücke zwischen einer unsteten, weitgehend informellen Diskurssphäre und der Wissenschaftskultur, die eine klare Referenz zu einem in einer Bibliothek dokumentierten Text nach „externer Begutachtung, gründlicher Überarbeitung, redaktioneller Bearbeitung und nochmaliger Überarbeitung“ (Hagner, Hirschi, 2013, S. 10) als Beweis dafür braucht, dass es sich um legitim adressierbare Positionen handelt.

Daran zeigt sich eine ganz besondere Kluft in der Wissenschaftskultur der Gegenwart. Denn die beiden Sphären der Kommunikation über geisteswissenschaftliche Themen und Gegenstände – informell und digital, formalisiert und als ISSN- oder ISBNisierte Publikation – verwässern die Stabilität der möglichen Forschungsmaterialien. Die disziplinären Gemeinschaften müssen eigentlich genauso neu aushandeln, was für sie eine legitime Material- und Referenzbasis darstellt, wie die Bibliotheken entscheiden müssen, welches digitale Objekt eine Publikation darstellt, die in ihr Sammelraster passt.

Wenn man wollte, könnte man Digital Humanities auch als geisteswissenschaftliche Auseinandersetzung mit rein digitalen Forschungsgegenständen betrachten. Das wäre eine ganz einfache Abgrenzung. Wahrscheinlich zugleich aber eine viel zu enge. Dennoch müssen sich die Geisteswissenschaften, die ihre Gegenstände auf der Höhe der Zeit suchen, überlegen, wie sie die digitalen Kulturspuren greifbar bekommen, die sich von denen, mit denen sich Geisteswissenschaften traditionell beschäftigen, erheblich unterscheiden und zwar nicht nur hinsichtlich ihrer Intention und Vergänglichkeit. Sondern auch in ihrer Kodifizierung, die andere, automatische Verarbeitungsmethoden ermöglicht. Und auch eine andere Geschwindigkeit.

Digital Humanities, so kann man in diesem Schema argumentieren, wären eine geisteswissenschaftliche Begleitforschung zum kulturellen Geschehen. Ob sich perspektivisch in der Zeitdimension zwei Linien, idealerweise komplementärer Natur, herausarbeiten, nämlich eine zeitlich sehr ereignisnahe (Mikro-)Geisteswissenschaft und eine in längeren Zeitrahmen betrachtetende, verortende und reflektierende (Makro-)Geisteswissenschaft, ist schwer abzusehen, wäre aber wünschenswert. Eine auf den Aspekt der Temporalität gerichtete Auseinandersetzung mit dem Phänomen der Digital Humanities scheint jedoch generell noch nicht allzu intensiv geführt zu werden.

II. Amateure und Professionals

Ein wenig deutet der Beitrag von Philipp Wampfler (»online first«. Geisteswissenschaften als Social Media, S. 79-102) in diese Richtung, der anhand der Transformation des Journalismus durch Social Media mutmaßt:

„Können Geisteswissenschaften nicht wie der Printjournalismus einen von außen vorgegebenen Wandel durchleben, dann sind sie vielleicht nicht als Social Media denkbar, sondern werden als diskursives System durch Social Media abgelöst.“  (S. 99)

Es ist nicht nur ein Wandel bei den für den Diskurs zur Verfügung stehenden Kommunikationsmitteln zu beobachten, sondern auch ein Aufbrechen des Zugangs zum Diskurs, was es für etablierte Akteure durchaus schwieriger werden lässt, ihre Position zu festigen. Denn die Aufmerksamkeitsökonomie des WWWs läuft ja auch kurzschleifiger und setzt mehr auf Popularität (altmetrisch erfassbar) und weniger auf Prestige und Renommee.

Inwieweit dies mit den „Egalitätsidealen“ vereinbar ist, von denen Michael Hagner und Caspar Hirschi schreiben und die neben Effizienzüberlegungen und den unvermeidbaren Anpassungsdruck an die digitale Gegenwart (und Zukunft) zu den drei Säulen des Transformationsdiskurses gehören, ist eine ungelöste Frage in den Netzdebatten. Immerhin bekommt man den Eindruck, als würden die Karten (öfter) neu gemischt, was dazu führt, dass die Positionen bisweilen weiter ins Extreme und in einer Kampf- und Untergangsrethorik abdriften, als der Sache gut tut.

Wo die einen endlich die Möglichkeit auf Teilhabe sehen, fürchten die anderen um ihre Legitimation. Dieser Prozess dürfte überall zu beobachten sein, wo sich die klaren Abgrenzungen zwischen Dilettant und Meister, zwischen Amateur und Profi auflösen, beispielsweise weil es eine bestimmte vorher notwendige Fertigkeiten tatsächlich egalisierende Technologie gibt.

Am vergangenen Sonntag gab es auf einer Veranstaltung  der Berliner Gazette mit dem Titel Komplizen. Woran wollen wir zusammen arbeiten? In dieser Post-Snowden-Welt… die Gelegenheit, im Rahmen der Diskussion um die Bibliothek der Zukunft, das Verhältnis von professionellen und nicht-professionellen „Bibliothekaren“ zu erörtern.

Die Frage war dort, welche Rolle in digitalen Informationswirklichkeiten eigentlich Bibliothekare spielen können bzw. ob man sie überhaupt noch braucht? Jeder, so eine Position, kann Bibliothekar sein, wenn man ihm nur ein wenig Technologie und Grundwissen zur Verfügung stellt. Tatsächlich rekurriert auch jeder, der seine Literaturverwaltungssoftware, mehr oder weniger bewusst, auf die alte bibliothekarische Tätigkeit der Titelaufnahme.

In der Spezifizierung der Debatte ging es darum, herauszuarbeiten, was die Profession des Bibliothekars herausstellt. Wenig verblüffend sind es bestimmte Kompetenzen, die es ihm ermöglichen, nicht etwa etwas zu tun, was nicht auch ein engagierter Laie tun könnte, dies aber am Ende im Idealfall doch schneller, präziser und gründlicher. Man wird nicht Bibliothekar, weil man etwas tun möchte, was sonst niemand kann. Sondern, weil man es aufgrund eines gewissen Trainings besser kann. Spezialisierung hat den Vorteil, dass man eine komplexe Lebenswirklichkeit bewältigen kann, ohne alle in dieser auftretenden Aufgaben selbst lösen (können) zu müssen. Es überrascht schon ein wenig , warum ausgerechnet vom Bibliothekar derart vehement eine Legitimation eingefordert wird, während nie jemand die Rolle beispielsweise des professionellen Klempners oder Dachdeckers hinterfragt. Es zeigt aber auch, dass die Kernkompetenzen des Berufs entweder nicht deutlich genug in die breite Öffentlichkeit (und in die der Netzaktivisten) vermittelt werden oder tatsächlich als obsolet angesehen werden.

Komplizen Berlin / Workshop Bibliothek der Zukunft

Die Arbeit an der Bibliothek der / mit Zukunft. Auf dem Workshop KOMPLIZEN am 06.04.2014 im SUPERMARKT in der Berliner Brunnenstraße.

III. Was jeder kann und keiner braucht.

Ähnliches lässt sich vermutlich für den Geisteswissenschaftler festhalten. Michael Hagner und Caspar Hirschi fragen konkret nach dem Sinn der Behauptung, „dass die Geisteswissenschaften ihre angeblich verlorene gesellschaftliche Relevanz im Netz wiederfinden können“ und knüpfen damit an den schon etwas älteren Diskurs zur vermeintlich Obsoleszenz bzw. wenigstens Unterlegenheit der dieser interpretierenden und verstehensgerichteten Disziplinen gegenüber dem produktiven und normierten Potential der STEM-Fächer.

Es ist auch beim Geisteswissenschaftler nicht so, dass er über exklusive Kenntnisse und einzigartige Ideen verfügt, die nur von einem vergleichsweise kleinen Club von Eingeweihten (also der Fachcommunity) wertgeschätzt und erörtert werden können. Wenn man aber eine „angeblich verlorene gesellschaftliche Relevanz“ beklagt, dann heißt dies auch, dass eine allgemeine Einschätzung dessen, was diese Fächer forschen, zwischen „kann ja jeder“ und „braucht kein Mensch“ pendelt, meist mit Ausschlag zum zweiten, was gerade bei Nischenthemen schwerer zu entkräften ist, sofern das Gegenüber die Prämisse nicht akzeptiert, dass sofort offensichtliche Nützlichkeit keinesfalls die einzige Leitgröße menschlichen Handelns sein sollte. (Eine nützliche Gegenwartsanthropologie könnte vermutlich nachweisen, weshalb dieser Anspruch derzeit so populär und durchsetzungsstark ist.)

Für das „kann ja jeder“ bleibt der offensichtliche Unterschied zwischen demjenigen, der sich lange Zeit sehr intensiv und systematisch mit einem Gegenstandsbereich befasst hat und dem, der sich flugs ein paar Quellen durchsieht, um sich ein Urteil bilden zu können. Es heißt allerdings nicht, dass nicht auch das Tiefenwissen zuweilen in die Irre leitet. Es bedeutet zudem oft, dass Tiefenwissen zu einer Vorsicht gegenüber allzu schnellen Deutungen und Festlegungen führt. Diskussionen mit Aktivisten enden dann häufig in einem apodiktischen Lob der Tat und einem Vorwurf des feigen Zauderns und Zagens. Was manchmal zutrifft. Was öfters auch daneben schlägt.

Gleiches gilt, sehr bekanntermaßen, auch für die bibliothekarische Praxis, bei der eine allzu grundierte Position eventuell tatsächlich sinnvolle Anpassungen häufig ausbremst. (Dass im Bereich der öffentlichen Bibliotheken von den drei Säulen  –   Egalität, Anpassungsdruck, Effizienz  –  der Effizienzgedanke das eigentliche Triebmittel ist, wegen des G’schmäckles, aber gern hinter den anderen beiden Säulen versteckt wird, ist mittlerweile wahrscheinlich auch jedem bekannt.

Trotzdem ist die gestern geäußerte These des Aktivisten Marcell Mars (der sein sehr ehrenwertes Projekt Memory of the World explizit mit der Idee der Public Libraries grundiert), jeder könne heute in 15 Minuten Bibliothekar werden, aus professioneller Sicht auch bei großer Sympathie nicht konsensfähig. Aus der pragmatischen Sicht eines auf die subversive Tat fixierten Aktivisten wäre sie es vielleicht schon:

„It’s hard to get the “real” libraries/librarians loud and active. Part of the establishment of that dream, of public library, is that people working in the public libraries are public sector workers. They are not known to be particularly brave kind of people. In the time of crisis.“ (Garcia, Mars, 2014)

Der Aktivist blendet jedoch aus, wie er vor allem einfordert, dass die BibliothekarInnen laut und aktiv in einem Sinne sein sollten, den er der Public Library zuschreibt. Genaugenommen handelt es sich aber um diverse Konzepte von Public Library und während Marcell Mars ein digitales globales und offenes Wissensnetz imaginiert, das so beschrieben wird:

„The vision of the Memory of the World is that the world’s documentary heritage belongs to all, should be fully preserved and protected for all and, with due recognition of cultural mores and practicalities, should be permanently accessible to all without hindrance.“ (ebd,)

und dabei erstaunlich zugangsfixiert, also hinter den Ideen beispielsweise der Berlin Declaration on Open Access, bleibt, sehen sich die professionellen Bibliothekare häufiger im Auftrag einer konkreten Gemeinschaft oder Nutzergruppe und unter dem Druck, ihre Angebote entsprechend gestalten zu wollen und zwar im Rahmen dessen, was ihnen die Ressourcenlage zulässt.

Memory of the World ist fraglos ein hoch interessantes Konzept, eine Art anarchisches Publikations(nachweis)system, eine Graswurzel-Europeana und das aus ebenfalls im Interview erwähnte Monoskop wirkt teilweise wie eine zeitgemäßere Fortsetzung von Beats Biblionetz.

Das Betrübliche an der Diskussion mit vielen Aktivisten ist selten das Ziel, sondern die Vehemenz mit der sie für ihre Ideen streiten und zwar bisweilen dort, wo man sie nur auf die Unterschiede, die man zwischen der Public Library als Metapher im Web und der öffentlichen Bibliothek im Stadtraum Berlins hinweist. Über allem schwingt dann eben immer dieser Säbel der Ideologisierung.

Ähnliches lässt sich hin und wieder auch für den Diskurs der / über die Digital Humanities festhalten, die als Idee noch einen Tick weniger spezifiziert erscheinen, als die immerhin auf den Dreischritt Sammlung, Erschließung und Verfügbarmachung (Vermittlung) von Publikationen reduzierbare Rolle der Bibliothek.

Fragt man freilich weiter, was denn eigentlich eine Publikation im Netz sei und wo die Grenzen eines digitalen Dokuments  und die der Autorschaft liegen (Roger T. Pédauque kann von beidem berichten, Pédauque, 2003), dann sieht man auch hier vor allem Unschärfen in Relation. (Im erwähnten Sammelband befasst sich übrigens Niels-Oliver Walkowski in seinem Beitrag  „Text, Denken und E-Science. Eine intermediale Annäherung an eine Konstellation“ (S. 37-54) mit dem Phänomen von Enhanced Publications und der Frage der Textualität.)

IV. Berührungspunkte

Im Editorial des Nach-Feierabend-Bandes, gegen den ich mich in der Buchhandlung, dies als spätes Geständnis, zugunsten einer schönen Ausgabe mit Architekturskizzen von Leonid Lavrov entschied, wird das Diskursfeld „Digital Humanities“ von den Herausgebern dankenswerterweise etwas aufgefächert.

So benennen sie drei, wenn man so will, Digitalisierungsdimensionen der Geisteswissenschaften:

1. digitale Recherche (Digitalisierung der Inhaltsbeschaffung)

2. Digitalisierung von Papierbeständen (Digitalisierung der Inhalte)

3. Neue Forschungs- und Publikationsformen (Digitalisierung der Inhaltserzeugung und -verbreitung)

Aus der bibliothekswissenschaftlichen Warte fällt unvermeidlich auf, dass es sich bei den Schritten eins und zwei um Aktivitäten handelt, in die Bibliotheken spätestens seit den 1970er Jahren aktiv sind. Hier kommen digitale Basisprozesse der Fachinformation im geisteswissenschaftlichen Bereich an, was sich erwartbar aber eigentlich erstaunlich spät vollzieht.

Parallel ist die Rolle der Computerlinguistik zu berücksichtigen, die ebenfalls sehr viel von dem, was heute in den Digital-Humanities-Bereich dringt, schon sehr lange benutzt.

So liegen die digitalen Geisteswissenschaften tatsächlich ein bisschen in der Zange der Erfahrungshorizonte des Bibliothekswesens (Infrastruktur und Technologie zur digitalen Verarbeitung von Inhalten) und der Linguistik (Methodologie und Technologie zur digitalen Verarbeitung von Inhalten).

Ergänzt man beim dritten Aspekt eine eingeklammerte Silbe, so wird deutlich dass „Neue Forschungs- und Publikations(platt)formen“  gleichfalls etwas sind, bei denen Bibliotheken, und sei es nur mit ihrer Expertise auf dem Gebiet der Publikationsformenlehre, eine Rolle spielen können und nicht selten tun sie es in Projektrahmen auch. In einem höflichen Gutachten zu meinem Abstract für die DHd-Konferenz 2014 fand sich übrigens der Kritikpunkt benannt:

„Warum z. B. in der editionsphilologischen Forschung die Bibliothekswissenschaft eine wichtige Rolle spielt, ist für mich nicht nachvollziehbar.“ (unveröffentlichtes Gutachten zur DHd-2014)

Da die Nachfrage leider nicht im Auditorium wiederholt wurde, muss ich die Antwort hier andeuten: zum Beispiel im Wissen über die Entwicklung von Medialität und zwar sowohl im historischen Verlauf wie auch in der Breite. Selbstverständlich kann ein Editionswissenschaftler auch eine diesbezüglich tiefe Kenntnis besitzen, die in seinem Feld auch tiefer reicht, als die des Bibliothekswissenschaftlers. Der jedoch weiß im Idealfall zusätzlich, wie man in anderen Kontexten publiziert und wie man diese Publikationen auch langfristig verfügbar hält und was, wenn man etwas wie eine digitale Edition erfinden muss, in diesem Bereich technisch alles möglich und sinnvoll ist. Man kann auch anders antworten, aber das muss auch an anderer Stelle geschehen.

Die Schnittstelle zur Welt der digitalen Hacktivisten findet sich dort, wo Digital Humanities mit dem Impetus auftreten, ein „Werkzeug zur Neuorganisation des gesellschaftlichen Wissens und damit letztlich zur Reform des menschlichen Zusammenlebens“ zu sein (Hagner, Hirschi, S. 7). Hier weisen sie in Richtung Sozialutopie, wobei aus der präziseren Beobachtung offen bleibt, wie sehr hinter derartigen Aussagen auch wirkliche Überzeugungen stecken oder einfaches Taktieren, wenn es darum geht, den Anspruch auf Förderung entsprechender Projekte zu legitimieren.

Der Topos von der Verbesserung der Welt durch Zugang und Technologie begleitete ähnlich lange Zeit die Open-Access-Bewegung und ist als Motivationselement sicher häufig wichtig. Auf der anderen Seite steht der Druck, diese Verbesserung auch nachweisen zu müssen, was dann sehr schwer fällt, wenn Heilsversprechen besonders euphorisch ausfallen. In der Open-Access-Bewegung scheint man derweil auf pragmatischere bzw. niedriger zielende Argumentationen zu bauen, wobei nicht selten an das Argument der Erhöhung der Zugangsgerechtigkeit das Argument des volkswirtschaftlichen Nutzens tritt. In den Digital Humanities spielt dieses meist nur dann eine Rolle, wenn auf die Bedeutung verteilter und nachnutzbarer Ressourcen verwiesen wird.

Michael Hagner und Caspar Hirschi stellen vier andere Aspekte als zentral für die Diskussion heraus und eine diskursanalytische Annäherung an den sehr spannenden Ablauf der Debatte darüber, was Digitale Geisteswissenschaften sein können, findet darin wenigstens auf den ersten Blick ganz passende Basiskategorien:

  1. Autorschaft (Gegensatzpaar: adressierbarer [Einzel]Autor < > soziale Netzgemeinschaft)
  2. Forschungspraktiken (qualitativ, wenige Quellen < > quanitativ, Big Data)
  3. epistemische Tugenden (Argumentation, Narration < > Bereitstellung, Verlinkung, [eventuall auch Visualisierung])
  4. Publikationsformen (abgeschlossene Monografie / Artikel < > „liquide Netzpublikation“)

Die interessante Frage, die die Autoren, die sich als Nicht-Utopisten erklären, daraus ableiten ist, „ob [bei einer Durchsetzung der „neuen Ideale“] der Begriff Wissenschaft dann überhaupt noch tauglich und die Universität noch der richtige Ort wären, solche Kulturtechniken zu vermitteln“?  (ebd., S. 8) Was auch wieder eine Zuspitzung ist. Ganz ohne Polemisieren geht es wohl nirgends und so rutscht ihnen eine weitere Frage in den Text, nämlich, „wie viel Distant Reading die Geisteswissenschaften vertragen, ohne am Ende in digitaler Adipositas zu erstarren“? (S. 9) So bekommt Franco Moretti doch noch sein Fett weg. Somit implizieren sie weiterhin gleich selbst eine erste Antwort auf ihre Frage:

„Was bedeuten digital gesteuerte Erkenntnisverfahren wie etwa das Distant Reading – das eigentlich kein Lesen mehr ist, weil zahlreiche Texte nur noch mit einem bestimmten Algorithmus gescannt werden – für die traditionellen geisteswissenschaftlichen Herangehensweisen?“ (S. 9)

Wobei Franco Moretti mit der Benennung des Distant Reading gar nichts Wortwörtliches, sondern eine sprachspielerische Stichelei gegen die Kultur des Close Reading im Sinn hatte und in seinem zentralen Artikel (Moretti, 2000) verdeutlicht, dass es ihm um morphologische Analysen geht, die als Gegenkonzept zu der Tatsache dienen sollen, dass die literaturwissenschaftliche Tradition der Tiefenlektüre notwendig nur einen bestimmten Kanon berücksichtigt, die Welt der Literatur (bzw.: die Weltliteratur) aber weitaus reichhaltiger ist. Das auf Algorithmen setzende Distant Reading ist derzeit wahrscheinlich die beste Option, um dieses Korpus überhaupt in die Literaturwissenschaft hereinzuholen. Es besteht auch kein Anlass, hier eine Konkurrenz oder gar einen Nachfolger zum Close Reading zu sehen. Sinnvoller wäre, das Distant Reading als Erweiterung zu sehen. Denn wo sich das Close Reading konzeptionell auf die Lektüre des Einzigartigen, des Besonderen und Ungewöhnlichen ausrichtet, kann das Distant Reading mit seiner Musteranalyse durchaus helfen, exakt die Werke zu identifizieren, die es wirklich verdienen, sehr nah und gründlich studiert zu werden.

Insofern könnte man die Frage

„Inwiefern basieren die Digital Humanities auf neuen Forschungsfragen und inwiefern können sie solche generieren?“

möglicherweise besser so stellen:

„Inwiefern basieren Digital Humanities auf etablierten geisteswissenschaftlichen Forschungsfragen und wie können sie deren Bearbeitung unterstützen?“  (ebd.)

Man kann sich die Entwicklung der Digital Humanities nämlich auch problemlos als Erweiterung des Bestehenden vorstellen. So wie die Digitale Bibliothek erstaunlicherweise und trotz aller entsprechenden Beschwörungen nicht dazu geführt hat, dass die Bibliothek als Ort an Bedeutung verlor. Eher im Gegenteil.

Berlin, 07.04.2014

Literatur

Garcia, David; Mars, Marcell (2014) Book Sharing as a „gateway drug“: Public Library. In: new tactical research. Feb. 14, 2014 http://new-tactical-research.co.uk/blog/1012/

Hagner, Michael; Hirschi, Casper (2013) Editorial. In: Gugerli, David [Hrsg.] ; Hagner, Michael [Hrsg.] ; Hirschi, Caspar [Hrsg.] ; Kilcher, Andreas B. [Hrsg.] ; Purtschert, Patricia [Hrsg.] ; Sarasin, Philipp [Hrsg.] ; Tanner, Jakob [Hrsg.]: Nach Feierabend 2013. Zürich: diaphanes. S. 7-11 (PDF-Download des Editorials)

Moretti, Franco (2000) Conjectures on World Literature. In: New Left Review. 1 (Jan/Feb 2000) http://newleftreview.org/II/1/franco-moretti-conjectures-on-world-literature

Pédauque, Roger T. (2003): Document : forme, signe et médium, les re-formulations du numérique. In: Archive Ouverte en Sciences de l’Information et de la Communication. http://archivesic.ccsd.cnrs.fr/sic_00000511

Walkowski, Niels-Oliver (2013) Text, Denken und E-Science. Eine intermediale Annäherung an eine Konstellation. In: Gugerli, David [Hrsg.] ; Hagner, Michael [Hrsg.] ; Hirschi, Caspar [Hrsg.] ; Kilcher, Andreas B. [Hrsg.] ; Purtschert, Patricia [Hrsg.] ; Sarasin, Philipp [Hrsg.] ; Tanner, Jakob [Hrsg.]: Nach Feierabend 2013. Zürich: diaphanes.  S. 37-54

Wampfler, Philippe (2013) »online first«. Geisteswissenschaften als Social Media. In: Gugerli, David [Hrsg.] ; Hagner, Michael [Hrsg.] ; Hirschi, Caspar [Hrsg.] ; Kilcher, Andreas B. [Hrsg.] ; Purtschert, Patricia [Hrsg.] ; Sarasin, Philipp [Hrsg.] ; Tanner, Jakob [Hrsg.]: Nach Feierabend 2013. Zürich: diaphanes.  S. 79-102

Wer übernimmt was? Zum Verhältnis von Digital Humanities und Geisteswissenschaften.

Posted in LIBREAS.Debatte, LIBREAS.Feuilleton by Ben on 12. September 2013

Ein Kommentar von Ben Kaden (@bkaden)

Der Beitrag ist zwar nach den Zeitrechnungsstandards des WWW schon uralt, da er aber offensichtlich in der deutschen Digital-HumanitiesCommunity für einigen Wirbel sorgt und mir, nachdem er sich scheu unter meinem ansonsten schon zuverlässig zugreifenden Radar hindurch geduckt hatte, nun noch einmal mit Nachdruck (bzw. als Ausdruck) auf den Schreibtisch gelegt wurde, will ich doch wenigstens meine Kenntnisnahme dokumentieren.

Am 19.07.2013 druckte die Frankfurter Allgemeine Zeitung auf der Themenseite Bildungswelten (S. 9) einen Beitrag des Literatur-Juniorprofessors Jan Röhnert (TU Braunschweig, Wikipedia-Seite) mit dem Titel Feindliche Übernahme? Die Geisteswissenschaften wehren sich gegen falsche Ansprüche der Informatik, aber setzen auf die „Digital Humanities“. Er berichtet vom „Gespenst einer feindlichen Übernahme [der geisteswissenschaftlichen] Fächerkultur durch die Dogmen der Informatik.“ , was offensichtlich derzeit das heißeste Eisen im Metadiskurs der Geisteswissenschaften zu sein scheint. Jedenfalls auf dem Sommerplenum 2013 des Philosophischen Fakultätentages in Chemnitz im späten Juni.

Eigentlich handelt es sich um einen Methodenstreit, denn die Geisteswissenschaften fürchten ihre Mathematisierung und damit einhergehend die Verdrängung von Interpretation bzw. Hermeneutik. Erstaunlicherweise ist die Bibliothekswissenschaft hier einen Schritt voraus, denn ähnliche Debatten wurden am Berliner Institut bereits Ende der 1990er Jahre rege ausgefochten, wobei die zweite Seele (meist die biblio- bzw. szientometrische) lange Zeit parallel irgendwo unter der Bezeichnung „wissenschaftliche Informationsversorgung“ oder auch „Dokumentation(swissenschaft)“ parallel an ihrer Entfaltung arbeitete, um schließlich mit der nahezu Volldigitalisierung bibliothekarischer Datenverarbeitungsprozesse und endlich auch mehr und mehr der Bibliotheksbestände zur bestimmenden wurde. Dass die Gegenstände der Bibliothek digitalisiert wurden ist insofern von Bedeutung, als dass diese Digitalisierungen zugleich häufig die Gegenstände der Geisteswissenschaften (nämlich Texte) digitalisierten und so erst die Digital Humanities möglich machten.

Der Paradigmenwechsel, den laut Jan Röhnert der Bremer eScience-Fachmann Manfred Wischnewsky einfordert, vollzog sich dort schon weitaus früher und mittlerweile sind alle Facetten metamedialer Auseinandersetzung mit analogen Bibliotheksbeständen (Einbandkunde, Buchgeschichte, u. ä.) längst aus den Lehrplänen des Berliner Instituts verschwunden. Das Medium Buch ist für die Bibliothekswissenschaft in Berlin weitgehend irrelevant geworden. Betrachtet man die Debatten der Digitalen Geisteswissenschaften aus einer medialen Warte, geht es dort um einen ganz ähnlichen Schritt: Die Auflösung des Einzelobjekts, also in der Regel eines Werkes, das in der Literaturwissenschaft oft klassischerweise in direkter Beziehung zum Medium Buch oder etwas ähnlich Berührbarem steht.

Es sind verschiedene Stränge, die im Diskurs zusammen- und auch aneinander vorbei laufen. Jan Röhnert berichtet von Positivismus-Vorwürfen und dem bekannten und aus irgendeinem Grund gepflegten Irrtum, bei dem man „quantitativ erzeugte technische Simulationen bereits als qualitativen Wissenszuwachs ausgibt.“

Zumal der Wissensbegriff selbst, wie heute jedem bewusst sein dürfte, mit oft myopischem Blick auf ein Simulacrum verweist. Abstrakt ist das Wort „Wissen“ auch durch seine Übernutzung in den vergangenen Jahrzehnten derart zu einem substanzarmen Textbaustein eingeschrumpft, dass eigentlich jeder mit etwas Sprachbewusstsein ausgestattete Diskursteilnehmer auf dieses Hohlwort zu verzichten bemüht sein sollte.  Dann würden vielleicht auch die aus dem mit dem Ausdruck „Wissen“ fast  verbundenen Anspruchsdenken nicht ganz unzusammenhängenden Missverständnisse reduziert.

Aus einer distanzierten Warte ist die Aufregung ohnehin unverständlich, handelt es sich bei den Digital Humanities doch ganz offensichtlich nicht um die Fortsetzung der Geisteswissenschaften mit digitalen Methoden, sondern um die Auseinandersetzung mit traditionell geisteswissenschaftlichen Gegenständen mittels digitaler Aufbereitungs- und Analysewerkzeuge. Es ist eher eine neue Form von Wissenschaft, die hier entsteht. Dass man sich einer geistigen Schöpfung nach wie vor auch hermeneutisch nähern kann (und zum Wohle der Menschheit auch zukünftig muss), sollte außer Frage stehen. Bedenklich wird es erst, wenn Förderinstitutionen Durch- und Weitblick verlieren und aus Zeitgeist-, Marketing- oder anderen Gründen denken, dass man die Unterstützung für die Geisteswissenschaften auf die Digital Humanities umschichten sollte. Diese Angst ist, wie man oft von Betroffenen hört, nicht ganz unbegründet und wahrscheinlich die eigentliche Essenz der Behauptungskämpfe.

Inhaltlich verwundert dagegen (nicht nur) aus einer semiotischen Warte, warum die traditionellen Geisteswissenschaften (eine behelfsmäßige Formulierung in Abgrenzung zum Ausdruck der „digitalen Geisteswissenschaften“) ihre hermeneutische Kompetenz nicht noch stärker auf natur- und sozialwissenschaftliche Gegenstandsbereiche ausweiten. Wer beispielsweise Franz Hessels Stadtraumlektüren kennt, weiß sofort, dass sich jedes beobachtbare soziale Gefüge genauso wie auch die Geometrie als Narrativ lesen und verstehen lässt.

Übrigens auch die Debatte um die „Feindliche Übernahme“, wobei Jan Röhnert unnötig in die – etwas wohlfeile –  Parallele zu geheimdienstlicher Datenanalyse stolpert:

„Solche Software, die  – nicht unähnlich den kürzlich aufgedeckten Spionageprogrammen „Prism“ und „Tempora“ –  unvorstellbar große Informationsmengen analysiert […]“

So naheliegend die Ähnlichkeit ist, so unglücklich ist der Vergleich. Denn dass natürlich geheimdienstliche Aufklärung seit je massiv auch auf interpretatorische, teilweise sicher auch hermeneutisch inspirierte Verfahren setzte, steht genauso außer Frage. Die Parallele ist keinesfalls neu und als kritisches Argument nur tauglich, wenn man sie auch entsprechend erläutert. In der Länge dieses Artikels ist das freilich nicht möglich. Dabei liegen mit den zitierten Positionen von Gerhard Lauer und Malte Rehbein eigentlich schon sehr konsensfähige Positionen auf dem Tisch und im Text und auch Jan Röhnert beendet seine Schilderung derart versöhnlich, dass man als außenstehender Beobachter die Aufregung gar nicht versteht. Übrigens auch nicht die, der Digital-Humanities-Community, von der mir heute berichtet wurde.

 (Berlin, 12.09.2013)

In weiter Ferne und nah. Über Dekonstruktion, Digitalkultur und Digital Humanities

Posted in LIBREAS.Feuilleton by Ben on 27. Juni 2013

Ein Blick in aktuelle Diskurse.

von Ben Kaden / @bkaden

„So einen wie ihn wird es im digitalen Zeitalter nicht mehr geben.“

beendet der Verleger Michael Krüger seinen Nachruf auf Henning Ritter in der Mittwochsausgabe der NZZ (Michael Krüger: Leser, Sammler und Privatgelehrter. Henning Ritter – eine Erinnerung. In: nzz.ch, 25.06.2013) und lässt damit den Leser anders berührt zurück, als es ein Nachruf gemeinhin zur Wirkung hat. Denn in gewisser Weise spricht er damit der Gegenwart, die wenig definiert als von Digitalem dominiert gekennzeichnet wird, die Möglichkeit ab, eine intellektuelle Kultur hervorzubringen, für die Henning Ritter stand. Das klingt nahezu resignativ und ist aus dem tiefem Empfinden des Verlusts auch erklärbar. Die traurige Einsicht ist zudem Lichtjahre von dem Furor entfernt, der der Debatte um eine Lücke zwischen Netz und Denkkultur noch vor wenigen Jahren mit Aufsätzen wie dem über den Hass (!) auf Intellektuelle im Internet von Adam Soboczynski kurzzeitig beigegeben wurde. (Adam Soboczynski: Das Netz als Feind. In: Die ZEIT, 20.05.2009) Ich weiß nicht, ob das Netz mittlerweile als Freund verstanden wird. In jedem Fall haben sich drei Auslegungen durchgesetzt: das Netz als Medium (nüchtern-funktional), das Netz als Marktplatz und das Netz als sozialer Wirkungsraum.

Dass das Netz auch als Austragungsort intellektueller Diskurse geeignet ist, merkt man dagegen in Deutschland weniger, einfach weil die spärlichen Gegenstücke zu dem nahezu Überfluss der entsprechenden Magazinkultur im englischsprachigen Weltenkreis, die längst medial eine e– und p-Hybridkultur ist und vom New Yorker über The Point bis zur White Review reicht, kaum im Netz präsent sind. Vielleicht gibt es auch tatsächlich zu wenige (junge) Intellektuelle dieses Kalibers in Deutschland. (Einige reiben sich auf irights.info am denkbar undankbaren Themenfeld des Urheberrechts auf und manchmal rutscht bei perlentaucher.de  etwas ins Blog, was in diese Richtung weist.) Und sicher hat dieses Defizit eine Reihe von Gründen. Das wir mittlerweile digitale Medienformen in unseren Alltag eingebettet haben, dürfte jedoch kaum die Ursache sein.

Dass sich die intellektuelle Kultur einer jeweiligen Gegenwart von der der Gegenwarten davor und danach unterscheidet, liegt darüber hinaus bereits offensichtlich in der Verfasstheit von Kultur begründet. Das digitale Zeitalter wird auch keinen Giordano Bruno hervorbringen (höchstens eine Giordano-Bruno-Stiftung) und keinen Walter Benjamin (höchstens einen Walter-Benjamin-Platz) und keinen Pjotr Kropotkin (höchstens noch ein unpassend eingeworfenes Zitat eines Oberschlaumeiers im politikwissenschaftlichen Proseminar). Aber „Postkarten mit aufgeklebten Zeichnungen oder vermischten Nachrichten, Briefe, die aus nichts als Zitaten bestanden“ zu versenden – das geschieht noch. Und zwar tatsächlich im Postkarten- und Briefformat und auch beispielsweise bei Tumblr, das diese Kulturpraxis des Collagierens, die an anderer Stelle selbst als Niedergang der abendländischen Kultur gesehen wurde, nahezu entfesselt erlebbar macht.

Auch intellektuelle Bohemiens gibt es erfahrungsgemäß und jedenfalls in Berlin nicht zu knapp. Nur sitzen sie – einige Jungfeuilletonisten ausgeklammert – nicht mehr bei «Lutter & Wegner», wohl aber manchmal im Verlagsprogramm bei der edition unseld und ansonsten, wenn sie noch etwas progressiver sind, doppelt exkludiert (freiwillig und weil die Verkaufskalkulatoren diesem Denken neben der Spur keinen Markt zusprechen) vom herkömmlichen Verlagsestablishment in ihren eigenen Diskursräumen (oft mehr Kammern). Und sogar den „unabhängigen Privatgelehrten, der mit einer gewissen boshaften Verachtung auf die akademischen Koryphäen herabblickt[…]“, findet man auf beliebigen Parties der Digital Boheme fast im Rudel. Die Zeiten, dass man Avantgarde war, wenn man sich von biederen Funktionswissenschaftlerei in den Hochschulen abgrenzte, waren schon vorbei, bevor man E-Mails schrieb. Der Hipsterismus hat aus dieser Einstellung sogar fast ein Freizeitutensil gemacht. Dass progressives Denken und Hochschulkarriere keine kausale Verknüpfung eingehen, sondern eher zufällig zusammenfinden, weiß mittlerweile auch jeder, sind das Universitäts- wie auch Wissenschaftssystem als rationaler Funktionskorpus doch geradezu naturgemäß darauf zugeschnitten, Denken zu normieren und in recht schmalen Kanälen zu führen.

Die Melancholie des Hanser-Verlagschefs Michael Krüger ist zweifellos nachvollziehbar. Neutral gesprochen wäre der Ausstiegssatz völlig zutreffend und selbstevident. Die Versuchung der Verklärung der persönlich verlebten Zeit als der besten aller möglichen Daseinsvarianten bedrängt sicher irgendwann fast jeden. Und einmal wird sicher eine Koryphäe der digitalen Geisteskultur einen ähnlichen Satz voller Trauer über einen Netzintellektuellen schreiben. Man darf ihm allerdings wünschen, dass er den Satz ohne Benennung der Nachfolgezeitrechnung (also ohne das dann aktuelle „digitale Zeitalter“) verfasst. Denn wie wahrer wäre die Aussage, wenn sie schlicht: „So einen wie ihn wird es nicht mehr geben.“ Oder besser noch: „Es gibt ihn nicht mehr.“ hieße. Große Persönlichkeiten, zu denen Henning Ritter, Homme de Lettres und Mensch als Mensch, zweifellos zählte, brauchen keine vergleichende Wie-Verortung im Zeitlauf.

II

Womöglich wird der „Methodenfreak“ (Süddeutsche Zeitung) Franco Moretti in diesem „einmal“ der Rückschau als eine Leitfigur der Geisteswissenschaften im Zeitalter ihrer digitalen Re-Evozierbarkeit gelten. Lothar Müller widmet dem Vorzeige-Digital-Humanist aus Stanford bereits heute im Feuilleton der Süddeutschen Zeitung vom Mittwoch einen satten Sechsspalter (Lothar Müller: Ein Methodenfreak. In: Süddeutsche Zeitung, 26.06.2013, S. 14) mit einer eindrucksvollen Porträtaufnahme aus der Kamera der mit ihren Aufnahmen der deutschen Fußballnationalmannschaft ziemlich bekannt gewordenen Regina Schmeken. In der Bildrepräsentation spielt der Literaturwissenschaftler also bereits in einer oberen Liga. Isolde Ohlbaum dagegen, von der das zentrale Nachruffoto von Henning Ritter stammt (u. a. Dienstag im FAZ-Feuilleton), kennt man eher von ihren Aufnahmen von Alberto Moravia, Susan Sontag und Elias Canetti. Der Kulturbruch scheint sich bis ins Lichtbild einzuschreiben.

Franco Moretti, der ursprünglich (und „am liebsten“) theoretischer Physiker werden wollte, bricht nun tatsächlich und vielleicht noch stärker als jede These vom Tod der Autorenschaft in die stabile Kultur der Literaturanalyse ein, in dem er das Close Reading mit seiner quantitative Lektürepraxis, vorsichtig formuliert, in Frage stellt.

Lange Zeit war die Nahlektüre bereits aus praktischen Gründen die einzig gangbare wirkliche gründliche Auseinandersetzung mit Text. Denn angesichts der seit je immensen Mengen an Publiziertem, führte ein intellektuelles Mitteldistanzlesen meist nur zu – oft sehr eindrucksvollem – Querschnittswissen, was für das Kamingespräch hervorragend, für die harte wissenschaftliche Diskursführung aber zu oberflächlich ist. Die minutiöse Kenntnis weniger Texte und dazugehöriger Kontexte galt lange als edles Ziel der deutenden Textdisziplinen – wenngleich die minutiöse Kenntnis vieler Texte besser gewesen wäre, in einem normalen Wissenschaftsberufsleben aber einfach nicht realisierbar. Daher Kanonisierung, daher Beschränkung auf die Schlüsseltexte und Leitfiguren. Daher gern auch noch das dritte Buch über Achim (z.B. von Arnim).

III

Digitale Literaturwissenschaft bedeutet nun, sich der Stärken der Rechentechnik (= der automatischen Prozessierung großer Datenmengen) zu bedienen, um auf dieser Grundlage – sie nennen es „Distant Reading“ – das Phänomen Literatur strukturell, idealerweise als Gesamtgeschehen, zu erfassen, zu erschließen und (zunächst) interpretierbar zu machen. Die Manipulierbarkeit – vielleicht als „distant writing“ – wäre als Zugabe im Digitalen problemlos denkbar. Moretti trägt damit die naturwissenschaftliche Idee des verlässlichen Modells in die Beschäftigung mit Literatur:

„Ich bin auf Modelle aus […] auf die Analyse von Strukturen. Was ich am ‚close reading‘ nicht mag, ist das in den meisten Varianten anzutreffende Wohlbehagen an der unendlichen Multiplikation von Interpretationen, zum Beispiel der ‚deconstruction‘, wo die Leute umso glücklicher sind, je mehr Widersprüche sie in einem Text entdecken. Diese Beschränkung auf die immer reichere Interpretation einzelner Werke hat mich noch nie gereizt.“

So Moretti, der damit selbstredend auch eine völlige Ausblendung des Zwecks der Dekonstruktion vornimmt, die sich ausdrücklich und aus gutem Grund gegen die Reduktion der Welt auf allgemeine Regeln und hin zur Anerkennung bzw. der Untersuchung des Spezifischen wendet. Diesen Ansatz auf Wohlbehagen und Glücklichsein zu reduzieren, zeigt vor allem, wie tief die Gräben zwischen den Schulen in den USA sein müssen. Wer sich nämlich an einem dekonstruktiven Lesen versucht hat, weiß, wie unbehaglich und zwangsläufig unbefriedigend diese unendliche Kärrnerarbeit in der stetigen Verschiebung des Sinns sein muss. Mit einer modellorientierten Wissenschaftsauffassung, vermutlich sogar mit einer auf Erkenntnis (statt Verständnis) und Kontrolle (statt Anerkennung) gerichteten Wissenschaft lässt sich die Dekonstruktion kaum in Einklang bringen. Diese Art von Auseinandersetzung mit Text produziert kein sicheres Wissen, sondern im Gegenteil, wenn man so will, bewusst verunsicherndes. Das mag sie so unbequem und auch kaum leicht verwertbar machen.

IV

Was Moretti macht, wenn er Textmassen quantitativ und statistisch auswertet, entspricht prinzipiell den digitalökonomischen Datenanalysen, die man, wie wir mittlerweile wissen, auch zur geheimdienstlichen Terrorabwehr verwenden kann. Sein Konzept – er nennt es Quantitativen Formalismus – dient gleichfalls zur Strukturerschließung des Dokumentierten, also des Empirischen, wobei sich systematisch Abweichungen isolieren lassen, die man dann bei Bedarf qualitativ durchleuchten kann. Damit gewinnt man fraglos eine solidere Basis für die Auseinandersetzung mit Texten in ihrer Gesamtheit (so sie in ihrer Gesamtheit digitalisiert und Teil des Korpus sind). Man erfährt bei der richtigen Analyse viel über die syntaktischen, mitunter auch konzeptionellen Relationen zwischen Textprodukten bzw. Äußerungen. Man kann Querverbindungen und Referenzen isolieren und nachverfolgen. Bisweilen deckt man auch Plagiarismus auf und Doppelschöpfungen. Es lassen sich Aussagen über die Produktions- und Rezeptionsbedingungen von Texten treffen (zum Beispiel über das Mapping mit Ausleihstatistiken öffentlicher Bibliotheken). Aus vielen Perspektiven können wir zu den Gegenständen der Literaturwissenschaft so exakt wie noch nie in der Wissenschaftsgeschichte Aussagen treffen, Schlüsse und Querverbindungen ziehen und Einsichten vorbereiten. Wir sind in der Lage, aus einer Art Vogelperspektive ein riesiges Feld der Literatur zu betrachten und zugleich zu übersehen.

Allerdings, und das ist der Unterschied zwischen einem guten Close Reading und dem besten vorstellbaren Distanzlesen, bleibt die Literatur aus dem Korb dieses Heißluftballons unvermeidlich unbegreiflich. Wir können nicht gut mit unserer Wahrnehmung zugleich über den Dingen und in den Dingen sein. Im besten Fall können wir also in einer Kombination von close und distant Morettis Draufsichtverfahren als Drohne benutzen, um – je nach Erkenntnis- und Handlungsinteresse – den Zugriff zu präzisieren. In dieser Hinsicht sind statistische Zugänge eine grandiose Erweiterung des wissenschaftlichen Möglichen. Die Dekonstruktion könnte sich des Quantitativen Formalismus sogar ganz gut bedienen, wenn es darum geht, etablierte Perspektiven der Dekonstruktion zu verschieben. Als Alternative wäre das Verfahren der statistisch erschlossenen Vollempirie dagegen offensichtlich untauglich, da es schlicht etwas ganz anderes in den Blick nimmt, als die Praxis der Nähe.

V

„ ‚Persönlichkeit‘ auf wissenschaftlichem Gebiet hat nur der, der rein der Sache dient“, schreibt Max Weber, Morettis Idol, und dies reproduziert kaum verschleiert eine religiöse Bindung in die Wissenschaft, die hiermit die Sache zum Gottesersatz erhebt. Die Identität der Wissenschaftlerpersönlichkeit ergibt sich allein aus dem Dienst am Objekt. Mit Aufklärung hat die sich daraus leider bis heute oft ableitende Empiriefrömmelei jedoch wenig zu tun. Ein Dogma kämpft hier nur gegen das andere und für wirklich Intellektuelle war dieses Preisboxen um die Wahrheit noch nie ein besonders attraktives Spektakel, zumal sie meist nur von den billigen Plätzen zusehen durften. Nun wäre eine post-sachliche, also konsequent entdogmatisierte Wissenschaft nicht mehr Wissenschaft wie wir sie kennen, schätzen und als sinnvoll erachten. Sondern vielleicht systematisierte Intellektualität. Oder eben das, was man im besten Sinne meinte, als man Humanities eben nicht als Sciences konzipierte.

Die Digital Humanities und die quantitative Literaturwissenschaft sind nicht, wie man häufig vermutet, eine Weiterentwicklung der geisteswissenschaftlicher Praxen, sondern eine neuartige Annäherung an deren Bezugspunkte. Was dann durchaus sympathisch ist, wenn nicht Max-Weber-Adepten im gleichen Zug, diese weicheren Ansätze als inferior herausstellen, weil sie davon ausgehen, dass auch Literatur vor allem empirisch ist und damit in die Irre wandern. Spätestens seit dem 20. Jahrhundert sind der Literatur und der Kunst die Ansprüche der Empirie nämlich vor allem eins: gründlich suspekt. Literatur geht es – wie übrigens auch der Dekonstruktion – nicht mehr um die Spiegelung der Welt, sondern darum, sich den Spiegeln so gut es geht zu entziehen, das Bild zu biegen, um das sichtbar zu machen, was dahinter liegen könnte. Diese Art von Literatur zielt nicht auf Wahrheit und vermutlich macht sie diese für viele unheimlich und für ein paar Freunde des Close-Readings eben doch reizvoll. Wenn diese kreativ genug sind, nicht auf Wahrheitsanspruch zu lesen, gelingt es sogar, etwas Fruchtbares und Anschlussfähiges daraus abzuleiten, das keine Statistik jemals hergibt.

VI

Nun ist zu beantworten, worin dieses Fruchtbare bestehen könnte. Hinweise liefert vor allem der Blick in die Gegenwart bzw. in die etwas jüngere Vergangenheit, also in die Entfaltungszeit des Michael Krüger’schen „Digitalen Zeitalters“ (als besäße der Äonen-Bezug noch irgendeinen diskursiven Wert). Wer sich die Entfaltung der digitalen Kultur der vergangenen zwei Jahrzehnte ansieht, erkennt unschwer, dass ihr Erfolg durch die Kombination zweier Grundprinzipien begründet ist: das des Narrativen und das der Statistik. Plattformen wie Facebook sind biografischer Abbildungsraum und Sozialkartei herunteradressiert auf die kleinste kulturelle Einheit: Das Individuum. Während uns die Zahlen (Freunde, Likes, Shares, etc.) – Übernahme aus der Ökonomie – unseren Erfolg bei der sozialen Einbindung (Netzwerk) unseres Lebens präzise nachweisen, benutzen wir die Narration unserer Selbste dazu, diese Zahlen (unsere soziale Akzeptanz) zu beeinflussen. Selbstverständlich zählt im nächsten Schritt nicht nur die Quantität, sondern auch – FOAF – die Qualität unserer Kontakte.

Etwa in der Mitte dieser zwei Jahrzehnte öffentliche Netzkultur liegt eine Zäsur. Die ersten zehn Jahre etablierten den digitalen Kommunikationsraum noch weitgehend nach dem Muster der analogen Welt (massenmediale Kommunikation hier, private Kommunikation per E-Mail, Chat, P2P-Filesharing da und obendrauf noch ein paar Versandhäuser mit Online-Katalogen) wogegen mit dem sogenannten Web 2.0 die Trennwände nach und nach durchlässig wurden, so dass mittlerweile auf unseren Privatprofilen sichtbar wird, welche Zeitungsartikel wir abgerufen und welche Musiktitel wir abgespielt haben. Das Besondere als Basis der Handlungsstrukturen rückt in den Vordergrund. Wir schwanken zwischen Me-too und Me-first, letzteres mit der Chance, ganz früh im Trend zu sein und damit zu punkten (das Pyramidenspiel des Sozialprestiges) und zugleich mit dem Risiko, fehl zu gehen.

Diese relativ leicht erfass- und visualisierbare Statistik unseres Kulturverhaltens hilft uns einerseits, einen statistisch stabilisierten Überblick über unsere Nutzungsaktivitäten in äußerst komplexen Medien zu gewinnen und andererseits, dies in die Autofiktion unserer Identität einzubinden. Was wir von Max Weber also übernehmen können, ist der subjektive Sinn und das darin Eingebettete, das irreduzibel ist auch vor der Summe des einzeln Geteilten. Dieser subjektive Sinn geht, so eine Ergänzungsthese, nämlich nicht vollständig darin auf, was wir denken, was andere in unser Handeln hineinlesen sollen, sondern er wird auch permanent eigeninterpretiert und zwar vor dem Horizont unserer Selbstwahrnehmung und in Hinblick auf die Stimmigkeit unseres Eigennarrativs.

Die Explizierungsmedien für unser soziales Handeln helfen uns nun, die permanente Fortschreibung dieser Identitätserzählung so systematisch zu pflegen, wie es sonst bestenfalls mit einem penibel geführten Tagebuch möglich gewesen wäre. Das Reizvolle für die Bibliotheks- und Informationswissenschaft ist in diesem Zusammenhang die zu beobachtende Ausweitung dokumentarischer Praxen in die Selbstverwaltung der Identität. Wo wir unser Leben, die Spuren, aus denen wir Erinnerung generieren können, expliziert aufzeichnen und damit, teilweise öffentlich sichtbar, nachprüfbar machen, ist es nicht unwahrscheinlich, dass wir unsere Lebensgestaltung im Sinne eine dokumentierten Kontinuität und Stimmigkeit dieser Gesamtverläufe ausrichten. Dass der Sozialdruck, entstehend aus den geteilten Reise-, Konsum- und Aktivitätsbilanzen der Anderen, eine erhebliche Rolle spielt, ist unübersehbar.

Unser Web-Selbst wird so auf bestimmte Effekte hin manipuliert bzw. manipulierbar und unser, nennen wir es mal so, Offline-Selbst daran angepasst. Gerade bei Phänomenen wie dem Online-Dating entstehen erfahrungsgemäß häufig Differenzen aus dem geweckten Erwartungsbild (oder dem angenommen geweckten Erwartungsbild) und dem tatsächlich einlösbaren Offline-Original. Rein strukturell unterstützen die Plattformen die Verwandlung unserer sozialen Repräsentation in eine vermeintlich objektiv (Statistik) bewertbare Warenförmigkeit. Dies gilt also nicht nur in Hinblick auf unsere Adressierbarkeit für Werbung, sondern auch hinsichtlich des Repräsentationsdrucks auf unsere sozialen Kontakte, die uns jederzeit aus ihrem expliziten Netzwerk entfernen können, wenn wir ihnen als unpassend oder irrelevant erscheinen.

An der Schnittstelle zum professionellen Umfeld sind entsprechende Effekte noch deutlicher. Wo potentielle Arbeitgeber in den Besitz von Partyfotos und auf dieser Grundlage zu für uns realweltlich negativen Entscheidungen kommen können (eine große Debatte vor einigen Jahren), wirken diese Strukturen automatisch auf unser Verhalten zurück. Jedes aktuelle Mobiltelefon hat eine Kamera – wir können also überall fotografiert werden und müssen entsprechend überall adäquat wirken. Fast freut man sich, dass diese Spitze der Verhaltenslenkung noch nicht in Umsetzung ist und sich die Partytouristen in Berlin-Mitte nach wie vor benehmen als gäbe es weder Instagram noch ein Morgen. Und schließlich gibt es noch diejenigen, die keine Lust (mehr) auf die Nutzung dieser Verwaltungsmedien haben, denen die Gefahr der Fremdbeobachtung und / oder der Aufwand solcher Selbst(bild)kontrolle zu hoch ist. Offen ist allerdings, was wird, wenn eine virtuelle Repräsentation normativ wird, vielleicht sogar staatlich gesteuert. Wer das für absurd hält, der sollte sich einmal mit der Geschichte des Personalausweises befassen. Dann erscheint fast folgerichtig, dass früher oder später eindeutige digitale ID-Marker für unsere virtuellen Repräsentationen als notwendig eingeführt werden.

VII

Eine schöne Herleitung der generellen digitalkulturellen Entwicklung bis heute bietet in einer nahezu enzyklopädischen Form (immerhin nach dem Untergang der Enzyklopädien und damit der Vorstellung, man könne einen allgemeinen Kanon des Faktenwissens in einer geschlossenen Form abbilden) eine im Mai erschienene und noch erhältliche Sonderausgabe des zentralen Begleitmediums der Netzkultur – der Zeitschrift Wired: Wired. The first 20 years. (Interessanterweise wurde das mittlerweile zum popkulturellen Parallelmedium etablierte und weitaus anarchischere Vice Magazine fast zeitgleich gegründet. Wer die Jahrgänge dieser Publikationen bewahrt hat, dürfte für eine Genealogie der populärkulturellen Gegenwart mitsamt der dazugehörigen Kulturindustrie eine solide Forschungsgrundlage besitzen.)

Wired - das weiße Heft

Wired. Das weiße Heft, hier platziert auf einem Retro-Liegekissen. Auf der soeben erfundenen Moretti-Skala Close-Distant-Reading lautet die Leseempfehlung für diese Ausgabe: Mittel. Wer leichtgängigen kalifornischen Selbstbespiegelungsjournalismus mag, findet exakt was er erwartet, muss es also eigentlich nur überfliegen. Wer sich gern erinnern möchte, wie alles begann mit der Netzkultur, entdeckt die richtigen Schlüsselwörter (bzw. seine Madeleines wie Proustianer sagen würden). Wer sanftmütige Insiderscherze zur Ted-Talk-Präsentationspraxis sucht, bekommt Unterhaltung für die Länge von etwa 10 Tweets. Insgesamt ist die Ausgabe ein schmuckes Sammlerstück und wir werden in zehn Jahren sicherlich mit einigem Erstaunen und nicht wenig Freude an der Nostalgie wieder hineinblättern.

Diejenigen, die in den 1990ern mit der Netzkultur anbandelten, finden zudem im Jubiläumsheft eine Dokumentation einschlägiger Leitphänomene der eigenen Vergangenheit. Die Anknüpfungspunkte von A wie Angry Birds, Apps und Arab Spring über Friendster, Microsoft (sehr ausführlich), Napster (anderthalb Spalten), Trolling („But when skillful trolls do choose to converse with their critics, they poison the discussion with more over-the-top provocations masquerading as sincere statements.”, S. 160) und Wikileaks bis Z wie ZeuS sind jedenfalls vielfältig.

Ein schöner Trigger ist natürlich das Stichwort Blogs: 1998, als die meisten nutzergenerierten Inhalte noch bei Freespace-Anbietern wie Geocities oder tripod.com lagen, existierten, so erfährt man auf Seite 34, 23 Weblogs. Webweit. Ein Jahr später waren es ein paar zehntausend und der Schlüssel war eine vergleichsweise simple Webanwendung namens Blogger eines Zwei-Personen-Unternehmens namens Pyra Labs.

Diese Geschichte, genauso wie Google, das 2003 Blogger übernahm, zeigt den faszinierenden Kern der Digitalkultur. Die entscheidenden Entwicklungen waren immer durch das Engagement weniger Akteure (eine Porträtgalerie vom Präsidenten-Fotografen Platon präsentiert von Marissa Mayer bis Tim Cook all diese Lichtgestalten in Schwarz-Weiß), sehr simple Ideen, wenig langfristiger Planung und glücklicher Fügung geprägt. All diese Spuren sind so umfassend wie bei keiner anderen mächtigen Kulturentwicklung in der Menschheitsgeschichte dokumentiert. Die heutigen Big Player der Netzkultur begannen alle mit wenig mehr als vergleichsweise minimalem Budget und einer Idee. Wo man planvoll vorging und viel Geld investierte (kottke.com), ging es meist schief.

In die vom Ende der Geschichte erschöpften 1990er Jahre drang mit dem Internet eine frische Woge Zukunft und das Versprechen lautete, dass jeder, wenn er nur einen Computer und ein Modem und etwas Fantasie hatte, eine neue Welt nicht nur betreten, sondern sogar gestalten kann. (Und außerdem mit nur einer Idee sehr reich werden.) Für die Kulturindustrie wurden zu diesem Zeitpunkt die Karten neu gemischt, was viele Vertreter der etablierten Zweige weder verstanden noch überhaupt wahrnahmen. (sh. auch Sony, S. 136)

Das konnte natürlich auch scheitern, wie beispielsweise die Idee dank Hypertext nicht-lineare Narrationsformen durchzusetzen. „You can see this as a classic failure of futurism“, schreibt Steven Johnson zum entsprechenden Stichwort (S. 92), „Even those of us who actually have a grasp of longterm trends can’t predict the real consequences of those trends.” Wirkliche Webliteratur hat sich nirgends ein Publikum erobert und selbst wer nicht-lineare Texte liebt, liest seinen Danielewski (jedenfalls nach meiner Erfahrung) doch lieber als Blattwerk.

Die Übertragung des Vernetzungsprinzips auf die Reproduktion einer Verwaltungskartei für persönliche Kontakte wurde jedoch zum derzeitigen Zentralhabitat der Webpopulation. (sh. Facebook) Das man das Hauptgewicht tatsächlich auf Identität (das Gesicht) und nicht nur auf den Kontakt (ein Rolodex 2.0 hätte gewiss allein klanglich versagt) legte, ist Teil der Rezeptur.

Das weiße Wired-Heft selbst entspricht dem flockigen, anekdotengeschwängerten und niemals langweiligen Stil, der dem Web eigen ist, ist also auch ein gutes Zeitdokument journalistischer Standards der Netzkultur und lässt sich obendrein prima am Strand lesen. Idealerweise an einem mit Netzabdeckung, denn der Artikel zum Thema QR Code ist konsequent als QR Code-Verknüpfung eingedruckt. Mindestens so erstaunlich erscheint, dass die Firma 1&1 aus Montabaur auf Seite 193 eine Anzeige schaltet, deren Anmutung schon im Jahr 1993 in Wired altbacken gewirkt hätte. Aber vielleicht gerade deshalb.

VIII

Weiß man nach der Lektüre der Ausgabe präziser, wo wir nach 20 Jahren Wired (bzw. 20 Jahren Netzpopulärkultur) stehen? Vielleicht so viel, wie man über die Literatur einer Literaturgattung weiß, wenn man den Brockhaus-Artikel oder einen Moretti-Aufsatz zum Thema gelesen hat. Man hat einen Überblick und ein paar separate Fakten. Aber ohne unmittelbare Erfahrung bleibt es blanke Oberfläche. Die unmittelbare Gegenwartserfahrung zeigt eine gewisse Konsolidierung der Nutzungspraxen, die dafür mit dem Alltag verschmelzen. Die Wired-Ausgabe zeigt auf, was die vergangenen 20 Jahre eigentlich verschoben haben und nun sitzen wir hier vor den Macbook-Air und finden es eigentlich ganz okay, wenn es einen kleinen Sprung im Display gibt, also eine Brechung der Fassade. Im Hypertext-Eintrag heißt es: „and in the long run the web needed the poets and philosophers almost as much as it needed the coders.“ (S. 92)

Das Verhältnis scheint mir längst gekippt zu sein. Digitale Frühaufklärer wie Jewgeni Morosow und Gegenrevolutionäre wie Jaron Lanier sind längst im Metadiskurs auf Augenhöhe und in gleicher Dauerpräsenz wie die lange dominanten Futuristen und Heilsverkünder anzutreffen. Diese Vielstimmigkeit ist keine schlechte Entwicklung. Auch dahingehend geschah in den vergangenen Jahren sehr viel auch an Reifung. Alle, die über zwanzig sind, wissen, dass zwanzig Jahre überhaupt kein langer Zeitraum sind. Hält man sich vor Augen, wie grundlegend und disruptiv die Kulturverschiebung eigentlich wirkt (das Wired-Heft deutet es nur an), dann lief es – auch vor dem Horizont des geschichtlichen Wissens um kulturelle Verwerfungen) – geradezu friedlich und naiv ab, was sicher auch das Resultat einer schnellen und ziemlich umfassenden Bemächtigung, Steuerung, Moderation und Gestaltung dieser Prozesse durch einen nun digitalen Kapitalismus ist.

Die Entfaltung der Schattenseiten der Technologie, ihre Intrusivität hat sich bisher mit dem Emanzipationspotential die Waage gehalten. Ihres dystopischen Gehalt sind wir uns bewusst (und wer Nachholbedarf hat, sollte Gary Shteyngarts Super Sad True Love Story lesen).

Die Einblicke in Tempora und Prism durch Edward Snowden sind sicherlich eine nächste Zäsur und ein wichtiger Schritt zum Verständnis der Risiken eine Omnikodifizierung und Vernetzung unserer Lebenswelten. In jedem Fall zeigen sie die Notwendigkeit einer übergeordneten Gegenkontrolle zum angeordneten Monitoring unserer digitalen Handlungen. Entsprechend wichtig ist auch die Rolle der Intellektuellen und eines dekonstruierenden intellektuellen Diskurses dazu. Der muss nicht zwingend in der Wissenschaft geführt werden. Aber es würde natürlich der Wissenschaft nicht schaden, wenn sie ihn führte.

Das Fruchtbare dieses Bremsdiskurses wäre übrigens, dass die Gesellschaft beständig die gesamte Bandbreite ihrer Wertvorstellungen, Wünsche und Ängste gegenüber dem digitaltechnisch Machbaren und der Digitalkultur reflektiert, um früh und deutlich genug Einspruch erheben zu können, wenn etwas aus dem Ruder läuft und wenn neue Totalisierungstendenzen gleich welcher Art entstehen. Die Literatur schafft es, uns dafür sensibel zu halten, gerade in dem sie in der Nahlektüre berührt. Ich bin mir nicht sicher, wie die Stilanalytik des Distant Readings aus dem Stanford Literary Lab dafür einsetzbar wäre.

26.06.2013

Utopie und Praxis. Anmerkungen zur Digital Public Library of America.

Posted in LIBREAS aktuell by Ben on 23. April 2013

von Ben Kaden

Am Anfang steht in gewisser Weise ein Remix, was gut passt, sind doch die USA per se so etwas wie eine grundständige Remixkultur. In zwei nahezu mythischen Bausteinen des Selbstverständnisses der USA verankerte Robert Darnton die Idee der Digital Public Library of America (DPLA, www.dp.la). Erstens in dem Streben nach einer an den Ideen der Aufklärung ausgerichteten Utopie, also einer zukünftigen und besseren Welt, die zugleich mit diversen religiösen Strängen, Zwängen und Ethiken durchsetzt wurden. Und zweitens in einer pragmatischen Einstellung, die die Tat höher schätzt als den Diskurs, was sich vielleicht auch in einer Gegenüberstellung des administrativen Apparats von Europeana und DPLA ablesen lässt und ziemlich präzis die Differenz zwischen der alten und der neuen Welt sichtbar macht.

In gewisser Weise führt Darnton das Beste aus beiden Welten in dem Motto „Think big, begin small” zusammen. Und dies vor allem schnell. Von der Idee zur Plattform mit zwei Millionen Objekten in zweieinhalb Jahren ist fraglos ein bemerkenswertes Tempo. Dokumentiert sind diese Zwischenschritte in einigen Aufsätzen vor allem in der New York Review of Books, die sich mittlerweile in gewisser Weise als ein Making-Of lesen lassen und in der aktuellen Ausgabe noch einen vorläufigen Endpunkt finden. (vgl. z.B. Darnton, 2010, 2011a, 2011b, 2013 bzw. auch Kaden, 2011)

Wobei die nackte Taktung noch nichts über die Qualtität aussagt. Die Deutsche Digitale Bibliothek brauchte auch kaum drei Jahre von der Erstankündigung bis zur Freigabe des BETA-Portals. Andererseits begann die DPLA fast als eine Art Liebhaberprojekt, also durch private Initiative. Vergleiche zwischen US-, europäischen und deutschen Projekten dürften allerdings insgesamt notwendig unfair sein, denn zu unterschiedlich sind die Erstellungskontexte von urheberrechtsräumlichen bis hin zu förderpolitischen Aspekten. Dessen ungeachtet muss man Darnton und seinen Mitstreitern Respekt zollen, wenn sie ein kerneuropäisches Bildungsideal in eine rasant umgesetzte und weitgehend funktionierende Lösung gießen. Wobei die DPLA wir wie sie heute antreffen tatsächlich erst der kleine Anfang sein soll. Und die Begrenzung auf die USA müsste sich genau genommen von selbst auslösen, sind Land und Kultur nicht nur historisch ohne die vielfältigen Verbindungslinien zu europäischen, afrikanischen und asiatischen Kulturen nicht vorstellbar.

Darnton ist weltgewandt genug, um dies zu sehen, denn wie kaum einer seiner Landsleute kennt sich der Historiker aus eigener Anschauung auch mit den Bedingungen der europäischen Wissenschaft und aus eigener Forschung mit den Prinzipien der Aufklärung und also dem Frankreich des 18. Jahrhunderts aus. Außerdem hat es sicher einen Grund, dass die Interoperabilität mit Europeana von Beginn an ein Ziel der Entwicklung ist. So existiert auch bereits eine App mit der sich DPLA und Europeana zugleich durchsuchen lassen (http://www.digibis.com/dpla-europeana). Das Signal der Koexistenz statt Konkurrenz dürfte damit schon gesetzt sein.Es ist mehr als bemerkenswert, wie Darnton es (nicht zuletzt mit unermüdlicher Lobby-Arbeit) nach seiner Emeritierung unternimmt, die von ihm beforschte Idee der Aufklärung in eine konkrete Anwendung zu gießen. Ein Enzyklopädist muss und kann er nicht mehr werden. In dieser Weise waren ihm Jimmy Wales und Larry Singer mit der Wikipedia ein Jahrzehnt voraus.

Die DPLA verkörpert (falls das Wort „verkörpert” auf immaterialle Kontexte anwendbar ist) jedoch etwas viel Offeneres und daher möglicherweise viel Größeres. Auch sie verwirklicht eine in Analogkulturen gewachsene Idee mit der Hilfe neuer Technologien in einem virtuellen Raum. Steht die Wikipedia für die offene, aber streng an Faktualitäten rückgebundene Dokumentation des Bekannten, so steht hinter der DPLA das Drängen hin zu einer ungehinderten Zirkulation der Ideen. Nicht die Datenbank, sondern der öffentliche diskursive Fluss ist die Zieladresse dieses Konzeptes, wobei Darnton sich beim Begriff der Öffentlichkeit eher unentschieden zwischen Michel Foucault und Jürgen Habermas hielt und sich am Ende eher zu Gabriel Tarde hingezogen fühlte. (vgl. Darnton (2002), S.11f.)

Medientheoretisch zeigt sich Darnton erwartungsgemäß auf der Höhe der Zeit, denn dem von ihm gesteckten Ziel der Diffusion von Ideen kam die Drucktechnologie zwar sehr entgegen, zugleich besaß sie jedoch ihre Schwachstellen bezüglich der Reichweite, die erst mit den elektronischen Massenmedien gemindert und – so die Hoffnung – mit dem Internet weitgehend ausgeglichen werden können:

„We have the technological and economic ressources to make all the collections of all our libraries accessible to all our fellow citizens – and to everyone everywhere with access to the World Wide Web. That is the misson of the DPLA.” (S. 4)

Dass die winzige Bedingung „access to the World Wide Web” der zentralen Hürde der Streuung von Printprodukten („low rate of literacy”, „high degree of poverty”) nicht unbedingt entbehrt, weiß Robert Darnton vermutlich auch, reflektiert dies aber im vorliegenden Text nicht weiter. Ein blinder Fleck? Ein trüber vielleicht. Der Digital Divide mag in den USA bei einer Internetversorgung von nahe 80 % der Bevölkerung (Warf, 2013) überschaubar sein, aber ist dennoch nach wie vor gegeben. (ebd.)

Und auch die Idee, dass die derzeitigen Ideen- und Wissenskulturen nicht zwangsläufig in Bibliotheksbeständen repräsentiert werden – die Born-Digital-Materialien spielen in diesen bisher bestenfalls eine Nebenrolle. Den einigermaßen profanen Grund dafür benannte Robert Darnton in einer Replik auf eine entsprechende Anmerkung durch Joseph Raben: „I emphasized written texts, because we face a problem of feasibility.” (vgl. Raben, Darnton 2010)

Er schließt jedoch an derselben Stelle diese Materialien als unbedingt relevant in die Planungen für die DPLA ein. Wenn man schließlich in die aktuellen Materialien hineinbrowst, findet man entgegen der Vermutung überraschend (und bei zweiten Gedanken auch aus offensichtlichen Gründen) viel Archivgut und eine Menge sehr heterogenen Materials, das direkt von archive.org eingebunden wird.

Eine Ursache der forcierten Bibliotheksbestandlastigkeit dürfte neben der grundsätzlichen Anbindung an das Bibliothekswesen der USA aber auch darin zu suchen sein, dass die DPLA eine Art direkte Reaktion auf das Google Books Project war. Der Traum einer kompletten Bestandsdigitalisierung existierte schon bevor es Google gab, aber erst die Alpha-Suchmaschine koppelte die entsprechenden Ressourcen mit dieser Vision und dies mit einer Überbetonung der uramerikanischen Handlungsprämisse. „Am Anfang war die Tat”, die das Projekt schließlich mit einigem Bohei an die gläserne Wand des Copyright Law donnern ließ. Darnton betont, dass es sich bei der DPLA nicht um eine Ersatzveranstaltung zum Google Books Project handelt, dass sie freilich durchaus durch dieses inspiriert wurde. (vgl. dazu auch Darnton, 2011a) Und dass Google als Partner nach wie vor gern gesehen wird.

Rein strukturell ist die DPLA eine verteilte Rechnerarchitektur mit einem zentralen Portal und tatsächlich erinnert einiges in der Beschreibung an die Europeana. Die Plattform greift zunächst auf vorhandene Digitalisate Anderer zurück, wobei dieser Bestand buchstäblich beständig erweitert werden soll, bis man von einer National Digital Library sprechen kann. Nicht nur deshalb ist es sicher auch für die DDB hochinteressant zu sehen, wie sich dieser Anspruch realisiert, wie die Koordination der zahlreichen „Content“ und „Service Hubs“ in der föderalen Struktur der USA funktioniert („forty states have digital libraries“) und welche Stolperdrähte sich erkennen lassen.

Die Leitplanken der Entwicklung der DPLA sind derzeit pekuniärer und urheberrechtlicher Natur: Die Sammlung “will grow organically as far as the budget and copyright laws permit.”  Dass sich die Unternehmung als nachhaltig erweist, hängt besonders am Parameter „Geld“. Ein Großteil der Akutarbeit im DPLA-Umfeld wird daher unvermeidlich auf die Akquise von Mitteln zielen. Die üppige Präsenz von Stiftungen in den USA als Adressaten ist der Hauptansatzpunkt, der bereits allein deshalb aussichtsreich ist, weil bereits die Entwicklung der DPLA bis heute bereits zu großen Teilen über diese Kanäle finanziert wurde. Darnton hofft zudem auf die prinzipiell naheliegende Einbindung der Library of Congress in das Projekt, was ein maßgebliches Signal an mögliche Geldgeber sein dürfte.

Am Problemfeld Copyright wird dies vermutlich wenig ändern. Darnton führt aus, wie die derzeitigen rechtlichen Regelungen die Verfügbarmachung von Beständen auf Publikationszeiträume beschränken, welche vor der Prämisse eines Flusses von Ideen vorrangig für eine neohistorisierende Rückbesinnung geeignet sein könnten (die Grenze liegt in der Regel im Jahr 1923), den intellektuellen Esprit selbst der Blüte der goldenen Zwanziger allerdings heute noch nicht digital sichtbar werden lassen. (zum Aspekt des Urheberrechts sh. u.a. auch Dotzauer, 2013) Und auch sonst gilt, was Jeff John Roberts zum Start des Portals notierte:

„While the DPLA is a beautiful and important endeavor, it also feels woefully incomplete.” (Roberts, 2013)

Was nicht kritisch sondern rein feststellend gemeint sein dürfte. Zweifellos kann die DPLA zum jetzigen Zeitpunkt nur die Demonstration dessen sein, was sie einmal darstellen könnte, wenn die Rahmenbedingungen es zulassen.

Setzt man mit den Zielen etwas greifbarer an, dann finden sich bereits jetzt Einsatzfelder, die mutmaßlich vor allem im kuratorischen Bereich liegen werden. Das durch Neugier getriebene Stöbern und Entdecken aus Freude ist sicher eine Weile ersprießlich, bleibt aber dauerhaft nur reizvoll, wenn es sich relevant an eine entsprechende Arbeit mit dem Material anbinden lässt. Vermutlich wird dieser Aspekt bei der DPLA nur eine nachgeordnete Rolle spielen können.

Aus wissenschaftlicher Sicht, also vor der Prämisse einer erschöpfenden Materialsichtung, ist die Nutzung der DPLA-Bestände aufgrund der objektiv existierenden Lücken nur sehr eingeschränkt sinnvoll und die Fahrt zur Bibliothek oder ins Archiv wird auch zukünftig unerlässlicher Teil der Forschung bleiben.

Eine aufbereitete Vermittlung, Komposition und Kontextualisierung auf Grundlage der vorhandenen Bestände scheint dagegen etwas zu sein, was sich nahezu aufdrängt. Dass sowohl bei der DPLA wie auch der Europeana die Kulturvermittlung noch wichtiger als die Informationsbereitstellung ist, zeigt sich in gewisser Weise bereits in der Grundanlage.

Darnton betont weiterhin die Rolle der Einbindung der Bestände in die Lehre an den Colleges und auch wenn die Zahl der Studierenden, die sich länger mit digitalisierten Manuskripten von Emily Dickinson befassen, auf bestimmte Fachbereiche limitiert und daher übersichtlich bleibt, so deutet sich an diesem von ihm eingeführten Beispiel an, was die Sammlung zu leisten vermag:

„Teachers will be able to make selections form it and adjust them to the needs of their classes.” (S. 6)

Die DPLA kann so zur virtuellen Lernumgebung für die Geisteswissenschaften avancieren, braucht aber idealerweise entsprechende Werkzeuge zur digitalen Kuratierung. Dem Zeitgeist entsprechend bietet man dafür externen Entwicklern die Möglichkeit, APIs zu nutzen bzw. eigene Apps zu programmieren und in der App Library (der Terminus Library wird hier interessanterweise so verwendet, wie man es aus der Software-Entwicklung kennt und verzeichnet keine Bestände, sondern sozusagen Digital Library Applications) der Plattform zur Verfügung zu stellen. (vgl. zu den möglichen Erweiterungen u. a. Geuss, 2013)

Das Digital Humanities Zentrum der Havard University (metaLAB) bietet mit Library Observatory (http://www.libraryobservatory.org/ bzw. http://www.jessyurko.com/libob/) bereits ein Visualisierungswerkzeug für die DPLA an. Klar ist, dass man sich damit aktuell noch in der „begin small”-Phase befindet und das Angebot weit davon entfernt ist, wirklich als massentaugliches Produkt Teil der alltäglichen Informations- und/oder Kulturarbeit zu werden.

Darntons umfängliche Vorstellungen von der DPLA sollte man daher keinesfalls als Produktbeschreibungen, sondern differenziert als Perspektivlinie verstehen. Diese jedoch enthält deutlich eine ganze Reihe von Aspekten, die generell für die digitale Bibliotheksdienstleistungen bedeutsam sind. Digital Curation und das Hineinholen von Raum- und Objektkulturen in diese Umgebungen (wie es beispielsweise auch Projekte wie epidat angehen: http://steinheim-institut.de/cgi-bin/epidat) dürften zentrale Bauteile dieser mehr digitalen Kulturräume als digitale Bibliotheken sein.

Textmedien sind in diesem Kontext nur eine von diversen Bezugsgrößen für Bibliotheken. Zukünftig dürften alle Artefakte, die digitalisierbar sind und zu denen Metadaten erfasst und relationiert werden können, legitime Bestände digitaler Bibliotheken sein. Die damit verbundenen Herausforderungen sind zweifelsohne immens. Und sowohl die Europeana, die DDB und die DPLA in ihrer aktuellen Ausprägung zeigen, dass wir von diesem Eisberg der digitalen Erschließung von Kultur bestenfalls die Spitze sehen. Und auch die vermutlich erst aus erheblicher Entfernung.

(Berlin, 22.04.2013  / @bkaden)

Literatur:

Robert Darnton (2002) Poesie und Polizei. Öffentliche Meinung und Kommunikationsnetzwerke im Paris des 18. Jahrhunderts. Frankfurt/Main: Suhrkamp

Robert Darnton (2010) The Library: Three Jeremiads. In: New York Review of Books. Volume 57, Nummer 20. http://www.nybooks.com/articles/archives/2010/dec/23/library-three-jeremiads/?pagination=false

Robert Darnton (2011a) Google’s Loss: The Public’s Gain. In: New York Review of Books. Volume 58, Nummer 7. http://www.nybooks.com/articles/archives/2011/apr/28/googles-loss-publics-gain/?pagination=false

Robert Darnton (2011b) Jefferson’s Taper: A National Digital Library. In: New York Review of Books. Volume 58, Nummer 18. http://www.nybooks.com/articles/archives/2011/nov/24/jeffersons-taper-national-digital-library/?pagination=false

Robert Darnton (2013) The National Digital Public Library is Launched! In: New York Review of Books. Volume 60, Nummer 7, S.4-6. http://www.nybooks.com/articles/archives/2013/apr/25/national-digital-public-library-launched/

Georg Dotzauer (2013) Virtuelle Bibliotheken: Aller Welts Wissen. In: Tagesspiegel / tagesspiegel.de, 13.04.2013 http://www.tagesspiegel.de/kultur/digital-public-library-of-america-eroeffnet-virtuelle-bibliotheken-aller-welts-wissen/8059852.html

Megan Geuss (2013) The Digital Public Library of America: adding gravitas to your Internet search. In: ars technica. 21.04.2013, http://arstechnica.com/business/2013/04/the-digital-public-library-of-america-adding-gravitas-to-your-internet-search/

Ben Kaden (2011) Die Materialsammlung. Über Robert Darntons Zwischenbericht zur DPLA in der NY Review of Books. In: LIBREAS.Weblog, 05.12.2011. https://libreas.wordpress.com/2011/12/05/051211/

Joseph Raben, Robert Darnton (2010): Digital Democratic Vista. In: New York Review of Books, 25.11.2010 / http://www.nybooks.com/articles/archives/2010/dec/23/digital-democratic-vistas/

Jeff John Roberts (2013) America’s Digital Library launches — without a peep from Google. In: PaidContent.org. 19.04.2013 http://paidcontent.org/2013/04/19/americas-digital-library-launches-without-a-peep-from-google/

Barney Warf (2013) Contemporary Digital Divides in the United States. In:

Tijdschrift voor economische en sociale geografie. Volume 104, Ausgabe 1, S. 1–17, February 2013. DOI: 10.1111/j.1467-9663.2012.00720.x

Das Dokument in Bitstromlinienform. Sarah Dudeks Thesen zur Zukunft des Dokuments.

Posted in LIBREAS.Referate by Ben on 13. November 2012

zu Sarah Dudek (2012): Die Zukunft der Buchstaben in der alphanumerischen Gesellschaft. Text und Dokument unter digitalen Bedingungen. In: Bibliothek Forschung und Praxis 36 (2), S. 189–199.

Online verfügbar unter http://dx.doi.org/10.1515/bfp-2012-0023.
Preprint: http://www.b2i.de/fileadmin/dokumente/BFP_Preprints_2012/Preprint-Artikel-2012-AR-2799-Dudek.pdf )

von Ben Kaden

Ein Fach wie die Bibliotheks- und Informationswissenschaft, von dem Bibliotheks- und Informationspraxis und wenn es gut läuft auch noch andere Teile der Gesellschaft neben der Ausdeutung von Vergangenheit und Gegenwart auch Handlungsanweisungen für ihre Zukunftsplanung erwarten können, muss sich zwangsläufig mit Prognostik auseinandersetzen.

Entsprechend zahlreich findet sich das Wort „Zukunft“ in den aus dem Fach hervorgehenden Publikationen. Allein das Korpus des LIBREAS-Weblogs enthält grob gezählt 550 Erwähnungen. Unter anderem auch deshalb, weil wir uns mit der Zukunft von gestern befassen. (Die Zukunft von gestern. Ein Beitrag zur Open-Access-Debatte aus dem Jahr 1996. / Die Zukunft elektronischer Datennetze aus dem Blickwinkel des Jahres 1980. / Dietmar Daths schießpulverne Zukunft des Internet aus dem Jahr 2002. / Bibliographie als Utopie. Zu einer Position aus dem Jahr 1896. ) Das Feld ist dankbar und ergiebig, vermag doch die Beurteilung im Blick zurück mit einem nachsichtigen Lächeln leicht all das aufdecken, was stimmte und noch leichter das, wo man sich einst irrte.

Schwieriger verhält es sich mit gegenwärtigen Blicken in die Zukunft. Denn weder der, der die Zukunftsentwürfe aufzeichnet, weiß, was tatsächlich geschehen wird, noch der, der an diese Thesen glauben oder eben nicht glauben möchte. Andererseits bleiben uns doch zwei Aspekte, die eine Einschätzung der Plausibilität von Zukunftsskizzen stützen: Einerseits die zugeschriebene Wahrscheinlichkeit, die man in gewissem Umfang aus der Gegenwart und vergangenen Entwicklungslinien abschätzen kann. Und natürlich die Tatsache, dass bestimmte Richtungsentscheidungen für die Zukunft, die im Heute fallen, erst durch den Diskurs um die Zukunft ihre Orientierung erhalten. Spielen die richtigen Parameter mit den richtigen Argumenten gut zusammen, gibt es wirklich so etwas, wie selbsterfüllende Prophezeiungen. (more…)