LIBREAS.Library Ideas

Bibliotheksgeschichte aktuell: Ein Blick auf Rafael Ball und Ideen zur Literaturversorgung im Jahr 1997.

Posted in LIBREAS.Debatte by Ben on 11. Februar 2016

Eine Anmerkung von Ben Kaden (@bkaden)

Man ist geneigt, in Rafael Ball, den Direktor der Bibliothek der ETH Zürich, nach seinen jüngsten Äußerungen einen nur mit begrenzter Bodenhaftung ausgestatten Radikaldenker des zeitgenössischen Bibliothekswesens zu sehen. Im Prinzip folgt er jedoch, und auch das muss man anerkennen, einer bibliothekstheoretischen Ideenwelt, die einmal sehr progressiv war. (Und, wir erinnern uns, gegen massive Vorbehalte ankämpfen musste.)

Deutlich wird dies ein wenig beim Blick in die Bestände mit Ausgaben der Frankfurter Allgemeinen Zeitung. Er verfasste für die Zeitung über einige Jahre nämlich mehr als 50 Artikel zu diversen Wissenschafts- und Bibliotheksthemen. In diesem journalistischen Schaffen lassen sich unschwer die Vorläufer dessen erkennen, was seine aktuellen Äußerungen heute motiviert. (more…)

Neues von der Digitalkritik. Zu einem aktuellen Text Evgeny Morozovs.

Posted in LIBREAS.Feuilleton by Ben on 2. Mai 2014

Eine Notiz von Ben Kaden / @bkaden.

 Das BOOKFORUM ist eine dieser Zeitschriften, die regelmäßig auf einem hohen Niveau genau den Kulturjournalismus publizieren, den man sich vom Zeitungsfeuilleton wünschen würde. Allerdings muss dieses täglich liefern, während das BOOKFORUM zweimonatlich in die Verkaufsregale gelangt, dafür dann aber weniger kostet als eine Woche Tagespresse.

Beiträge wie die dahingeschnurrte Ode auf das E-Book des Informatikers John Hennessy, welche die Frankfurter Allgemeine Zeitung aus einem unerfindlichen Grund in ihrer Reihe über die Auswirkungen der digitalen Revolution auf die Geisteswissenschaften (vgl. dazu auch LIBREAS.Weblog vom 12.03.2014) eingeordnet hat und daher auch in der Wissenschaftsbeilage am Mittwoch druckte, fänden da sicher keinen Platz. Was, bitteschön, haben diese beiden zweifellos fantastischen kalifornischen Life-Hacks mit der Digitalisierung der Geisteswissenschaften zu tun:

„Die große Schrift auf meinem E-Reader bietet den Vorteil, dass ich auf dem Crosstrainer lesen kann und am Ende den Eindruck habe, die halbe Stunde sei schneller vergangen und noch sinnvoller genutzt. Und beim gedimmten Schein eines Lesegeräts um zwei Uhr nachts wecke ich meine Frau nicht auf, was bei der offenbar altersbedingt zunehmenden Schlaflosigkeit ein enormer Vorteil ist.“

Dass die Sacherschließung der FAZ aus der ziemlichen trivialen Sonnenscheinlektüre extrahiert:

„Themen zu diesem Beitrag: George Washington | Nelson Mandela | Steve Jobs  | Studenten“

von denen drei Themen (Namen) auf Bücher, die John Hennessy gerade las, verweisen und nichts mit dem Artikel sonst zu tun haben und die Studenten nur als Zielgruppe auftauchen, vor denen der Informatikprofessor seine Leseerlebnisse gern präsentiert, ist eher ein Beispiel für die Grenzen digitaler Inhaltsverarbeitung. Allerdings ist eindeutig, dass die Themenzuschreibung gar nicht dokumentarischen Zwecken dient, also der Orientierung von Leser und Nutzer, sondern der Suchmaschinenoptimierung.

Dennoch: Weder einen Geistes- noch einen Dokumentationswissenschaftler (und nicht einmal einen SEO-Experten) versetzen solche halbhoch in den Diskurs durchgeschossenen Textphänomene anders als verärgert, jedenfalls wenn derartige Artikel mit dem Anspruch in die Welt gesetzt werden, etwas Reflektiertes über die Gegenwart darzustellen.

Selbstverständlich finden sich in den Ausgaben des BOOKFORUMs genauso zahllose Aspekte, mit denen man nicht blindlings mitgehen möchte, allerdings meistens doch auf handwerklich deutlich höherem Niveau und daher ganz anders anschlussfähig an den Diskurs, den man führen möchte und um den es ja eigentlich in derartigen Medien gehen soll.

In der aktuellen Ausgabe bespricht nun der mit seinen Thesen nicht immer ganz unumstrittene Evgeny Morozov das Buch The People’s Platform: Taking Back Power and Culture in the Digital Age der Kanadierin Astra Taylor, die vor einigen Jahren mit ihrem Dokumentarfilm Zizek! bekannt wurde und die uns im Vorwort noch einmal an eine zentrale Erkenntnis der Ernüchterung erinnert, welche sich spätestens vor einer Dekade und allerspätestens mit dem reifenden Web 2.0 durchsetzte :

“In some crucial respects the standard assumptions about the Internet’s inevitable effects have misled us. New technologies have undoubtebly removed barriers to entry, yet, […] cultural democracy remains elusive. While it’s true that anyone with an Internet connection can speak online, that doesn’t mean our megaphones blast out our messages at the same volume. Online some speak louder than others. There are the followed and the followers. As should be obvious to anyone with an e-mail account, the Internet, though open to all, is hardly an egalitarian or noncommercial paradise, even if you bracket all the porn and shopping sites.” (Taylor, 2014)

In seiner Review zum Buch, die angesichts dessen, das ihm, wie die Textstelle andeutet, ein eher zahmes Stück Rotwild vor die kritische Flinte geführt wird, recht milde ausfällt (“why set the bar so low?“), vermerkt Morozov an einer Stelle einen Bezug zu Bibliotheken und der soll hier, wenn er beim close reading schon auffiel, dokumentiert werden.

Auf die, besonders aus europäischer Sicht, sehr berechtigte Frage, warum es keine (zu Google) alternative, nicht-kommerzielle und also auf das Geschäftsmodell Werbung setzende Suchmaschine gibt, die in nennenswerten Umfang genutzt wird, (denn selbstverständlich gibt es nach wie vor Alternativsuchmaschinen, wobei beispielsweise die durchaus etwas verbreitet zu nennende holländische www.ixquick.com ja auch Werbeanzeigen in die Ergebnislisten integriert, wo es nur geht) antwortet Astra Taylor offenbar: weil die Debatte um das Digitale von Menschen dominiert wird, die sowohl als Person wie auch in ihrer Vorstellungskraft beschränkt erscheinen.

Evgeny Morozov - Public Libraries

In Ermangelung einer besseren Abbildung hier das Zitat der paraphrasierten Textstelle direkt vom Blatt.

Evgeny Morozov, immerhin mittlerweile selbst ein Großkopfeter der Digitaldebatten, antwortet: Das mag schon sein. Die Ursache liegt aber noch auf einer elementareren Ebene. Die Menschen hungert und dürstet nicht gerade nach Alternativen, so wie es sie, meint Morozov, auch nicht nach öffentlicher Bildung und öffentlichen Bibliotheken hungert und dürstet.

Empirisch wird hier unhaltbar über einen sehr grob gezähnten Kamm geschoren, aber darauf nehmen Digitaldebatten, die rohwollige Argumente lieben und brauchen, bekanntlich eher selten Rücksicht. Der Kern der mehr Ergänzung als Gegenrede ist dennoch zu beachten und passt ein wenig zu dem, was ich vor zwei Wochen hier im LIBREAS-Weblog zum Thema Digital Managerialism zu behandeln versuchte.

Evgeny Morozov richtet seinen Schlaglichtkegel auf das Problem, dass öffentliche Kultureinrichtungen generell geschwächt werden (was oft mit der Begründung / Selbstberuhigung der Entscheidungsträger erfolgt, eine mystische Freeconomy des Internets böte vollumfänglich kostensparendere und zugleich attraktivere Alternativen) und dies bevorzugt unter der direkten Anbindung solcher Institutionen in einen Wettbewerbskontext, der sie kategorial eigentlich gar nicht erfassen sollte.

„Market knows best”, so das Mantra, auf das Morozov verweist und das, so lässt sich ergänzen, trotz allem Long-Tail-Geklapper, bestimmte Nischen dauerhaft vermauert, weil es am Markt trotz allem zumeist am besten über die Marge des schnellen Massendurchsatzes funktioniert. Was langsam in Produktion, Konsumption und Wirkung ist und dazu auch noch viel kostet, bleibt entweder etwas für eine Elite oder verschwindet, wie die Nicht-Flagship-Stores in der Alten Schönhauser Straße, in der offenbar die Lage gar nicht mit eigentlichen Umsätzen sondern nur noch aus dem Werbeetat finanzierbar wird.

Es ist mittlerweile offensichtlich, wie sich dieser neoliberale Schliff der Perspektive (Wachstum, Reichweite, Page-Impressions, Viralisierung) hervorragend mit den immateriellen und dennoch zählbaren digitalen Aktivitäten der Menschen integrieren lässt, zumal die hochdynamische Ressource Aufmerksamkeit sogar noch zuhauf unabschätzbare Emergenzen und damit Chancen (bzw. Business-Opportunities) verspricht.

(Die Modeläden in Berlin-Mitte funktionieren auch häufig mehr als Showroom für einen Online-Shop, über den dann das eigentliche Geschäft gemacht wird, weshalb man auch fast immer gebeten wird, die E-Mail-Adresse für ein „exklusives” Kundenprofil zu hinterlegen (10%-Rabatt, einmal im Jahr als Gegenleistung) – der Konnex wird gleich vor der Haustür sichtbar.)

Morozov ist weitgehend beizupflichten, wenn er betont, dass sich der neoliberale und der Digitalitätsdiskurs überschneiden und gegenseitig verstärken und dass diese Effekte auch auf nicht primär digitale Räume zurückwirken und damit zugleich auf öffentliche Bibliotheken, die sich zwar (wenigstens in Deutschland) dank Onleihe, einer versunkenen Bibliothek-2.0-Partizipations-Schimäre und dem Zeitgeistdiskurs eine Digitalkur verordnet haben, die aber keinesfalls totalisierend auf die Institution wirken muss. Entgegen der landläufigen Einschätzung sind die Menschen in Deutschland nämlich noch gar keine John Hennessys, die ihre Erfüllung darin finden, die tägliche halbe Stunde körperliche Selbstoptimierung auf dem Cross-Trainer dank E-Lektüre „noch sinnvoller” zu nutzen.

Für den Diskurs, sogar für den zu den so genannten Digital Humanities (bzw. digitalisierten Geisteswissenschaften), streut Evgeny Morozov gegen Ende seiner Review noch ein weiteres Körnchen Kritik ein:

„In fact, the presumed theoretical novelty of such terms [er bezieht sich hier konkret auf „digital sharecropping“, das man im WWW als Digitale Naturalpacht übersetzt findet, vgl. auch Carr, 2012] – invariably appended by qualifiers like „digital“ – isn’t genuine. It serves mainly to distract us from more lucid frameworks for understanding how power works today.”

Eine ideale öffentliche, also auf das Phänomen einer aufgeklärten Öffentlichkeit gerichtete (vgl. dazu auch Schulz, 2009, S. 52ff.), Bibliothek würde sich möglicherweise statt dem sanften Mythos der Digitalkultur mehr oder weniger treuherzig hinterherzuwuseln, genau auf diese Frage, nämlich der Möglichkeit eines Durchdringens gegenwärtiger Machtstrukturen und Machtbestrebungen, konzentrieren und ihren Nutzern die Materialien in der Form bereitstellen, die für diesen Blick vor, durch und hinter die Kulissen notwendig ist. Dazu zählen Besprechungen wie die Morozovs und an guten Tagen auch noch die, na ja, Qualitätspresse, also so etwas wie die FAZ. Dazu zählt auch, wie Morozov betont, ein Hinterfragen der Sprache selbst, in die wir den Diskurs einspannen:

“In reframing long-running political debates around impressive-sounding but mostly empty concepts like the „digital“, even those Internet pundits who lean to the left end up promoting extremely depoliticized, neoliberal agendas.”

Wie sehr die von Haus aus sprachsensiblen Geisteswissenschaften und vielleicht darin eingebettet eine entsprechend sprach- und diskurskritisch operierende Bibliothekswissenschaft  hier aktiv werden könnten, bevor sie sich, bisweilen leider förderpolitisch getrieben, oft mehr mit neuen Labeln als mit neuen Paradigmen digitalkulturell metamorphisieren, muss eigentlich nicht weiter erklärt werden.

Akzeptierte man das prinzipielle Verschränktsein des Digitalen, wie wir es heute kennen, mit dem Neoliberalen, dessen Handlungsmuster bereits länger massiv in die Universitäten dringen, und machte man es selbst stärker zum Gegenstand der Erkenntnisarbeit, ginge damit vielleicht sogar ein tieferes Verständnis auch dafür einher, wie die gegenwärtigen Machtstrukturen Wissenschaft korrumpieren. Ein wenig aufgeklärte Widerborstigkeit (nicht zu verwechseln mit unaufgeklärter pauschaler Ablehnung), im besten Fall hin zu eigenen und selbstbewussten Gestaltungsansprüchen könnte nicht zuletzt Prophylaxe für das sein, was die deutschen Tageszeitungen unter dem Druck der Zeitungskrise (und nicht des Journalismus) schon eine Weile bedroht: die Überoptimierung hin zur Irrelevanz. Für Bibliotheken auf dem Weg zu Digitalen Bibliotheken gilt übrigens und wenig überraschend nach wie vor ganz ähnliches.

Der abschließende Vorwurf Evgeny Morozovs an Astra Taylor lautet, dass sie nicht verstanden hat, dass es in der Digitaldebatte (“digital debate”) nichts zu gewinnen gibt, sondern dass man nur aus ihr aussteigen kann. Was Morozov von jedenfalls mir und vielleicht noch ein paar anderen Teilnehmern des Diskurses unterscheidet, ist, dass ich niemandem Unverständnis unterstellen würde, wohl aber ein diskursethisch fragwürdiges Verhalten, denn die Exit-Option ist in keiner Weise fruchtbar sofern die Rahmenbedingungen des Diskurs intakt sind. Wenn uns digitale Kommunikationsräume trotz aller Defizite etwas gegeben haben, dann genau diese Voice-Optionen. (Zur berühmten Hirschman’schen Dreiheit (Hirschman, 1970) fehlt also nur noch Loyalität, die aber in einem offenen Diskurs unpassend ist, da sie der Kritik im Weg steht.)

Und im Gegensatz zu dem offenbar trotz allem ebenfalls im Wettbewerbs- und Kampfparadigma gefangenen Morozov, der glaubt, dass es um das Gewinnen, Verlieren und das Rechthaben, also um Durchsetzung geht, weiß die Diskursgemeinschaft, in der wir uns als Geistes- und Bibliothekswissenschaftler bewegen sollten, dass das Interessante im Verstehen und Durchschauen der Prozesse zu suchen ist, also dem, was Morozov selbst bezüglich des Machtkomplexes oben anspricht. Die Entscheidungen, die beispielsweise notwendig sind, um eine Erweiterung und Modifikation geisteswissenschaftlicher Standardmethodologien oder bibliothekarische Dienstleistungen mit digitalen Technologien angemessen zu steuern und zu begleiten, sollten wir erst dann treffen, wenn wir beim Verstehen, Durchschauen und – auch das – Überdenken der jeweiligen Handlungsziele ein gewisses bzw. wissenderes Niveau erreicht haben. Am Ende könnte das sogar für die öffentlich finanzierte Wissenschaft und die Bibliotheken auch ökonomisch vorteilhafter sein. Wofür man nicht einmal einen Bezug zur Adolf von Harnacks Nationalökonomie des Geistes herstellen muss (vgl. Umstätter, 2009). Aber natürlich problemlos könnte.

Berlin, 02.05.2014

Quellen

Nicholas Carr (2012) The economics of digital sharecropping. In: roughtype.com, 04.05.2012

John Hennessy (2014) Vorzüge des E-Books: Mit Charles Dickens auf dem Crosstrainer. In: Frankfurter Allgemeine Zeitung / faz.net. 28.04.2014.

Albert O. Hirschman (1970) Exit, Voice, and Loyalty: Responses to Decline in Firms, Organizations, and States. Cambridge, MA: Harvard University Press

Ben Kaden (2013) Heute in der FAZ. Jürgen Kaube über Evgeny Morozov. In: LIBREAS.Tumblr, 09.12.2013

Ben Kaden (2014) Am Impuls der Zeit. Hans-Ulrich Gumbrecht ringt in der FAZ um ein Verständnis der digitalisierten Gegenwart. In: LIBREAS. Weblog, 12.03.2014

Ben Kaden (2014) Konzepte des Gegenwartsdiskurses. Heute: Digital Managerialism. In: LIBREAS. Weblog, 18.04.2014

Evgeny Morozov (2014) Chip Democratic. In: Bookforum. VOl. 21, Issue 1. S. 9

Manuela Schulz (2009) Soziale Bibliotheksarbeit : „Kompensationsinstrument“ zwischen Anspruch und Wirklichkeit im öffentlichen Bibliothekswesen. Berlin: Simon Verlag für Bibliothekswissen.

Astra Taylor (2014) The People’s Platform: Taking Back Power and Culture in the Digital Age. New York: Metropolitan Books

Walther Umstätter (2009) Bibliothekswissenschaft im Wandel, von den geordneten Büchern zur Wissensorganisation. In: Bibliothek – Forschung und Praxis. Band 33, Heft 3. S. 327-332. DOI: 10.1515/bfup.2009.036,

Konzepte des Gegenwartsdiskurses. Heute: Digital Managerialism.

Posted in LIBREAS.Feuilleton by libreas on 18. April 2014

von Ben Kaden / @bkaden

In seiner Besprechung von Simon Heads Buch Mindless: Why Smarter Machines Are Makung Dumber Humans. (New York: Basic Books, 2014) in der vorletzten Ausgabe der New York Review of Books referiert Robert Skidelsky, emeritierter Professor für Politische Ökonomie in Warwick, das Grundkonzept des „Digital Managerialism“, wie es Simon Head ausführt. (Robert Skidelsky: The Programmed Prospect Before Us. In: New York Review of Books.Vol. LXI, No. 6, S. 35-37)

Für die Bibliotheks- und Informationswissenschaft ist dies insofern ein Ansatz, den man die Reflexion einbinden sollte, als dass die Digitalisierung von Bibliotheken und bibliothekarischen Prozessen genau in dieser Gemengelage operiert. Geht es zudem in komplexen digitalen Forschungsinfrastrukturen darum, der Komplexität entsprechende Strukturen eines Monitorings umzusetzen, wie ich es gerade in einer Arbeitspaket des TextGrid-Projektes tue, dann findet man sich erstaunlich schnell in der Nähe des „digitalen Managerialismus“, also einer Art Organisationsideologie mit dem Leitgedanken einer reibungsfreien Prozessorganisation auf der Basis digitaler Technologien. Spätestens dann sind Obacht geboten und die kritische Dekonstruktion auch der eigenen Handlungsprämissen angesagt.

Simon Head, der sich in seinem Buch insgesamt leider wenig mit der Ökonomisierung der Wissenschaft befasst, schreibt:

„When describing their day-to-day scholarly lives, my academic contacts used a stange and, in academic context, unfamiliar language. They spoke of „departmental line managers“ who monitored their work. They speculated whether an academic conference they were going to attend would count as an „indicator of esteem“.“ (S. 73)

Jeder im akademischen Betrieb Tätige dürfte Beispiele von oft sehr hochbegabten Menschen kennen, deren Motivation, Wissenschaft besonders im Universitären zu betreiben, in dem Umfang abnimmt, in dem sie erkennen, dass das Hineindringen vermeintlich professioneller Management- und Messverfahren in die Wissenschaft die Möglichkeit inhaltlich freier wissenschaftlicher Arbeit außerordentlich einhegt und den Großteil der Aktivität von der Sache auf den Effekt umlenkt. Eine alternative Karriere, möglicherweise sogar bei einem dieser garstigen Wissenschaftsverlage, ändert zwar wenig am Leistungsdruck, verdreifacht aber schnell mal das Gehalt. Damit kann sich das Herz gelassener anderen Dingen zuwenden und den Zwang, sich als Wissenschaftler zugleich in Form einer intellektuellen Ich-AG permanent selbst vermarkten zu müssen, wäre man dann auch los. Die Zahl derer, die Wissenschaft als Beruf angehen liegt gefühlt mittlerweile deutlich unter der derjenigen, die Wissenschaft als Job ausüben. (zum Unterschied Beruf-Job siehe u.a. auch hier) Was auch daran liegt, dass es Menschen mit einem Hang zur Wissenschaft als Beruf meist nur eine der für den Job des Wissenschaftlers erforderlichen Kompetenzen besonders herausstechend mitbringen und daher in Einstellungs- und Berufungsverhandlungen nicht nur hervorragend abschneiden.

Robert Skidelsky nähert sich dem Thema und der Arbeit Simon Heads etwas allgemeiner. Er stellt unter anderem den Gedanken heraus, dass die Basis der Verwaltungs- und Kontrolltheorie des „Digital Manageralism“ die Verwandlung des realen, menschlichen Individuums (hier: der Arbeiter) über seine digitaltechnologisch adressierbare und analysierbare elektronische Repräsentation ist.

Man muss gar nicht zu den digitalen Fließbändern von Amazon und Walmart und der Leistungsmessung in der Wissenschaft gehen. Es ist vielmehr offensichtlich, wie sehr alle digitalen sozialen Netzwerke, die dominanten Interaktionsmedien unserer gesellschaftlichen Gegenwart, diesem Ansatz wenigstens sehr ähnlich arbeiten (können), dass also prinzipiell die gesamte Abbildung von Kultur im Digitalen, wie wir sie derzeit kennen, strukturell mit ihren Verknüpfungs-, Interaktions- und Popularisierungsszenarien diese Form der externen Steuerbarkeit vorbereiten. Wir verlagern unsere Kommunikationen, wenn wir sie ins Digitale verlagern, fast unvermeidlich in Strukturen, die im Sinne von so genannten Computer Business Systemen (CBS) geschrieben (gescripted, gecodet) wurden. Wir ordnen folglich unser Leben auch außerhalb jeder Arbeit Elementen des Digitalen Manageralismus unter und in der Tat sind die gamifizierend anmutenden Erinnerungen und Leistungsschauen von Klout-Indices und Tumblr-Aktivitätsbotschaften deutliche Symptome, wie wir den Leistungs- und Profilierungsgedanken der Digitalökonomie zum festen Bestandteil unseres kommunikativen Privatlebens machen. Wir kommunizieren und konsumieren und kreieren genauso wie wir arbeiten. Ein Vorteil ist, dass wir damit den Aufwand des kognitiven Wechsels zwischen den jeweiligen Bezugssphären einsparen. Ein Nachteil ist, dass wir kaum Distanz zu diesen Prozessen finden können, weil alles was wir tun, bereits in diesen Strukturen stattfindet.

Die Folgen werden bekanntlich aus diversen Blickwinkeln, bisweilen sehr öffentlichkeitswirksam, diskutiert.

Skidelsky schreibt:

„The tendency of CBS, Head argues, is to discourage intuition and judgement in a large population, except for a tiny class of highly paid engineers and managers, who are needed to activate and control the automated systems.“ (Skidelsky, S. 35)

Und was in ihnen möglich ist und geschieht, möchte man ergänzen und staunt wie Dequalifizierungsargumente (#DigitaleDemenz) mit Überwachungsansprüchen (#NSA, #GCHG, #SnowdenFiles) und Tendenzen zur Monopolisierung der Informationsmärkte (#MathiasDöpfnerGoogle) auch an dieser Stelle wie von selbst ein verbindendes Schleifchen finden.

Betrachtet man die drei interdependenten Basisbausteine des CBS:

  1. Computer-Netzwerke (Verknüpfung aller Arbeitsplätze / workstations, Adressierbarkeit der Ziele des Monitorings=Arbeits- bzw. Kommunikationsprozesse, ausführende und zu lenkende Individuen)
  2. Data-Warehouses (Aufzeichnung der Arbeits- und Kommunikationsprozesse mit Ergebnissen, möglichen und tatsächlichen Relationen, etc.)
  3. Expertensysteme (die für das Monitoring und die Steuerung notwendige kognitive Ausgaben übernehmen, also das Geflecht des Geschehens gezielt zu analysieren helfen)

so erweisen sich jede Digitale Bibliothek, jede Big-Data-orientierte Wissenschaft und jede virtuelle Forschungsumgebung und damit auch ein Großteil der Gegenstände der gegenwärtigen Bibliotheks- und Informationswissenschaft als in dieses Raster einpassbar.

Andererseits ist der übergeordnete Kontrollanspruch auch nicht ganz so neu:

„The aim of all control systems is to control human behavior including the way we think. Priests and political leaders have long used religion and ideology for this purpose, since it economizes on the use of force and terror.” (ebd.)

So weit so schlecht. Erstaunlich ist allein, dass Robert Skidelsky die Vergangenheitsform wählt. Denn wie grundlegend dieses Muster in der menschlichen Kultur nahezu jeder Färbung verankert ist, offenbart auch eine nur oberflächliche Auseinandersetzung mit medialen Repräsentationen bzw. einfach die bewusste Anschauung der Abendnachrichten. Und bei der Gelegenheit erkennt man in der Regel auch als- und allensbacher-bald:

„[…] it is only in the last hundred years or so that the attempt to control behavior by controlling the mind has achieved scientific status, largely through the explosion of calculating power that computers have made possible.” (ebd.)

Die Gegenwart kombiniert, so Head, zwei Kernanliegen menschlichen Machtstrebens: die totale Überwachung (Benthams Panoptikum) und eine Arbeitsorganisation nach Taylor. Beides nimmt den betroffenen Individuen Einfluss: Sie haben keine Möglichkeit zum Verbergen und sind zugleich nicht in der Lage zum einem Handeln über ihren winzigen Aufgabenbereich hinaus.

Skidelsky erkennt durchaus den dystopischen Gehalt dieser Entwicklung und versucht sich am üblichen Trost:

„human beings are notoriously recalcitrant to attempts to hammer them into the required shape.“ (ebd.)

Die digitale Zähmung des Widerspenstigen wird schon nicht gelingen, so seine Hoffnung. Die Weltgeschichte mag ihm in der Langzeitbetrachtung Recht geben. Auf der kurzfristigen Ebene, und auf der tut es gemeinhin tatsächlich weh und dort sind auch die Reibungsverluste am spürbarsten, hat selbige aber auch genug Gegenbeispiele im Arsenal. Der Hammer heißt dann Ideologie und ist meist als solcher im ersten Moment gar nicht spürbar. Verführbarkeit ist, wer mag da widersprechen?, eine anthropologische Grundeigenschaft.

Im Arbeitsalltag der betrachteten Beispielen (Walmart, Amazon, Foxconn), die erstaunlicherweise allesamt Leitsterne einer westlichen Konsumkultur sind, werden die Arbeiter, wie man hört, nur bedingt verführt, denn zumeist haben sie kaum Alternativen. Oder andersherum betrachtet: der Schmerzpunkt der Zumutung wird von einem professionellen Management natürlich genauso fein austariert, wie das Plansoll:

„if workers can finish their quota the target will be increased day by day until the capacity of the workers is maximised.“ (ebd.)

Gäbe es in diesem Zweig der Ökonomie so etwas wie ein historisches Bewusstsein, läge eine Auseinandersetzung mit den durchaus reichlich vorliegenden Erfahrungen mit anderen Ausführungen der Planwirtschaft nah. Die konsequente Optimierung ist dabei ein stabiler Topos, der mit den Reizwörtern schneller, besser, bequemer in beinah allen Zusammenhang verfängt. Und besonders offenbar in Entscheidungszusammenhängen. Der Artikel Skidelskys zeigt selbst da, wo er relativieren will, wie hilflos wir eigentlich sind. Der Ökonom erwähnt das Beispiel der Lächeloptimierung bei Cathay Pacific:

„For example, it can be calculated how much smiling flight attendants need to do to make passengers feel they are being sufficiently pampered.“ (ebd.)

Vermutlich kam Entfremdung durch Lohnarbeit nie herziger daher, wobei die „customer relations“-Industrie interessanterweise dafür zuständig ist, auf der Seite des Dienstnehmers (also Konsumenten) das menschliche Element in gleichem Maße heraus zu optimieren.

Diese Ökonomie braucht eine Symmetrie der Massen und wie oben bereits angedeutet, sind die Unterschied zwischen Konsum und Produktion – übrigens auch dank der geschickten Web-2.0-Ökonomie – kaum mehr erkennbar. Wo Flickr-Nutzer begeistert ihre Arbeiten kostenfrei Stockfotobörsen zur Verfügung stellen und damit entlohnt werden, dass sie als gut genug erscheinen, um von diesen verwertet zu werden, sind Berufszweige wie der des Fotografen natürlich nicht mehr notwendig. Das Hauptproblem bei so genannten nutzergenerierten Inhalten liegt auf der Ebene der Qualität. Erschwingliche digitale Spiegelreflexausrüstungen einerseits und die Anpassung ästhetischer Normen andererseits haben dies im Bereich des Fotografierens weitgehend kompensiert. Beim Schreiben / Bloggen hängt man noch ein wenig hinterher, wobei Angebote wie die Huffington Post intensiv daran arbeiten, mehr und mehr Laienjournalismus auf ein verkaufbares Niveau zu heben. Dass die ehemaligen qualitätsjournalistischen Bastionen dem durch redaktionelle Kürzungen und Kosteneinsparungen entgegenkommen kann man ebenfalls (noch) problemlos am Kiosk nachprüfen. Und wer nun so gar nichts zu schöpfen vermag, das wissen wir mittlerweile auch, zahlt eben mit seinen Konsum- und Netzwerkdaten.

Skidelsky bringt als Beleg für die Widerstandsfähigkeit des Menschen gegen eine digitalökonomische Vereinnahmung ein fasziniert schlichtes Beispiel. Er berichtet, dass die Flugbegleiterinnen bei Cathay Pacific auf steigenden Leistungsdruck mit einem angedrohten Lächelstreik reagierten und ergänzt als weiteren Lichtblick:

„Attempts to create a happy demeanor by encouraging workers to think of pleasant past experiences led to daydreaming that hindered efficiency.“ (ebd.)

Es gibt also „Incentives“ die versagen und ein Klassenkampf mit Lippenstift passt auch in eine Gegenwart, in der eine politische Botschaft, die in barbusiger Form und vor allem für YouTube vorgetragen wird, größere Chancen hat, Aufmerksamkeit zu finden, als eine systematische, ausdauernde und nicht minder risikoreiche Arbeit im Hintergrund.

Am Ende fertigt Skidelsky Simon Head relativ barsch ab, allerdings nicht ohne seiner Kritik zuvor in dem Feld, dass ihn selbst betrifft, zuzustimmen: dem der Anwendung von Computerized Business Systemen (CBS) auf die akademischen Strukturen. Das wird völlig zurecht kritisiert.

Insgesamt bleibt wenig Helles für die Zukunft der Arbeitswelt, denn

„Algorithmic programming is bound to be much less successful in situations involving person-to-person transactions, but the number of these required for the efficient conduct of contemporary business – the production and consumption of goods and services by and for the masses that constitute the modern economy – may be shrinking.” (ebd.)

Die alten Ängste wiederholen sich: Was automatisiert werden kann, wird automatisiert und der Mensch wird überflüssig bzw. freigesetzt. Durch die digitaltechnischen Optionen sind davon nun auch alle intellektuellen Brotarbeiten inklusive des Bibliothekswesens betroffen. Es bleiben einzig ein paar Schlüsselpositionen zu besetzen, die, auf welcher Basis auch immer, Entscheidungen fällen, Impulse setzen und irgendetwas Kreatives in das System hineinwürfeln, wobei letzteres gemeinhin weitgehend von hingebungsvollen Nutzern übernommen werden kann, die sich eine Entlohnung in sozialem Kapital erhoffen und damit dann auch zufrieden sind. Wie allerdings in diesem Kontext das bisher nur am äußersten Rand des Diskurses grundsätzlich hinterfragte Lohnarbeitssystem aufrechterhalten werden kann, auf dem letztlich die Konsumökonomie auch im Tauschsystem Geld gegen Zugang (und vielleicht auch Zuwendung / Dienstleistung) aufsetzt, erklärt der Ökonom Skidelsky nicht einmal im Ansatz, wenn er für die kommenden Zeiten, sich an John Maynard Keynes erinnernd, folgende Formel vorhersagt:

„Less (human) work, less consumption, more leisure […]“ (ebd.)

Das werden spannende Zeiten für die Politik und die Idee eines bedingungslosen Grundeinkommens könnte sehr bald weit weniger spinnert wirken als es derzeit noch im Mainstreamdiskurs vermittelt wird.

Da die Menschheit Ähnliches in der Vergangenheit, vielleicht nicht ganz so durchdringend, bei jedem Automatisierungsschritt er- und zu großen Teilen auch überlebt hat, ist die Situation weder ganz neu noch ganz hoffnungslos. Für Bibliotheken, immerhin so etwas wie Zentralen kreativen und intellektuellen Handelns, sind zusätzliche und zu füllende Entfaltungsfreiräume für einen Großteil der Menschen keine schlechte Nachricht, sofern sie sich an dieser Stelle offensiv einbringen können. Das Aufkommen der Idee von Makerspaces, also dezidierten Aktivräumen in Bibliotheken, schließt genau an dieser Stelle an.

Als übergeordnete Lösungsidee für das Dilemma, dass uns ausgerechnet die Technologien, die uns ganz vielfältige neue Handlungsräume besonders kommunikativer ermöglichen, gleichzeitig vor eine viel elementare Sinnfrage stellen und zugleich in doch neuartiger Weise überwach- und steuerbar machen, bisweilen sogar schlichtweg überflüssig, taugt das freilich noch nicht. Eine überzeugende Lösung dafür, was eine Gesellschaft bzw. Volkswirtschaft mit der freiwerdenden, überqualifizierten und nicht gegenfinanzierbaren Arbeitskraft anfängt, scheint generell nirgends erkennbar. Die Stromlinienformgebung letztlich auch des Konsums auf, wenn man so will, Symbolverbrauch, also gestreamte Unterhaltung und digitalvermittelte Zwischenmenschlichkeit hat sicher noch das Potential, die derzeitigen ökonomischen Leitmuster noch ein paar Dekaden irgendwie zu tragen.

Aber bereits jetzt wirkt für viele Vertreter beispielsweise meiner Berufsgruppe (=akademische Projektbeschäftigte) der jährliche Rentenbescheid mit der stabilen Ankündigung desolater Lebensbedingungen irgendwann ab Mitte der 2040er Jahen als anachronistischer Gruß aus einer anderen Zeit und man mag sich gar nicht vorstellen, wie freie Journalisten und all diejenigen aus der de facto einkommenslosen Digital Bohème, die immer noch ganz gut und komplizenhaft in den Kreativhubs dieser Welt ersparnislos durch ihre Träume und Lebensjahre hasten, diese Jahrzehnte erleben werden.

Ein fantastischer Effekt der digitaltechnologisierten Lebenswelt ist freilich, wie sich die absehbare ökonomische Dysfunktionalität dieses Ansatzes für eine Vielzahl von Menschen im Augenblick so gut anfühlt, dass so gut wie jeder bereitwillig mitspielt. Wobei es auch kaum Alternativen gibt. Die ironisierte, Ich- und radikal gegenwartsbezogene Variante ist oft die einzige Option, sich unter dem allumfassenden Primat des Digitalen Managerialismus so einzurichten, dass es so wirkt, als spielte man nicht ganz bereitwillig mit.

„It can be hard to find young people willing to work more than three days a week. And yet it can also be hard for someone who is working three days a week, and who is earning the low wages that are typical of Berlin, to salt away enough money to leave—to afford, say, the first month’s rent in London or New York. So it favors those who have some money to spare or who don’t care.“

beschrieb Nick Paumgarten im März in der Style-Issue des New Yorker in einer aus Berliner Sicht fast knuffigen Reportage die Einkommensgegenwart der (vermeintlichen) Lebensstilavantgarde in der deutschen Hauptstadt. (Nick Paumgarten: Berlin Nights. The thrall of techno. In: New Yorker, Mr. 24, 2014, S. 64-73)

Man lebt in seinem Selbstverwirklichungskäfig vom Ersparten einer anderen Zeit oder eben vom Zufälligen und hofft, dass sich eines Tages alles richtig fügt. Man muss nur Geduld haben und ein paar Mal zum richtigen Zeitpunkt am richtigen Ort den richtigen Kontakt herstellen. (Attraktive Stellen im Bibliothekswesen rotieren, wie jeder weiß, auch ganz gern genau nach diesem Muster.)

Der Reiz der Neuigkeit, beispielsweise gegenwärtig auch in den so genannten Digital Humanities spürbar, liegt also möglicherweise vor allem in einem Versprechen auf eine Zukunft, die sich so fantastisch entwickelt, dass die Probleme, die aus der Gegenwart als unlösbar in ihre zu stehen scheinen, einfach verschwinden werden. Die Versprechen der Digitaltechnologie und einer digitalen Gesellschaft sind noch immer weitgehend utopisch grundiert. Auf der ideologischen Ebene erinnert es an vieles, was man aus dem Sozialismus als Wegbereiter zum Kommunismus kannte. Dass das gesellschaftliche Gegenmodell, die von einer kapitalistischen Marktwirtschaft grundierte Demokratie sich nun aus dieser Richtung dekonstruiert, ist weltgeschichtlich natürlich äußerst spannend zu beobachten. Wie zaghaft man allerdings darangeht, dem Optimierungsmonitoring harmonischere Ergänzungsmodelle entgegen zu entwickeln, lässt sich vielleicht auch als Symptom werten, dass der Mensch sich mit der Proliferation seiner Handlungsmöglichkeiten und damit verbundenen neuen Deutungsverpflichtungen, die es mit nicht gerade ähnlich exponentiell wachsenden intellektuellen Kompetenzen zu verarbeiten gilt, gerade selbst sehr überfordert.

Dass an dieser Stelle eine progressive Bibliotheks- und Informationswissenschaft, traditionell gewohnt auf heterogene Deutungsmuster eine neutrale und die Komplexität absenkende Zugangsschablone aufzusetzen, ein wenig mehr gesellschaftliche Verantwortung übernehmen könnte (bzw: sollte, müsste), ist so offensichtlich, dass man es eigentlich gar nicht mehr hinschreiben mag. Dafür, dass sich entsprechende Ausprägungen in der Disziplin leider nur ausnahmsweise feststellen lassen, gilt bedauerlicherweise das Gleiche.

(Berlin, 17.04.2014)

Nach Feyerabend. Wieder ein Methodenzwang? Eine Skizze zum Diskurs um Digitale Bibliothek, Digitalkultur und Digital Humanities.

Posted in LIBREAS aktuell, LIBREAS.Feuilleton by Ben on 8. April 2014

von Ben Kaden (@bkaden)

I. Digital Humanities als Begleitforschung zur Gegenwart

Noch relativ neu, aber bereits alt genug, um im gutsortierten Berliner Remittentenfachhandel zum halben Preis angeboten zu werden, ist der Sammelband Digital Humanities aus der Reihe Nach Feierabend, also dem Zürcher Jahrbuch für Wissensgeschichte. Die Halbwertzeit derartiger Printpublikationen nähert sich offenbar der von Publikationen im Web. Bei der DNB ist der Titel dagegen offenbar noch nicht einmal im Haus (Stand: 07.04.2014). So schnell also rotiert die Buchhandels- und Diskursmaschinerie. Aber vielleicht ist doch alles anders und es handelt sich nur um Messeexemplare.

Es ist ein faszinierendes Symptom der digitalen Gegenwart, dass sich Wissensgeschichtsschreibung nicht zuletzt anhand der sozialen Begleitmedien für alle Ereignisse und Phänomene, die sich in der Reichweite entsprechend aktiver Akteure (beispielsweise einer vitalen Twitter-Community) befinden, in Echtzeit und teilweise sogar bewusst mit dieser Rolle vollzieht.

Das Buch zur Debatte ist dann eigentlich vor allem ein fixierter Zwischenmarker, der nach herkömmlichen Mustern die Dynamik eines ununterbrochenen Gesprächs bündelt und greifbar macht. So ein Sammelband hascht in gewisser Weise nach all den Diskursfäden und -topoi, die im Sozialen Netz der Tagungen und Symposien und im Social Web des digitalen Austauschs herumschwirren, fängt einige davon ein und setzt sie fest. Er schlägt damit die Brücke zwischen einer unsteten, weitgehend informellen Diskurssphäre und der Wissenschaftskultur, die eine klare Referenz zu einem in einer Bibliothek dokumentierten Text nach „externer Begutachtung, gründlicher Überarbeitung, redaktioneller Bearbeitung und nochmaliger Überarbeitung“ (Hagner, Hirschi, 2013, S. 10) als Beweis dafür braucht, dass es sich um legitim adressierbare Positionen handelt.

Daran zeigt sich eine ganz besondere Kluft in der Wissenschaftskultur der Gegenwart. Denn die beiden Sphären der Kommunikation über geisteswissenschaftliche Themen und Gegenstände – informell und digital, formalisiert und als ISSN- oder ISBNisierte Publikation – verwässern die Stabilität der möglichen Forschungsmaterialien. Die disziplinären Gemeinschaften müssen eigentlich genauso neu aushandeln, was für sie eine legitime Material- und Referenzbasis darstellt, wie die Bibliotheken entscheiden müssen, welches digitale Objekt eine Publikation darstellt, die in ihr Sammelraster passt.

Wenn man wollte, könnte man Digital Humanities auch als geisteswissenschaftliche Auseinandersetzung mit rein digitalen Forschungsgegenständen betrachten. Das wäre eine ganz einfache Abgrenzung. Wahrscheinlich zugleich aber eine viel zu enge. Dennoch müssen sich die Geisteswissenschaften, die ihre Gegenstände auf der Höhe der Zeit suchen, überlegen, wie sie die digitalen Kulturspuren greifbar bekommen, die sich von denen, mit denen sich Geisteswissenschaften traditionell beschäftigen, erheblich unterscheiden und zwar nicht nur hinsichtlich ihrer Intention und Vergänglichkeit. Sondern auch in ihrer Kodifizierung, die andere, automatische Verarbeitungsmethoden ermöglicht. Und auch eine andere Geschwindigkeit.

Digital Humanities, so kann man in diesem Schema argumentieren, wären eine geisteswissenschaftliche Begleitforschung zum kulturellen Geschehen. Ob sich perspektivisch in der Zeitdimension zwei Linien, idealerweise komplementärer Natur, herausarbeiten, nämlich eine zeitlich sehr ereignisnahe (Mikro-)Geisteswissenschaft und eine in längeren Zeitrahmen betrachtetende, verortende und reflektierende (Makro-)Geisteswissenschaft, ist schwer abzusehen, wäre aber wünschenswert. Eine auf den Aspekt der Temporalität gerichtete Auseinandersetzung mit dem Phänomen der Digital Humanities scheint jedoch generell noch nicht allzu intensiv geführt zu werden.

II. Amateure und Professionals

Ein wenig deutet der Beitrag von Philipp Wampfler (»online first«. Geisteswissenschaften als Social Media, S. 79-102) in diese Richtung, der anhand der Transformation des Journalismus durch Social Media mutmaßt:

„Können Geisteswissenschaften nicht wie der Printjournalismus einen von außen vorgegebenen Wandel durchleben, dann sind sie vielleicht nicht als Social Media denkbar, sondern werden als diskursives System durch Social Media abgelöst.“  (S. 99)

Es ist nicht nur ein Wandel bei den für den Diskurs zur Verfügung stehenden Kommunikationsmitteln zu beobachten, sondern auch ein Aufbrechen des Zugangs zum Diskurs, was es für etablierte Akteure durchaus schwieriger werden lässt, ihre Position zu festigen. Denn die Aufmerksamkeitsökonomie des WWWs läuft ja auch kurzschleifiger und setzt mehr auf Popularität (altmetrisch erfassbar) und weniger auf Prestige und Renommee.

Inwieweit dies mit den „Egalitätsidealen“ vereinbar ist, von denen Michael Hagner und Caspar Hirschi schreiben und die neben Effizienzüberlegungen und den unvermeidbaren Anpassungsdruck an die digitale Gegenwart (und Zukunft) zu den drei Säulen des Transformationsdiskurses gehören, ist eine ungelöste Frage in den Netzdebatten. Immerhin bekommt man den Eindruck, als würden die Karten (öfter) neu gemischt, was dazu führt, dass die Positionen bisweilen weiter ins Extreme und in einer Kampf- und Untergangsrethorik abdriften, als der Sache gut tut.

Wo die einen endlich die Möglichkeit auf Teilhabe sehen, fürchten die anderen um ihre Legitimation. Dieser Prozess dürfte überall zu beobachten sein, wo sich die klaren Abgrenzungen zwischen Dilettant und Meister, zwischen Amateur und Profi auflösen, beispielsweise weil es eine bestimmte vorher notwendige Fertigkeiten tatsächlich egalisierende Technologie gibt.

Am vergangenen Sonntag gab es auf einer Veranstaltung  der Berliner Gazette mit dem Titel Komplizen. Woran wollen wir zusammen arbeiten? In dieser Post-Snowden-Welt… die Gelegenheit, im Rahmen der Diskussion um die Bibliothek der Zukunft, das Verhältnis von professionellen und nicht-professionellen „Bibliothekaren“ zu erörtern.

Die Frage war dort, welche Rolle in digitalen Informationswirklichkeiten eigentlich Bibliothekare spielen können bzw. ob man sie überhaupt noch braucht? Jeder, so eine Position, kann Bibliothekar sein, wenn man ihm nur ein wenig Technologie und Grundwissen zur Verfügung stellt. Tatsächlich rekurriert auch jeder, der seine Literaturverwaltungssoftware, mehr oder weniger bewusst, auf die alte bibliothekarische Tätigkeit der Titelaufnahme.

In der Spezifizierung der Debatte ging es darum, herauszuarbeiten, was die Profession des Bibliothekars herausstellt. Wenig verblüffend sind es bestimmte Kompetenzen, die es ihm ermöglichen, nicht etwa etwas zu tun, was nicht auch ein engagierter Laie tun könnte, dies aber am Ende im Idealfall doch schneller, präziser und gründlicher. Man wird nicht Bibliothekar, weil man etwas tun möchte, was sonst niemand kann. Sondern, weil man es aufgrund eines gewissen Trainings besser kann. Spezialisierung hat den Vorteil, dass man eine komplexe Lebenswirklichkeit bewältigen kann, ohne alle in dieser auftretenden Aufgaben selbst lösen (können) zu müssen. Es überrascht schon ein wenig , warum ausgerechnet vom Bibliothekar derart vehement eine Legitimation eingefordert wird, während nie jemand die Rolle beispielsweise des professionellen Klempners oder Dachdeckers hinterfragt. Es zeigt aber auch, dass die Kernkompetenzen des Berufs entweder nicht deutlich genug in die breite Öffentlichkeit (und in die der Netzaktivisten) vermittelt werden oder tatsächlich als obsolet angesehen werden.

Komplizen Berlin / Workshop Bibliothek der Zukunft

Die Arbeit an der Bibliothek der / mit Zukunft. Auf dem Workshop KOMPLIZEN am 06.04.2014 im SUPERMARKT in der Berliner Brunnenstraße.

III. Was jeder kann und keiner braucht.

Ähnliches lässt sich vermutlich für den Geisteswissenschaftler festhalten. Michael Hagner und Caspar Hirschi fragen konkret nach dem Sinn der Behauptung, „dass die Geisteswissenschaften ihre angeblich verlorene gesellschaftliche Relevanz im Netz wiederfinden können“ und knüpfen damit an den schon etwas älteren Diskurs zur vermeintlich Obsoleszenz bzw. wenigstens Unterlegenheit der dieser interpretierenden und verstehensgerichteten Disziplinen gegenüber dem produktiven und normierten Potential der STEM-Fächer.

Es ist auch beim Geisteswissenschaftler nicht so, dass er über exklusive Kenntnisse und einzigartige Ideen verfügt, die nur von einem vergleichsweise kleinen Club von Eingeweihten (also der Fachcommunity) wertgeschätzt und erörtert werden können. Wenn man aber eine „angeblich verlorene gesellschaftliche Relevanz“ beklagt, dann heißt dies auch, dass eine allgemeine Einschätzung dessen, was diese Fächer forschen, zwischen „kann ja jeder“ und „braucht kein Mensch“ pendelt, meist mit Ausschlag zum zweiten, was gerade bei Nischenthemen schwerer zu entkräften ist, sofern das Gegenüber die Prämisse nicht akzeptiert, dass sofort offensichtliche Nützlichkeit keinesfalls die einzige Leitgröße menschlichen Handelns sein sollte. (Eine nützliche Gegenwartsanthropologie könnte vermutlich nachweisen, weshalb dieser Anspruch derzeit so populär und durchsetzungsstark ist.)

Für das „kann ja jeder“ bleibt der offensichtliche Unterschied zwischen demjenigen, der sich lange Zeit sehr intensiv und systematisch mit einem Gegenstandsbereich befasst hat und dem, der sich flugs ein paar Quellen durchsieht, um sich ein Urteil bilden zu können. Es heißt allerdings nicht, dass nicht auch das Tiefenwissen zuweilen in die Irre leitet. Es bedeutet zudem oft, dass Tiefenwissen zu einer Vorsicht gegenüber allzu schnellen Deutungen und Festlegungen führt. Diskussionen mit Aktivisten enden dann häufig in einem apodiktischen Lob der Tat und einem Vorwurf des feigen Zauderns und Zagens. Was manchmal zutrifft. Was öfters auch daneben schlägt.

Gleiches gilt, sehr bekanntermaßen, auch für die bibliothekarische Praxis, bei der eine allzu grundierte Position eventuell tatsächlich sinnvolle Anpassungen häufig ausbremst. (Dass im Bereich der öffentlichen Bibliotheken von den drei Säulen  –   Egalität, Anpassungsdruck, Effizienz  –  der Effizienzgedanke das eigentliche Triebmittel ist, wegen des G’schmäckles, aber gern hinter den anderen beiden Säulen versteckt wird, ist mittlerweile wahrscheinlich auch jedem bekannt.

Trotzdem ist die gestern geäußerte These des Aktivisten Marcell Mars (der sein sehr ehrenwertes Projekt Memory of the World explizit mit der Idee der Public Libraries grundiert), jeder könne heute in 15 Minuten Bibliothekar werden, aus professioneller Sicht auch bei großer Sympathie nicht konsensfähig. Aus der pragmatischen Sicht eines auf die subversive Tat fixierten Aktivisten wäre sie es vielleicht schon:

„It’s hard to get the “real” libraries/librarians loud and active. Part of the establishment of that dream, of public library, is that people working in the public libraries are public sector workers. They are not known to be particularly brave kind of people. In the time of crisis.“ (Garcia, Mars, 2014)

Der Aktivist blendet jedoch aus, wie er vor allem einfordert, dass die BibliothekarInnen laut und aktiv in einem Sinne sein sollten, den er der Public Library zuschreibt. Genaugenommen handelt es sich aber um diverse Konzepte von Public Library und während Marcell Mars ein digitales globales und offenes Wissensnetz imaginiert, das so beschrieben wird:

„The vision of the Memory of the World is that the world’s documentary heritage belongs to all, should be fully preserved and protected for all and, with due recognition of cultural mores and practicalities, should be permanently accessible to all without hindrance.“ (ebd,)

und dabei erstaunlich zugangsfixiert, also hinter den Ideen beispielsweise der Berlin Declaration on Open Access, bleibt, sehen sich die professionellen Bibliothekare häufiger im Auftrag einer konkreten Gemeinschaft oder Nutzergruppe und unter dem Druck, ihre Angebote entsprechend gestalten zu wollen und zwar im Rahmen dessen, was ihnen die Ressourcenlage zulässt.

Memory of the World ist fraglos ein hoch interessantes Konzept, eine Art anarchisches Publikations(nachweis)system, eine Graswurzel-Europeana und das aus ebenfalls im Interview erwähnte Monoskop wirkt teilweise wie eine zeitgemäßere Fortsetzung von Beats Biblionetz.

Das Betrübliche an der Diskussion mit vielen Aktivisten ist selten das Ziel, sondern die Vehemenz mit der sie für ihre Ideen streiten und zwar bisweilen dort, wo man sie nur auf die Unterschiede, die man zwischen der Public Library als Metapher im Web und der öffentlichen Bibliothek im Stadtraum Berlins hinweist. Über allem schwingt dann eben immer dieser Säbel der Ideologisierung.

Ähnliches lässt sich hin und wieder auch für den Diskurs der / über die Digital Humanities festhalten, die als Idee noch einen Tick weniger spezifiziert erscheinen, als die immerhin auf den Dreischritt Sammlung, Erschließung und Verfügbarmachung (Vermittlung) von Publikationen reduzierbare Rolle der Bibliothek.

Fragt man freilich weiter, was denn eigentlich eine Publikation im Netz sei und wo die Grenzen eines digitalen Dokuments  und die der Autorschaft liegen (Roger T. Pédauque kann von beidem berichten, Pédauque, 2003), dann sieht man auch hier vor allem Unschärfen in Relation. (Im erwähnten Sammelband befasst sich übrigens Niels-Oliver Walkowski in seinem Beitrag  „Text, Denken und E-Science. Eine intermediale Annäherung an eine Konstellation“ (S. 37-54) mit dem Phänomen von Enhanced Publications und der Frage der Textualität.)

IV. Berührungspunkte

Im Editorial des Nach-Feierabend-Bandes, gegen den ich mich in der Buchhandlung, dies als spätes Geständnis, zugunsten einer schönen Ausgabe mit Architekturskizzen von Leonid Lavrov entschied, wird das Diskursfeld „Digital Humanities“ von den Herausgebern dankenswerterweise etwas aufgefächert.

So benennen sie drei, wenn man so will, Digitalisierungsdimensionen der Geisteswissenschaften:

1. digitale Recherche (Digitalisierung der Inhaltsbeschaffung)

2. Digitalisierung von Papierbeständen (Digitalisierung der Inhalte)

3. Neue Forschungs- und Publikationsformen (Digitalisierung der Inhaltserzeugung und -verbreitung)

Aus der bibliothekswissenschaftlichen Warte fällt unvermeidlich auf, dass es sich bei den Schritten eins und zwei um Aktivitäten handelt, in die Bibliotheken spätestens seit den 1970er Jahren aktiv sind. Hier kommen digitale Basisprozesse der Fachinformation im geisteswissenschaftlichen Bereich an, was sich erwartbar aber eigentlich erstaunlich spät vollzieht.

Parallel ist die Rolle der Computerlinguistik zu berücksichtigen, die ebenfalls sehr viel von dem, was heute in den Digital-Humanities-Bereich dringt, schon sehr lange benutzt.

So liegen die digitalen Geisteswissenschaften tatsächlich ein bisschen in der Zange der Erfahrungshorizonte des Bibliothekswesens (Infrastruktur und Technologie zur digitalen Verarbeitung von Inhalten) und der Linguistik (Methodologie und Technologie zur digitalen Verarbeitung von Inhalten).

Ergänzt man beim dritten Aspekt eine eingeklammerte Silbe, so wird deutlich dass „Neue Forschungs- und Publikations(platt)formen“  gleichfalls etwas sind, bei denen Bibliotheken, und sei es nur mit ihrer Expertise auf dem Gebiet der Publikationsformenlehre, eine Rolle spielen können und nicht selten tun sie es in Projektrahmen auch. In einem höflichen Gutachten zu meinem Abstract für die DHd-Konferenz 2014 fand sich übrigens der Kritikpunkt benannt:

„Warum z. B. in der editionsphilologischen Forschung die Bibliothekswissenschaft eine wichtige Rolle spielt, ist für mich nicht nachvollziehbar.“ (unveröffentlichtes Gutachten zur DHd-2014)

Da die Nachfrage leider nicht im Auditorium wiederholt wurde, muss ich die Antwort hier andeuten: zum Beispiel im Wissen über die Entwicklung von Medialität und zwar sowohl im historischen Verlauf wie auch in der Breite. Selbstverständlich kann ein Editionswissenschaftler auch eine diesbezüglich tiefe Kenntnis besitzen, die in seinem Feld auch tiefer reicht, als die des Bibliothekswissenschaftlers. Der jedoch weiß im Idealfall zusätzlich, wie man in anderen Kontexten publiziert und wie man diese Publikationen auch langfristig verfügbar hält und was, wenn man etwas wie eine digitale Edition erfinden muss, in diesem Bereich technisch alles möglich und sinnvoll ist. Man kann auch anders antworten, aber das muss auch an anderer Stelle geschehen.

Die Schnittstelle zur Welt der digitalen Hacktivisten findet sich dort, wo Digital Humanities mit dem Impetus auftreten, ein „Werkzeug zur Neuorganisation des gesellschaftlichen Wissens und damit letztlich zur Reform des menschlichen Zusammenlebens“ zu sein (Hagner, Hirschi, S. 7). Hier weisen sie in Richtung Sozialutopie, wobei aus der präziseren Beobachtung offen bleibt, wie sehr hinter derartigen Aussagen auch wirkliche Überzeugungen stecken oder einfaches Taktieren, wenn es darum geht, den Anspruch auf Förderung entsprechender Projekte zu legitimieren.

Der Topos von der Verbesserung der Welt durch Zugang und Technologie begleitete ähnlich lange Zeit die Open-Access-Bewegung und ist als Motivationselement sicher häufig wichtig. Auf der anderen Seite steht der Druck, diese Verbesserung auch nachweisen zu müssen, was dann sehr schwer fällt, wenn Heilsversprechen besonders euphorisch ausfallen. In der Open-Access-Bewegung scheint man derweil auf pragmatischere bzw. niedriger zielende Argumentationen zu bauen, wobei nicht selten an das Argument der Erhöhung der Zugangsgerechtigkeit das Argument des volkswirtschaftlichen Nutzens tritt. In den Digital Humanities spielt dieses meist nur dann eine Rolle, wenn auf die Bedeutung verteilter und nachnutzbarer Ressourcen verwiesen wird.

Michael Hagner und Caspar Hirschi stellen vier andere Aspekte als zentral für die Diskussion heraus und eine diskursanalytische Annäherung an den sehr spannenden Ablauf der Debatte darüber, was Digitale Geisteswissenschaften sein können, findet darin wenigstens auf den ersten Blick ganz passende Basiskategorien:

  1. Autorschaft (Gegensatzpaar: adressierbarer [Einzel]Autor < > soziale Netzgemeinschaft)
  2. Forschungspraktiken (qualitativ, wenige Quellen < > quanitativ, Big Data)
  3. epistemische Tugenden (Argumentation, Narration < > Bereitstellung, Verlinkung, [eventuall auch Visualisierung])
  4. Publikationsformen (abgeschlossene Monografie / Artikel < > „liquide Netzpublikation“)

Die interessante Frage, die die Autoren, die sich als Nicht-Utopisten erklären, daraus ableiten ist, „ob [bei einer Durchsetzung der „neuen Ideale“] der Begriff Wissenschaft dann überhaupt noch tauglich und die Universität noch der richtige Ort wären, solche Kulturtechniken zu vermitteln“?  (ebd., S. 8) Was auch wieder eine Zuspitzung ist. Ganz ohne Polemisieren geht es wohl nirgends und so rutscht ihnen eine weitere Frage in den Text, nämlich, „wie viel Distant Reading die Geisteswissenschaften vertragen, ohne am Ende in digitaler Adipositas zu erstarren“? (S. 9) So bekommt Franco Moretti doch noch sein Fett weg. Somit implizieren sie weiterhin gleich selbst eine erste Antwort auf ihre Frage:

„Was bedeuten digital gesteuerte Erkenntnisverfahren wie etwa das Distant Reading – das eigentlich kein Lesen mehr ist, weil zahlreiche Texte nur noch mit einem bestimmten Algorithmus gescannt werden – für die traditionellen geisteswissenschaftlichen Herangehensweisen?“ (S. 9)

Wobei Franco Moretti mit der Benennung des Distant Reading gar nichts Wortwörtliches, sondern eine sprachspielerische Stichelei gegen die Kultur des Close Reading im Sinn hatte und in seinem zentralen Artikel (Moretti, 2000) verdeutlicht, dass es ihm um morphologische Analysen geht, die als Gegenkonzept zu der Tatsache dienen sollen, dass die literaturwissenschaftliche Tradition der Tiefenlektüre notwendig nur einen bestimmten Kanon berücksichtigt, die Welt der Literatur (bzw.: die Weltliteratur) aber weitaus reichhaltiger ist. Das auf Algorithmen setzende Distant Reading ist derzeit wahrscheinlich die beste Option, um dieses Korpus überhaupt in die Literaturwissenschaft hereinzuholen. Es besteht auch kein Anlass, hier eine Konkurrenz oder gar einen Nachfolger zum Close Reading zu sehen. Sinnvoller wäre, das Distant Reading als Erweiterung zu sehen. Denn wo sich das Close Reading konzeptionell auf die Lektüre des Einzigartigen, des Besonderen und Ungewöhnlichen ausrichtet, kann das Distant Reading mit seiner Musteranalyse durchaus helfen, exakt die Werke zu identifizieren, die es wirklich verdienen, sehr nah und gründlich studiert zu werden.

Insofern könnte man die Frage

„Inwiefern basieren die Digital Humanities auf neuen Forschungsfragen und inwiefern können sie solche generieren?“

möglicherweise besser so stellen:

„Inwiefern basieren Digital Humanities auf etablierten geisteswissenschaftlichen Forschungsfragen und wie können sie deren Bearbeitung unterstützen?“  (ebd.)

Man kann sich die Entwicklung der Digital Humanities nämlich auch problemlos als Erweiterung des Bestehenden vorstellen. So wie die Digitale Bibliothek erstaunlicherweise und trotz aller entsprechenden Beschwörungen nicht dazu geführt hat, dass die Bibliothek als Ort an Bedeutung verlor. Eher im Gegenteil.

Berlin, 07.04.2014

Literatur

Garcia, David; Mars, Marcell (2014) Book Sharing as a „gateway drug“: Public Library. In: new tactical research. Feb. 14, 2014 http://new-tactical-research.co.uk/blog/1012/

Hagner, Michael; Hirschi, Casper (2013) Editorial. In: Gugerli, David [Hrsg.] ; Hagner, Michael [Hrsg.] ; Hirschi, Caspar [Hrsg.] ; Kilcher, Andreas B. [Hrsg.] ; Purtschert, Patricia [Hrsg.] ; Sarasin, Philipp [Hrsg.] ; Tanner, Jakob [Hrsg.]: Nach Feierabend 2013. Zürich: diaphanes. S. 7-11 (PDF-Download des Editorials)

Moretti, Franco (2000) Conjectures on World Literature. In: New Left Review. 1 (Jan/Feb 2000) http://newleftreview.org/II/1/franco-moretti-conjectures-on-world-literature

Pédauque, Roger T. (2003): Document : forme, signe et médium, les re-formulations du numérique. In: Archive Ouverte en Sciences de l’Information et de la Communication. http://archivesic.ccsd.cnrs.fr/sic_00000511

Walkowski, Niels-Oliver (2013) Text, Denken und E-Science. Eine intermediale Annäherung an eine Konstellation. In: Gugerli, David [Hrsg.] ; Hagner, Michael [Hrsg.] ; Hirschi, Caspar [Hrsg.] ; Kilcher, Andreas B. [Hrsg.] ; Purtschert, Patricia [Hrsg.] ; Sarasin, Philipp [Hrsg.] ; Tanner, Jakob [Hrsg.]: Nach Feierabend 2013. Zürich: diaphanes.  S. 37-54

Wampfler, Philippe (2013) »online first«. Geisteswissenschaften als Social Media. In: Gugerli, David [Hrsg.] ; Hagner, Michael [Hrsg.] ; Hirschi, Caspar [Hrsg.] ; Kilcher, Andreas B. [Hrsg.] ; Purtschert, Patricia [Hrsg.] ; Sarasin, Philipp [Hrsg.] ; Tanner, Jakob [Hrsg.]: Nach Feierabend 2013. Zürich: diaphanes.  S. 79-102

Kunst, Bibliothek und Medienwandel. Eine Sichtung aktueller Publikationen.

Posted in LIBREAS.Feuilleton, LIBREAS.Referate by Ben on 19. Mai 2013

von Ben Kaden

I

Heike Gfrereis, Ellen Strittmatter (Hrsg.) Zettelkästen : Maschinen der Phantasie. Marbach am Neckar: Deutsche Schillergesellschaft, 2013.

Es ist nicht unbedingt neu, dass sich Künstler_innen aus diversen Perspektiven dem Phänomen Bibliothek nähern. Aber aus der Sicht derer, für die die Bibliothek nicht nur Ort oder Gegenstand müßiger Lohnarbeit ist, sondern die aus welchem aberwitzigen Grund auch immer eine Kammer ihres Herzens für dieses Kulturobjekt freigeräumt haben, ist dieser zumeist dekonstruierende Blick in der Regel hochinteressant.

Diese Menschen fahren ihrer Leidenschaft gemäß extra nach Marbach, um sich die exzellente Zettelkastenschau anzusehen, die vielleicht weniger das Label Kunst offen trägt, aber genau die Funktion erfüllt, die gute Kunst eben auch erreicht: durch Zusammenführen, Verschieben und Darstellen (oder Weglassen) von Material oder (wenn es Literatur ist) Sprache, Zwischenräume zu öffnen, die sonst verschlossen blieben, durch die sinnliche Aufladung einen Eindruck, ein Gefühl hervorzurufen, hinter das man nie wieder zurückgelangt und das nach und nach zu einem differenzierterem und reicherem Weltbild zu gelangen hilft.

Nun sind die in der Ausstellung Zettelkästen. Maschinen der Fantasie gezeigten, geöffneten und  eben tatsächlich dekonstruktiv eröffneten Objekte, die Kästen Hans Blumenbergs, Friedrich Kittlers, Peter Rühmkorfs, Arno Schmidts, Walter Benjamins, selbstverständlich Niklas Luhmanns sowie einiger weiterer Vertreter der deutschen Geisteselite die Ausstellung, etwas entfernt vom klassischen bibliothekarischen Zettelkatalog. Das verbindende Element ist einzig die Formähnlichkeit.

Jedoch weisen die Exponate einen viel zeitgenössischeren Bezug zur Bibliothek auf. Denn sie nehmen in aller Konsequenz und Verästelung die Idee der semantischen Netze, auf die Digitale Bibliotheken hinarbeiten, und den Gedanken des Hypertextes, aus dem Digitale Bibliotheken geformt werden, mit mechanischen Mittel voraus. W.G. Sebalds Gesichter-Index ist eine Prä-Tumblr-Sammlung von Fundfotos. Walter Kempowskis „Weltkrieg II“-Kartei ist ein nahezu idealtypischer Material-Mash-Up.  Von Hermann Hesses Postkarten-Kartei ist es nicht weit zu einer FOAF-Struktur. Siegfried Kracauers Sammlung zu Jaques Offenbach und dem Paris seiner Zeit nimmt schließlich fast ein wenig das Geospacing vorweg.

Was aber deutlich wird, ist, wie diese schöpferischen Zettelkästen immer gerichtet zumindest begonnen werden – je nach Disziplinen erweitern sie sich bisweilen zum reinen Selbstzweck – immer das Ziel verfolgen, eine enorme Informationsmenge zu strukturieren und beherrschbar zu machen. Die Flexibilität des Mediums Zettelkasten ist auch heute noch beeindruckend oder vielleicht umso mehr, da man sieht, wie so vieles, was heute als Innovation offeriert wird, schon an anderer Stelle mit unglaublicher Konsequenz durchgespielt wurde. Zugleich wird sichtbar, wie Komplexität und Eigensinn des Mediums die Ordnungsversuche immer wieder durchbrechen, wie die Zettelkästen dazu neigen, die, die sie pflegten, zu binden und zu beherrschen. Mehr noch als die Bandbreite der Möglichkeiten des Einsatzes von Zettelleien ist diese Macht des Mediums und seiner Struktur über die Inhalte und die sie nutzenden Menschen das Eindrucksvolle, das man aus der Marbacher Schau als Erinnerung mitnimmt.

Wer sich mit semantischen Netzen über einen schematischen Durchprogrammierwunsch beschäftigt, erhält aus diesem Blickwinkel außerdem einen ganzen Stapel Karteikarten als Inspiration zum Überdenken der eigenen Selbstverständlichkeiten. Aus dieser Perspektive gelingt der Ausstellung das, was man von Kunst idealerweise erwarten kann.

Wer es verpasst, verpasst zwar etwas, aber es ist ja nichts verloren. Denn Friedrich Kittler, der sich von den angesprochenen Zettelkästlern vermutlich am klarsten und bewusstesten mit der Medialität und der Transformation von Medialität befasste, antwortete in einem Interview in seinem Todesjahr 2011 mit der WELT am Sonntag auf die Frage „Erwartet uns eine Edition der gesammelten Festplatten?“

„Ich habe versucht, zumindest die Dateien aufzuheben. Aber die meisten alten CDs sind jetzt kaputt. Meine Zettelkästen dagegen stehen noch hier im Nebenzimmer. Mit Schreibmaschine verfasst, ganz ordentlich geführt.“ (zitiert nach dem besprochenen Band ,S.50)

Wenn also die Dateien alle zu unbezahlbaren Problemfällen der digitalen Langzeitarchivierung geworden sind, wird Friedrich Kittlers Mondfarbensammlung noch problemlos in einem kühlen Archivkeller konsultierbar sein. Der Katalog zur Ausstellung ist dagegen leider, und das ist wirklich der einzige Knackpunkt, so unglücklich klebegebunden, dass er sich nach einer intensiven Lektüre leider buchstäblich selbst verzettelt. Hier hätte man buchgestalterisch wenigsten den Bogen zu einem Karteikartennormformat schlagen können, damit es dem Leser möglich wird, die Seiten dem Prinzip der Maschinen der Fantasie folgend in einem eigenen Kasten neu zu ordnen.

Besprochene Bücher / Mai 2013

Von links nach rechts: Die erste Ausgabe des Bulletins of the Serving Library (sh. IV), der Marbacher Ausstellungskatalog (I) und Sara MacKillops Ex-library Book (III). Die New York Times (II) bekommt man selbst in Berlin gedruckt nur noch als Print-on-Demand.

II

Susan Hodara: An Old Technology, Transformed. ‘Artists in the Archives,’ at Greenburgh Public Library in Elmsford. In: New York Times / nytimes.com. 18.05.2013, Volltext

Wäre der Aufwand nicht so hoch, böte sich als Ergänzung die Reise in die im Vergleich zu Marbach am Neckar noch unscheinbarere Stadt Elmsford, New York an. Denn in der dortigen öffentlichen Bibliothek zeigt man bis zum September eine Ausstellung Artists in the Archives: A Collection of Card Catalogs, die sich weniger aus Gründen des persönlichen Kreativmanagements und mehr zum Zweck der Kreativität selbst mit Katalogkästen und –karten auseinandersetzt. Da Berlin aber doch selbst für das Pfingstwochenende zu weit vom Staate New York entfernt liegt, kann an dieser Stelle nur auf den gestern in der New York Times erschienenen Artikel verwiesen werden. Als Symptom für die Praxis der künstlerischen Annäherung an Medialität und Eigenschaften der Bibliothek eignet er sich allemal, auch wenn er nur wenig zeigt von Carla Rae Johnsons Alternet-Installation, der Arbeit einer Künstlerin, die bereits vor zwei Jahrzehnten recht kurios die Beziehung von Bibliothek und Beton auslotete.

Immerhin zwei Trends für die Kunst mit Bibliotheksbezug werden auch so deutlich: Re-Use, also die in diesem Fall rekontextualisierende Nachnutzung von an sich obsoleten Materialien und zweitens, wie im Fall des von der Fotografin JoAnne Wilcox angestoßenen Call to Everyoneeine partizipations-orientierte Kunstpraxis, wie sie auch bei der im vergangenen Jahr abgehaltenen Berlin Biennale für Zeitgenössische Kunst im Zentrum stand und dort so halb erfolgreich war. (Ich jedenfalls habe mit großer Freude zwei Bögen von Khaled Jarrars Briefmarken-Arbeit in die Welt verteilt. vgl. auch hier)

Von der Web-Anmutung her wirken die Arbeiten ästhetisch freilich sehr anders als die Auguststraßen-Galerie-Kultur. Andererseits ist es auch gar nicht schlecht, einmal nicht in dieser überpolierten Präsentationsästhetik zu schwimmen und die heute etwas eigenartig wirkenden Navigationsbuttons auf Barbara Pages Book Marks– und Buchkunstprojektpräsentation sollten nicht unbedingt von der Arbeit selbst ablenken.

III

Sara MacKillop: Ex-Library Book. Kopenhagen: Pork Salad Press, 2012, Informationsseite beim Verlag

Mehr von Berlin geprägt ist die Arbeit der britischen Künstlerin Sara MacKillop, allerdings eher kreuzbergisch und zwar deshalb weil ihr Ex-library Book in einer Anzeigenkunstaktion an der Normaluhr unweit der Amerika-Gedenkbibliothek (etwa dort, wo die Glitschiner Straße zum Halleschen Ufer wird) in den öffentlichen Raum leuchten durfte. Das Projekt Ex-library Book  beschäftigt sich mit dem Hauptproblem materialorientierter Bibliotheken, nämlich der Aussonderung, die, so der Beschreibungstext zum Clock-Tower-Projekt eine ganze kleine Industrie am Leben hält:

„Manilla book tickets (green or buff), cross ruled catalogue cards (punched), accession sheets (pack of 500), Sinclair display units (1200mm), and self­inking mini date stamps… an industry exists to support analogue archival processes with products that are new but lack newness, already tinged with obsolescence.”

Vielleicht wäre die Idee der Meta-Materialien um das ausgesonderte Buch herum noch origineller fokussierbar. Aber Sara MacKillop entschied sich anders und versammelt in ihrer Publikation zum Thema eine sehr gemischte Abbildung von Spuren, Illustrationen, Flecken und Stempeln, die zweifellos irgendwie mit ausgesonderten Titeln in Verbindung stehen. (LIBREAS selbst hatte einmal eine ähnliche Reihe, allerdings e-only: Ben Kaden: Aussonderungsvermerke. 16 fotografische Variationen über ein Thema. In: LIBREAS 10/11, 2007)  Auch der Zettelkatalogkasten findet in dieser Pin-Wand-artigen Kollektion seine Würdigung.

Die Publikation selbst ist leicht bibliothekssubversiv angehaucht. Jedenfalls deutet die Projekterläuterung auf eine solche Überdrehung:

„An affirmation of a negation: an advertisement for something which is described by what it is no longer; a deadpan statement not of intent but of conflicting ideologies. Exactly what it says it is and not some awful pun; the Ex­library Book is difficult to place.”

Diese an sich sehr originelle Volte wirkt leider in der Publikation nicht so ganz markerschütternd umgesetzt – schlicht weil sich die kleine Arbeit kaum in Bibliotheksbestände verirren wird. Die Kongelige Bibliotek in Kopenhagen immerhin fand für den Titel jedenfalls anstandslos und unkompliziert die passende Sachgruppe: konceptkunst. So läuft die Unterwanderung ins Leere und das Büchlein doch passend in die Ordnung des Lesesaals. Auch die auf die Rückseite des Buches aufgedruckte These wäre differenziert diskutierbar:

„An Ex-library book is the least desirable book in book collecting terms. The term is used for books that once belonged to a library. Ex-library books are generally unattractive, as they have usually been stamped, taped, glued or had a card pocket glued to them. The books have often been damaged by the patrons of the library themselves.”

Das mag pauschal zutreffen. Wo allerdings Läden wie The Monkey’s Paw (mehr dazu auch hier) nach dem Absonderlichen suchen, sind Bibliotheksbestände eine fantastische Quelle. Gerade traditionsreiche Universitätsbibliotheken sondern erfahrungsgemäß mitunter exakt die Titel aus, die in dieses Beuteschema fallen, die so abseitig sind, dass sie zu ihrer Erscheinungszeit kaum je einen privaten Käufer fanden (oder die kaum bewahrt wurden) und die auch in der Bibliothek wenig genutzt und häufig sehr mediengerecht gelagert wurden. Der klassische Buchsammler auf der Jagd nach tadellosen Erstausgaben ist dafür nicht die Zielgruppe. Aber während diese Gruppe ihren Zenit wie fast alle Sammelkulturen zu überschritten haben scheint, wächst die andere, also die derer, die Ungewöhnliche eventuell sogar aus eigenartigen und längst geschlossenen Bibliotheken suchen. Auf die freilich groß genug wird, dass es sich für den Antiquariatsbuchhandel lohnt, sie gezielt ansprechen, vermag auch ich nicht aus meiner Alltagsempirie zu beantworten.

IV

Bruce Sterling: The Life and Death of Media. In: Bulletins of the Serving Library. #1, 2011. S. 2-16
Rob Giampietro, David Reinfurt: Information on Libraries. In: In: Bulletins of the Serving Library. #1, 2011. S. 17-24
Angie Keefer: An Octopus in Plain View. In: Bulletins of the Serving Library. #1, 2011. S. 40-76

Eventuell entspricht die Größe dieser Gebrauchtbuchkundengruppe ja dem Leserkreis des Bulletins of The Serving Library, dessen erste Ausgabe zwar bereits 2011 erschien, es aber erst jetzt auf meinen Schreibtisch schaffte. Es ist eine äußerst merkwürdige Publikation, die freilich für alle, die sich dafür interessieren, wie Jaron Lanier („better know as the father of virtual reality“) über die Biologie bzw. Kraken Claude Shannons Informationstheorie in ihre Schranken weist und für Rechnerarchitektur etwas weitaus komplexeres im Sinn hat:

„Lanier […] thinks Shannon’s “information” should be renamed “potential information.” Against the protocol-based programming of contemporary computing, he offers the model of PHENOTROPIC computing. The goal of phenotropic computing  is to render systems in which every instance of information in a system relates to its context and which can effectively make inferences about other systems based on how they behave in a shared context. Communication transmissions in a phenotropic system MUST have a causal relationship to their environment. Instead of thinking of information as single bit traveling from A to B, Lanier conceives of an ever-changing SURFACE from which multiple points are sampled simultaneously and continuously.” (Keefer, S.74 f.)

Dieses systemische Verständnis ist für Bibliotheks- und Informationswissenschaft nicht ganz neu aber eher auch nicht ganz etabliert. Und während man in den Mühen der Ontologie-Einebnungen rund um irgendwelche semantische Netze die Probleme der traditionellen Sacherschließung und Thesaurus-Kunde potenziert, dürfte die Big-Data-Avantgarde mit der Erschließung konkreter Kommunikationshandlungen in Sozialen Netzwerken längst auf der Schussbahn eines pragmatischen Netzes unterwegs sein, die möglicherweise die Semantic-Web-Entwicklungen bereits in die Ecke der Obsoleszenz schiebt, bevor diese in wirklich ausgereiften Anwendungen massentauglich werden.

Darüber hinaus gibt einen schönen Aufsatz des Science Fiction-Autors Bruce Sterling, der von Jacqueline Goddards Erinnerungsthese, die Erfindung des Telefons hätte die Kultur von Montparnasse zerstört über Medientransformationen nachdenkt und – nicht unberechtigt und wunderbar staunend  schlussfolgernd – fragt:

„What’s our hurry anyway? When you look at it from another angle, there’s an unexpected delicious thrill in the thought that individual human beings can now survive whole generations of media. It’s like outliving the Soviet Union once every week! That was never possible before, but for us, that is media reality.” (Sterling, S. 15)

Und er fährt mit einer Verortung fort, die man sich durchaus für die Gelegenheiten merken kann, an denen man einen originellen Vergleich benötigt:

„It puts machines into a category where machines probably properly belong – colorful, buzzing, cuddly things with the lifespan of hamsters. This PowerBook has the lifespan of a hamster. Exactly how attached can I become to this machine? Just how much of an emotional investment can one make in my beloved $3,000 hamster?” (ebd.)

Wir alle kennen natürlich die – Hamster! – Bilder von MediaMarkt- und Apple-Store-Eröffnungen und die Psychologie ist sicher befähigt, schlichte und handliche Beschreibungen dieser Ereignisse formulieren. Kulturtheoretisch ist das diese gesellschaftliche Umpriorisierung von den medialen Inhalten hin zu den Anzeige- und Übertragungsmedien eine aufregende Angelegenheit, wobei kulturtheoretisch mittelbar ebenfalls bibliothekskulturtheoretisch heißen muss.

Rob Giampietro und David Reinfurt erörtern schließlich in einem FROM 0 to 1 überschriebenen Gespräch den Eigensinn der Information und die Frage, was diese wirklich will – und zwar im Anschluss an Steward Brands totzitierte Aussage „Information wants to be free.“ Bücher mögen hier wahlweise als Gefäße oder Gefängnisse angesehen werden. In jedem Fall binden sie als Informationsträger die Informationen in bestimmten medialen Beziehungsraum, der sich grundsätzlich von dem digitaler Medien unterscheidet:

„[…] [B]ooks want to remain as book-like as possible, while other information carriers – webpages, for example – try to take their place. We dislike calling Amazon’s Kindle a “book”. It’s really something that’s emulative of a book. You “turn” a digital “page” by pressing a button, which wipes the screen of pixels and replaces those pixels with new ones. Design is the set of decisions that add one metaphor on top of another to make the Kindle feel book-like. It’s an exercise in analogy. But Books don’t want the Kindle. Books, as a medium, want more books. Information, however, just wants to be transmitted, through whatever host allows it to spread as widely as possible.” (Giampietro, Reinfurt, S. 23)

Man kann die Digitalisierung also auch sehr evolutionär interpretieren und die Vorstellung, die Information strebe aus einem innneren Strukturzwang automatisch nach dem für sie weitreichensten und einfachsten Verbreitungsweg, ist nicht ohne Reiz, fordert aber zugleich eine Abgrenzung ein – nämlich die zwischen Information im Bit-Sinn und der Kultur, inklusive dem Wissen, der Informationsnutzung und der Mediengestaltung. Wahrscheinlich zwingt uns der Eigensinn von Information tatsächlich dazu, Medien in einer bestimmten Weise zu gestalten. Unsere eigenen Intentionen, Anspruch und auch sinnliche Dispositionen spielen jedoch mindestens eine gleichwirksame Rolle. Für die Information an sich mag das Buch (oder auch der Zettelkasten) eine längst überholte Bremse sein. Für den Menschen selbst könnte aber gerade diese die Information und ihren Fluss durch Materialität restringierende Form eine besondere, nicht emulierbare Bedeutung besitzen. Vielleicht auch nicht, aber nachdenken sollte man darüber schon.

Auf S.91 des Hefts wird eine bekanntere Übersicht von Régis Debray zitiert, die das Dreistadienmodell Logosphäre (Schreiben) – Graphosphäre (Drucken) – Videosphäre (Audio-Visualisieren) mit bestimmten Symbolrahmen und sozialen Bezugsgrößen in Beziehung stellt. Anhand dieser lässt sich sehr gut die mediale Verschiebung auf die ethische Grundfrage „Wie wollen wir leben?“ rückbinden. Beispielhaft sei hier nur die Entwicklungen des Bezugs für die Legitimation angegeben: Logosphäre: Das Gottgegebene (denn es ist heilig), die Graphosphäre: Das Ideale (denn es ist wahr), die Videosphäre: Das Effektive (denn es funktioniert).

Wenn wir also über die Wechselwirkung zwischen gesellschaftlichem und Medienwandel nachdenken wollen, was aus meiner Sicht der Kern der Bibliotheks- und Informationswissenschaft als Wissenschaft sein sollte, dann wird hier deutlich, dass es sich bei weitem nicht einzig um Fragen von Oberflächendesign und Übertragungstechnik handeln kann.

Und wenn uns als Aktive dieses Faches sowohl die Dekonstruktionen und die Metadiskurse aus der Kunst entsprechend sensibilisieren und gleichzeitig dadurch hinterfragen, dass sie die Thesen verhandeln, die eigentlich bzw. zugleich unser Stoff wären, dann ist das nicht nur eine Anregung. Sondern parallel – und viel entscheidender – die implizite Frage, ob die Strukturen unserer Wissenschaft, die diese großen, übergeordneten und entscheidenden Fragen nur äußerst selten befriedigend zu greifen bekommt, möglicherweise häufiger mehr eine Praxis der Selbsterhaltung als eine des progressiven Denkens pflegt.

Wenn Régis Debray mit seinem Schema Recht hat und wir ohnehin von der Kultur des Arguments hin zu einer Kultur der Verführung (auch als Form der Gesellschaftssteuerung) gleiten, dann stellte sich tatsächlich die Frage, ob für das Betrachtungsfeld unserer Disziplin nicht mehr mit gezielter Kunst- als mit Wissenschaftsförderung gewonnen wäre?

Die Frage ist selbstverständlich so überspitzt, dass sie sofort bricht, wenngleich die allgemeine Anerkennung und Würdigung von Kunst als Erkenntnispraxis ein fantastischer kultureller Schritt wäre und ich im Gegenzug eine Übernahme bestimmter intellektueller Aspekte der Kunstpraxis in die Wissenschaft genauso gut heißen würde. Dennoch sind die Annährungspfade der Auseinandersetzung aus gutem Grund unterschiedlich. Wir sollten gerade deshalb überlegen, wie man dies in einer übergeordneten Zusammenführung des an sich Getrennten fruchtbar und wirksam machen könnte.

(Berlin, 19.05.2013, @bkaden )

Utopie und Praxis. Anmerkungen zur Digital Public Library of America.

Posted in LIBREAS aktuell by Ben on 23. April 2013

von Ben Kaden

Am Anfang steht in gewisser Weise ein Remix, was gut passt, sind doch die USA per se so etwas wie eine grundständige Remixkultur. In zwei nahezu mythischen Bausteinen des Selbstverständnisses der USA verankerte Robert Darnton die Idee der Digital Public Library of America (DPLA, www.dp.la). Erstens in dem Streben nach einer an den Ideen der Aufklärung ausgerichteten Utopie, also einer zukünftigen und besseren Welt, die zugleich mit diversen religiösen Strängen, Zwängen und Ethiken durchsetzt wurden. Und zweitens in einer pragmatischen Einstellung, die die Tat höher schätzt als den Diskurs, was sich vielleicht auch in einer Gegenüberstellung des administrativen Apparats von Europeana und DPLA ablesen lässt und ziemlich präzis die Differenz zwischen der alten und der neuen Welt sichtbar macht.

In gewisser Weise führt Darnton das Beste aus beiden Welten in dem Motto „Think big, begin small” zusammen. Und dies vor allem schnell. Von der Idee zur Plattform mit zwei Millionen Objekten in zweieinhalb Jahren ist fraglos ein bemerkenswertes Tempo. Dokumentiert sind diese Zwischenschritte in einigen Aufsätzen vor allem in der New York Review of Books, die sich mittlerweile in gewisser Weise als ein Making-Of lesen lassen und in der aktuellen Ausgabe noch einen vorläufigen Endpunkt finden. (vgl. z.B. Darnton, 2010, 2011a, 2011b, 2013 bzw. auch Kaden, 2011)

Wobei die nackte Taktung noch nichts über die Qualtität aussagt. Die Deutsche Digitale Bibliothek brauchte auch kaum drei Jahre von der Erstankündigung bis zur Freigabe des BETA-Portals. Andererseits begann die DPLA fast als eine Art Liebhaberprojekt, also durch private Initiative. Vergleiche zwischen US-, europäischen und deutschen Projekten dürften allerdings insgesamt notwendig unfair sein, denn zu unterschiedlich sind die Erstellungskontexte von urheberrechtsräumlichen bis hin zu förderpolitischen Aspekten. Dessen ungeachtet muss man Darnton und seinen Mitstreitern Respekt zollen, wenn sie ein kerneuropäisches Bildungsideal in eine rasant umgesetzte und weitgehend funktionierende Lösung gießen. Wobei die DPLA wir wie sie heute antreffen tatsächlich erst der kleine Anfang sein soll. Und die Begrenzung auf die USA müsste sich genau genommen von selbst auslösen, sind Land und Kultur nicht nur historisch ohne die vielfältigen Verbindungslinien zu europäischen, afrikanischen und asiatischen Kulturen nicht vorstellbar.

Darnton ist weltgewandt genug, um dies zu sehen, denn wie kaum einer seiner Landsleute kennt sich der Historiker aus eigener Anschauung auch mit den Bedingungen der europäischen Wissenschaft und aus eigener Forschung mit den Prinzipien der Aufklärung und also dem Frankreich des 18. Jahrhunderts aus. Außerdem hat es sicher einen Grund, dass die Interoperabilität mit Europeana von Beginn an ein Ziel der Entwicklung ist. So existiert auch bereits eine App mit der sich DPLA und Europeana zugleich durchsuchen lassen (http://www.digibis.com/dpla-europeana). Das Signal der Koexistenz statt Konkurrenz dürfte damit schon gesetzt sein.Es ist mehr als bemerkenswert, wie Darnton es (nicht zuletzt mit unermüdlicher Lobby-Arbeit) nach seiner Emeritierung unternimmt, die von ihm beforschte Idee der Aufklärung in eine konkrete Anwendung zu gießen. Ein Enzyklopädist muss und kann er nicht mehr werden. In dieser Weise waren ihm Jimmy Wales und Larry Singer mit der Wikipedia ein Jahrzehnt voraus.

Die DPLA verkörpert (falls das Wort „verkörpert” auf immaterialle Kontexte anwendbar ist) jedoch etwas viel Offeneres und daher möglicherweise viel Größeres. Auch sie verwirklicht eine in Analogkulturen gewachsene Idee mit der Hilfe neuer Technologien in einem virtuellen Raum. Steht die Wikipedia für die offene, aber streng an Faktualitäten rückgebundene Dokumentation des Bekannten, so steht hinter der DPLA das Drängen hin zu einer ungehinderten Zirkulation der Ideen. Nicht die Datenbank, sondern der öffentliche diskursive Fluss ist die Zieladresse dieses Konzeptes, wobei Darnton sich beim Begriff der Öffentlichkeit eher unentschieden zwischen Michel Foucault und Jürgen Habermas hielt und sich am Ende eher zu Gabriel Tarde hingezogen fühlte. (vgl. Darnton (2002), S.11f.)

Medientheoretisch zeigt sich Darnton erwartungsgemäß auf der Höhe der Zeit, denn dem von ihm gesteckten Ziel der Diffusion von Ideen kam die Drucktechnologie zwar sehr entgegen, zugleich besaß sie jedoch ihre Schwachstellen bezüglich der Reichweite, die erst mit den elektronischen Massenmedien gemindert und – so die Hoffnung – mit dem Internet weitgehend ausgeglichen werden können:

„We have the technological and economic ressources to make all the collections of all our libraries accessible to all our fellow citizens – and to everyone everywhere with access to the World Wide Web. That is the misson of the DPLA.” (S. 4)

Dass die winzige Bedingung „access to the World Wide Web” der zentralen Hürde der Streuung von Printprodukten („low rate of literacy”, „high degree of poverty”) nicht unbedingt entbehrt, weiß Robert Darnton vermutlich auch, reflektiert dies aber im vorliegenden Text nicht weiter. Ein blinder Fleck? Ein trüber vielleicht. Der Digital Divide mag in den USA bei einer Internetversorgung von nahe 80 % der Bevölkerung (Warf, 2013) überschaubar sein, aber ist dennoch nach wie vor gegeben. (ebd.)

Und auch die Idee, dass die derzeitigen Ideen- und Wissenskulturen nicht zwangsläufig in Bibliotheksbeständen repräsentiert werden – die Born-Digital-Materialien spielen in diesen bisher bestenfalls eine Nebenrolle. Den einigermaßen profanen Grund dafür benannte Robert Darnton in einer Replik auf eine entsprechende Anmerkung durch Joseph Raben: „I emphasized written texts, because we face a problem of feasibility.” (vgl. Raben, Darnton 2010)

Er schließt jedoch an derselben Stelle diese Materialien als unbedingt relevant in die Planungen für die DPLA ein. Wenn man schließlich in die aktuellen Materialien hineinbrowst, findet man entgegen der Vermutung überraschend (und bei zweiten Gedanken auch aus offensichtlichen Gründen) viel Archivgut und eine Menge sehr heterogenen Materials, das direkt von archive.org eingebunden wird.

Eine Ursache der forcierten Bibliotheksbestandlastigkeit dürfte neben der grundsätzlichen Anbindung an das Bibliothekswesen der USA aber auch darin zu suchen sein, dass die DPLA eine Art direkte Reaktion auf das Google Books Project war. Der Traum einer kompletten Bestandsdigitalisierung existierte schon bevor es Google gab, aber erst die Alpha-Suchmaschine koppelte die entsprechenden Ressourcen mit dieser Vision und dies mit einer Überbetonung der uramerikanischen Handlungsprämisse. „Am Anfang war die Tat”, die das Projekt schließlich mit einigem Bohei an die gläserne Wand des Copyright Law donnern ließ. Darnton betont, dass es sich bei der DPLA nicht um eine Ersatzveranstaltung zum Google Books Project handelt, dass sie freilich durchaus durch dieses inspiriert wurde. (vgl. dazu auch Darnton, 2011a) Und dass Google als Partner nach wie vor gern gesehen wird.

Rein strukturell ist die DPLA eine verteilte Rechnerarchitektur mit einem zentralen Portal und tatsächlich erinnert einiges in der Beschreibung an die Europeana. Die Plattform greift zunächst auf vorhandene Digitalisate Anderer zurück, wobei dieser Bestand buchstäblich beständig erweitert werden soll, bis man von einer National Digital Library sprechen kann. Nicht nur deshalb ist es sicher auch für die DDB hochinteressant zu sehen, wie sich dieser Anspruch realisiert, wie die Koordination der zahlreichen „Content“ und „Service Hubs“ in der föderalen Struktur der USA funktioniert („forty states have digital libraries“) und welche Stolperdrähte sich erkennen lassen.

Die Leitplanken der Entwicklung der DPLA sind derzeit pekuniärer und urheberrechtlicher Natur: Die Sammlung “will grow organically as far as the budget and copyright laws permit.”  Dass sich die Unternehmung als nachhaltig erweist, hängt besonders am Parameter „Geld“. Ein Großteil der Akutarbeit im DPLA-Umfeld wird daher unvermeidlich auf die Akquise von Mitteln zielen. Die üppige Präsenz von Stiftungen in den USA als Adressaten ist der Hauptansatzpunkt, der bereits allein deshalb aussichtsreich ist, weil bereits die Entwicklung der DPLA bis heute bereits zu großen Teilen über diese Kanäle finanziert wurde. Darnton hofft zudem auf die prinzipiell naheliegende Einbindung der Library of Congress in das Projekt, was ein maßgebliches Signal an mögliche Geldgeber sein dürfte.

Am Problemfeld Copyright wird dies vermutlich wenig ändern. Darnton führt aus, wie die derzeitigen rechtlichen Regelungen die Verfügbarmachung von Beständen auf Publikationszeiträume beschränken, welche vor der Prämisse eines Flusses von Ideen vorrangig für eine neohistorisierende Rückbesinnung geeignet sein könnten (die Grenze liegt in der Regel im Jahr 1923), den intellektuellen Esprit selbst der Blüte der goldenen Zwanziger allerdings heute noch nicht digital sichtbar werden lassen. (zum Aspekt des Urheberrechts sh. u.a. auch Dotzauer, 2013) Und auch sonst gilt, was Jeff John Roberts zum Start des Portals notierte:

„While the DPLA is a beautiful and important endeavor, it also feels woefully incomplete.” (Roberts, 2013)

Was nicht kritisch sondern rein feststellend gemeint sein dürfte. Zweifellos kann die DPLA zum jetzigen Zeitpunkt nur die Demonstration dessen sein, was sie einmal darstellen könnte, wenn die Rahmenbedingungen es zulassen.

Setzt man mit den Zielen etwas greifbarer an, dann finden sich bereits jetzt Einsatzfelder, die mutmaßlich vor allem im kuratorischen Bereich liegen werden. Das durch Neugier getriebene Stöbern und Entdecken aus Freude ist sicher eine Weile ersprießlich, bleibt aber dauerhaft nur reizvoll, wenn es sich relevant an eine entsprechende Arbeit mit dem Material anbinden lässt. Vermutlich wird dieser Aspekt bei der DPLA nur eine nachgeordnete Rolle spielen können.

Aus wissenschaftlicher Sicht, also vor der Prämisse einer erschöpfenden Materialsichtung, ist die Nutzung der DPLA-Bestände aufgrund der objektiv existierenden Lücken nur sehr eingeschränkt sinnvoll und die Fahrt zur Bibliothek oder ins Archiv wird auch zukünftig unerlässlicher Teil der Forschung bleiben.

Eine aufbereitete Vermittlung, Komposition und Kontextualisierung auf Grundlage der vorhandenen Bestände scheint dagegen etwas zu sein, was sich nahezu aufdrängt. Dass sowohl bei der DPLA wie auch der Europeana die Kulturvermittlung noch wichtiger als die Informationsbereitstellung ist, zeigt sich in gewisser Weise bereits in der Grundanlage.

Darnton betont weiterhin die Rolle der Einbindung der Bestände in die Lehre an den Colleges und auch wenn die Zahl der Studierenden, die sich länger mit digitalisierten Manuskripten von Emily Dickinson befassen, auf bestimmte Fachbereiche limitiert und daher übersichtlich bleibt, so deutet sich an diesem von ihm eingeführten Beispiel an, was die Sammlung zu leisten vermag:

„Teachers will be able to make selections form it and adjust them to the needs of their classes.” (S. 6)

Die DPLA kann so zur virtuellen Lernumgebung für die Geisteswissenschaften avancieren, braucht aber idealerweise entsprechende Werkzeuge zur digitalen Kuratierung. Dem Zeitgeist entsprechend bietet man dafür externen Entwicklern die Möglichkeit, APIs zu nutzen bzw. eigene Apps zu programmieren und in der App Library (der Terminus Library wird hier interessanterweise so verwendet, wie man es aus der Software-Entwicklung kennt und verzeichnet keine Bestände, sondern sozusagen Digital Library Applications) der Plattform zur Verfügung zu stellen. (vgl. zu den möglichen Erweiterungen u. a. Geuss, 2013)

Das Digital Humanities Zentrum der Havard University (metaLAB) bietet mit Library Observatory (http://www.libraryobservatory.org/ bzw. http://www.jessyurko.com/libob/) bereits ein Visualisierungswerkzeug für die DPLA an. Klar ist, dass man sich damit aktuell noch in der „begin small”-Phase befindet und das Angebot weit davon entfernt ist, wirklich als massentaugliches Produkt Teil der alltäglichen Informations- und/oder Kulturarbeit zu werden.

Darntons umfängliche Vorstellungen von der DPLA sollte man daher keinesfalls als Produktbeschreibungen, sondern differenziert als Perspektivlinie verstehen. Diese jedoch enthält deutlich eine ganze Reihe von Aspekten, die generell für die digitale Bibliotheksdienstleistungen bedeutsam sind. Digital Curation und das Hineinholen von Raum- und Objektkulturen in diese Umgebungen (wie es beispielsweise auch Projekte wie epidat angehen: http://steinheim-institut.de/cgi-bin/epidat) dürften zentrale Bauteile dieser mehr digitalen Kulturräume als digitale Bibliotheken sein.

Textmedien sind in diesem Kontext nur eine von diversen Bezugsgrößen für Bibliotheken. Zukünftig dürften alle Artefakte, die digitalisierbar sind und zu denen Metadaten erfasst und relationiert werden können, legitime Bestände digitaler Bibliotheken sein. Die damit verbundenen Herausforderungen sind zweifelsohne immens. Und sowohl die Europeana, die DDB und die DPLA in ihrer aktuellen Ausprägung zeigen, dass wir von diesem Eisberg der digitalen Erschließung von Kultur bestenfalls die Spitze sehen. Und auch die vermutlich erst aus erheblicher Entfernung.

(Berlin, 22.04.2013  / @bkaden)

Literatur:

Robert Darnton (2002) Poesie und Polizei. Öffentliche Meinung und Kommunikationsnetzwerke im Paris des 18. Jahrhunderts. Frankfurt/Main: Suhrkamp

Robert Darnton (2010) The Library: Three Jeremiads. In: New York Review of Books. Volume 57, Nummer 20. http://www.nybooks.com/articles/archives/2010/dec/23/library-three-jeremiads/?pagination=false

Robert Darnton (2011a) Google’s Loss: The Public’s Gain. In: New York Review of Books. Volume 58, Nummer 7. http://www.nybooks.com/articles/archives/2011/apr/28/googles-loss-publics-gain/?pagination=false

Robert Darnton (2011b) Jefferson’s Taper: A National Digital Library. In: New York Review of Books. Volume 58, Nummer 18. http://www.nybooks.com/articles/archives/2011/nov/24/jeffersons-taper-national-digital-library/?pagination=false

Robert Darnton (2013) The National Digital Public Library is Launched! In: New York Review of Books. Volume 60, Nummer 7, S.4-6. http://www.nybooks.com/articles/archives/2013/apr/25/national-digital-public-library-launched/

Georg Dotzauer (2013) Virtuelle Bibliotheken: Aller Welts Wissen. In: Tagesspiegel / tagesspiegel.de, 13.04.2013 http://www.tagesspiegel.de/kultur/digital-public-library-of-america-eroeffnet-virtuelle-bibliotheken-aller-welts-wissen/8059852.html

Megan Geuss (2013) The Digital Public Library of America: adding gravitas to your Internet search. In: ars technica. 21.04.2013, http://arstechnica.com/business/2013/04/the-digital-public-library-of-america-adding-gravitas-to-your-internet-search/

Ben Kaden (2011) Die Materialsammlung. Über Robert Darntons Zwischenbericht zur DPLA in der NY Review of Books. In: LIBREAS.Weblog, 05.12.2011. https://libreas.wordpress.com/2011/12/05/051211/

Joseph Raben, Robert Darnton (2010): Digital Democratic Vista. In: New York Review of Books, 25.11.2010 / http://www.nybooks.com/articles/archives/2010/dec/23/digital-democratic-vistas/

Jeff John Roberts (2013) America’s Digital Library launches — without a peep from Google. In: PaidContent.org. 19.04.2013 http://paidcontent.org/2013/04/19/americas-digital-library-launches-without-a-peep-from-google/

Barney Warf (2013) Contemporary Digital Divides in the United States. In:

Tijdschrift voor economische en sociale geografie. Volume 104, Ausgabe 1, S. 1–17, February 2013. DOI: 10.1111/j.1467-9663.2012.00720.x

It’s the frei<tag> 2013 Countdown (24): Blick zurück nach vorn. 1993 als Schlüsseljahr der Digitalkultur.

Posted in LIBREAS.Feuilleton by Ben on 26. Februar 2013

von Ben Kaden

„We were on tour and this guy came backstage and showed us the Internet. We were very impressed.” – Mike D., ca. 1993

Im April 1992 erschien das Album Check your head der Beastie Boys. Es dauerte wie immer eine Weile, bis jemand aus unserer kleinstädtischen Mitte in die Großstadt fuhr, die CD besorgte und wir anderen uns, wie üblich, Kassettenkopien für den Walkman erstellten. Wie es sich für Berufsmusiker gehört, tourten die Jungs aus New York im Anschluss. Aber natürlich nicht in unserer Nähe. Uns blieb nur, ausdauernd MTV in der Hoffnung zu schauen, dass sich zwischen den 4 Non Blondes, Soul Asylum und Ugly Kid Joe eines ihrer Videos zeigte. Irgendwo auf ihrer Bühnenrundreise begegneten die Beastie Boys anscheinend einem Nerd der ersten Stunden und sahen die Zukunft. Deshalb kann nun, um die 20 Jahre später, das New York Magazine Mike D.s Erinnerung in einer für uns Zeitzeugen erstaunlichen Collage unter der Überschrift Did 1993 Change Everything? abdrucken.

Das Jahr war tatsächlich eigenartig irgendwo zwischen Menace II Society, Björks Debut, dem Friedensnobelpreis für Nelson Mandela und Willem de Klerk (und damit dem Ende der Apartheid), Bill Clinton, der Entfesselung des Neoliberalismus (beispielsweise privatisierten die kurzsichtigen Briten ihre Eisenbahn), dem Vertrag von Maastricht, der Auflösung von a-ha und dem Tod von Kobo Abe, dem von Hans Jonas und dem von Pablo Escobar eingehängt. Natürlich bekommt man diese Fakten auch ohne Internet noch zusammen und weiß gar nicht, ob man sich darüber freuen soll, dass man so live dabei war, zu Siamese Dream mitträumte, zu Nuthin‘ but a „ G“ Thing mitbouncte und nicht wusste, dass man ein Jahr darauf von einer Downward Spiral noch ganz anders mitgerissen werden würde. (Und wie melancholisch stimmt es einen, wenn man beispielsweise realisiert, dass Isolda Dychauk, die das Gretchen in Alexandr Sokurovs Faust spielte, in diesem berühmten Jahr geboren wurde. Und wie erschütternd es ist, zu sehen, dass Justin Biebers Geburt damals sogar erst noch bevorstand.)

Es war das Jahr, in dem America Online (für Macintosh und Windows) kam, damit Amerika online geht. Allerdings wusste man in der ostdeutschen Provinz 1993 und noch ein wenig länger nur vom Hörensagen, was dieses Internet eigentlich sei. Dass jedoch alles, was in den USA geschieht, erst mit einem 10-Jährigen Nachhall Deutschland erreicht, stimmte selbstverständlich überhaupt nicht mehr. (Falls es überhaupt je zutreffend war.) Irgendwann hatte schließlich jemand ein Modem und eine Linkliste der Bundesprüfstelle für jugendgefährdende Schriften, die es ermöglichte, zielsicher von ganz unten in die schon früh vorhandene Vielfalt der Netzkultur einzusteigen.

Netscape also und nicht Mosaic hieß das erste (Keller)Fenster zur virtuellen (Unter)Welt. Abgerechnet wurde die Einwahl zum Minutentarif und daher assoziierte niemand das Web mit dem Schlag- und Dreschwort der Kostenloskultur. Es war eher ein Rummelplatzerlebnis, bei dem man Eintritt zahlt, um danach durch ein Verrücktes Haus zu stolpern.

Das digitale Himmelreich zeigte sich allerdings auch bald und der erste Zugriff auf Amazon.com wirkte tatsächlich als Zäsur. Denn die dort abfragbare Vielfalt an (potentiell und nur in Amerika) verfügbaren Büchern über alle denkbaren und unvorstellbaren Themen erschien uns jedenfalls schlicht als Wunder. Die uns bekannten Versandhäuser führten biedere Namen, wie sie auf Klingelschildern in der Nachbarschaft hätten stehen können und zeigten in ihren Katalogen eine Ausstattungspalette für kleinbürgerliche Vorstadtexistenzen, die von Filmen auf VHS-Videokassetten (eine Doppelseite) über Fahrräder und Heimtrainer bis zu Massagestäben reichte, die man sich anscheinend an die Wange oder Schulter halten musste. Aber unserer Sehnsucht nach Welt boten diese aufgeräumten und hausbackenen Konsumquellen keinen adäquaten Horizont. Die verästelten Flussläufe der Nischenangebote des amerikanischen Buchmarkts dagegen erlebten wir in gewisser Weise als eine mittelschwere Erweckung und neue Welt.

Amazon war zu diesem Zeitpunkt, also etwa 1995, fast noch eine Garagenunternehmung, ein Broker, der eine Datenbank zwischen Buchkunden und externen Auslieferern schaltete. Im Juni 1996 verkaufte Amazon.com dann 5000 Bücher – am Tag. (vgl. dazu auch Lyster, 2012) Vermutlich ahnte Jeff Bezos spätestens zu diesem Zeitpunkt ziemlich sicher, dass er auf das richtige Pferd gesetzt hatte und es nur auf den langen Atem (und auf das Long Tail) ankam. Ganz ohne Wagemut ging es sicher nicht, denn wohin und wie das zarte Pflänzchen WWW tatsächlich wuchern sollte, war zu diesem Zeitpunkt nicht vollends absehbar. Allerdings konnte man den 20sten Jahrestag einiger Basisinnovationen für die neue Mediennutzungskultur verbuchen: Der Strichcode nach dem UPC-Standard wurde in den USA 1973 eingeführt, machte Gegenstände maschinenidentifizierbar und somit elektronisch gestützt prozessierbar , das ARPANET überwand dank Satellitentechnik im selben Jahr den Atlantik und wurde entsprechend global und mit den Videospielen wurde eine erste Praxis der direkten Bildschirminteraktion populär, ca. 13 pralle Jahre bevor Elizabeth Grant aka Lana del Rey geboren wurde, die uns 2011 zeigte, wie man mit der Referenz auf Video Games furchtbare Nostalgiegefühle auslösen kann. Außerdem war ab 1993 die Entfaltung des E-Commerce unter der neuen Regierung Clinton/Gore in den USA mehr als gewünscht.

Dass das Web ziemlich schnell den Nimbus einer hippen Zukunftssache erhielt, ist jedoch einer Printpublikation zu verdanken, die am 02. Januar 1993 on-kiosk ging. Die Metapher „Rolling Stone of Technology“ bedeutete für Wired einen Auftakt mit Ritterschlag, denn in diesen Jahren stand das Rolling Stone Magazine auf Papier für das, was MTV auf dem Fernsehschirm galt: Das Zentralorgan der Populärkultur. Noch hipper ging es nur im Untergrund und da es noch 14 Jahren bis zur Erfindung von Issuu und Tumblr dauern sollte, fehlte den Zines selbst bei liebevollster Gestaltung die Politur, die als Brücke zu den Massen taugte. Mit Wired wurde nicht nur das Web cool sondern zugleich ein Lebensstil, der auf Digitaltechnologie und die darüber vermittelte Kommunikation (bzw. Selbstentfaltung) setzte. (Grob zwanzig Jahre zuvor (in den frühen Jahren des Barcodes) gab es übrigens mindestens drei Maßstäbe setzende Kabelagen: den Bird on a Wire (Leonhard Cohen), den Man on Wire (Philippe Petit) und natürlich die World on a Wire (von Rainer Werner Fassbinder), wobei nur der dritte Film wirklich ins Wired-Schema passt.)

frei<tag> mit Praline

Die Suche nach einer unbedingt vorhanden geglaubten Wired-Ausgabe im privaten Zeitschriftenarchiv wirbelte zwar Staub auf, erwies sich insgesamt leider als erfolglos. (Alternativ fand sich zwar die generell hochinteressante Ausgabe des Playboy No. October 1969, die mit Jean Bell die erste dunkelhäutige Frau als Centerfold dieser Zeitschrift präsentiert, aber auch ansonsten wenig bis gar nichts mit Bezug zur elektronischen Medienkultur enthält – Anzeigen für zeitgenössische Unterhaltungselektronik wie den 8-Track-Stereo-Track-Recorder Panasonic Symphony 8 – „This is our answer to the scratchy phonograph record.“ – ausgenommen, wobei im Ergebnis die kratzige Schallplatte auch diese hochgespulte Ansage gelassen überpringen konnte). Daher wird die frei<tag>13-Karte hier anders inszeniert gezeigt. Nämlich vor einem soliden, goldbetupften Stückchen Pâtisserie-Kunst im nicht mehr so ganz angesagten Prenzlauer Berg. Man muss ja auch nicht immer mit dem Zeitgeist gehen. Und wie beruhigend ist doch die Undigitalisierbarkeit einer Canache.

Wer nun heute in die erste Ausgabe von Wired vermutlich eher hineinklickt als blättert, findet einen hochinteressanten Text mit dem Titel Libraries Without Walls for Books Without Pages: Electronic Libraries and the Information Economy vom für Europa zuständigen Wired-Redakteur John Browning. Aus 20 Jahren Distanz haben wir gut reden, könnte man meinen. Aber eigentlich haben wir nicht. Denn erstaunlicherweise sind sehr viele der damals formulierten Aussagen zur elektronisch und noch nicht digital genannten transformierten Bibliothek verblüffend aktuell:

Das Einstiegsthema des Artikels waren Digitalisierung und E-Books:

„Why not, the logic goes, cut out unnecessary page-turning and work directly with the electronic version of the document?”

konnte man lesen und außerdem erfahren, dass die BnF in einem Digitalisierungsprojekt (“perhaps the most ambitious”) einen Kanon von 100.000 Büchern binarisieren wollte.

E-Zeitschriften allerdings waren noch nicht unbedingt Online – sondern mehr Print-on-Demand-Journals:

„Instead of receiving a printed journal from publishers, for example, it [the British Library] now receives a CD-ROM containing digitized images of the articles from which it prints out a new hard copy each time one is requested.”

Dagegen wurde die Konkurrenz durch Konvergenz zu diesem Zeitpunkt absehbar:

„If someday in the future anybody can get an electronic copy of any book from a library free of charge, why should anyone ever set foot in a bookstore again? But if the books on a library’s electronic shelves are not free, what is left of the distinction between library, printer and bookstore – and what is left of the library’s traditional raison d’etre: namely, making information available to those who cannot afford to buy it?”

Eine schwierige Sachlage, die bis heute unter den Sigeln § 52a und § 52b auch die deutsche Gerichtsbarkeit in urheberrechtliche Auslegungsbredouillen bringt.

Wobei sich der Autor zu diesem Zeitpunkt die Elektronischen Leseplätze weitaus progressiver vorstellte, als sie das deutsche Urheberrechtsgesetz derzeit offensichtlich ermöglicht:

„The workstations will provide a network link to the card catalogs, note- taking and bibliography software, and, most ambitious, a sort of electronic notebook customized for work in electronic libraries. The workstations are still in the early prototype stage, but the plan is to allow a researcher to scan pages of text directly into a personal database instead of photocopying them for hard files. Scanned text can then be annotated, indexed, and searched by a variety of means.”

Indes füllen mittlerweile Dienste wie Scribd (Selbstbeschreibung: „a digital documents library“) die Lücke, die die Bibliotheken oft lassen müssen. Dennoch (bzw. deshalb) bleibt zeitkonstant die Aussage aktuell:

„One of the more vexing questions concerns copyright.”

John Browning wusste ebenfalls bereits von der Zeitschriftenkrise zu berichten:

„Problem is, libraries can no longer afford to have all the books and journals they feel they should have on their shelves. Over the past few decades, the number and cost of academic journals has skyrocketed.”

und sah gleich eine Lösung voraus, die freilich auch 20 Jahre später noch nicht allzuweit etabliert ist, nämlich

„to find new ways that enable researchers to get and to pay for only those journal articles that are needed. Here’s where new technology can help.“

Insgesamt enthält der für ein Rolling-Stone-Pendant eher nüchterne Text nur wenige Stellen, die aus der Zwei-Dekaden-Distanz erwartungsgemäß etwas drollig wirken. Eine davon betrifft die technologische Vorreiterposition der Grande Nation:

„For better or worse, that is how the country got the Concorde, the Airbus, its nuclear power program, Minitel – and now the electronic book.”

Zu E-Books stellte der Guardian im vergangenen Sommer immer noch fest:

„When it comes to reading books, the French are determinedly bucking the digital trend and sticking to paperbacks.”

Die Concorde und Minitel sind dagegen musealisiert, das Atomprogramm ist als Zukunftstechnologie eher ausgeglüht und wird durch die großen Urgewalten Sonne, Wind und Wasser bedroht und der Airbus besitzt in der Öffentlichkeit in etwa so viel Sex Appeal wie ein Citroën. Er soll heute vor allem störungsfrei befördern.

Ähnlich, aber erfahrungsgemäß nicht gänzlich überholt, ist auch die Aussage:

„The electronic image of a book is still a few gigabytes worth of information, and a gigabyte is a helluva lot of data – several times more than what fits into most of today’s computers or flows conveniently through computer networks.”

Es ist bemerkenswert, dass zwar elektronische Aufsätze durchaus auch als digitaler Text gedacht wurden, das Medium Buch jedoch in diesem Kontext beständig als Bilddigitalisat.

Andererseits war das Ausstiegsszenario des Aufsatzes das der Bibliothek als publizierendem Akteur – ein Thema, welches im Zusammenhang mit der Datenpublikation wieder richtig brisant werden könnte. John Browning  führte diese sich abzeichnende Rolle zur Formulierung eines Dilemmas:

„If libraries do not charge for electronic books, not only can they not reap rewards commensurate with their own increasing importance, but libraries can also put publishers out of business with free competition. If libraries do charge, that will disenfranchise people from information – a horrible thing. There is no obvious compromise.“

Zwei Absätze vorher notierte er nicht unpassend eine denkbar zeitlose Einsicht, die man durchaus – in vielleicht etwas poetischeren Worten – auch über ein Bibliotheksportal in den Sandstein meißeln könnte:

„None of these changes will happen overnight.”

Einige der prognostizierten Veränderungen stehen nämlich auch 20 Jahre später noch ziemlich aus.

Was gleichwohl zunehmend bemerkbar wird und woran die von Wired mitforcierte kulturelle Transformation der Gesellschaft nicht ganz unschuldig ist, ist die wachsende Unvorstellbarkeit der prädigitalen Welt. Carl Swanson rapportiert in seinem Beitrag zum Jahr 1993 im New York Magazine eine Anekdote aus der Familie des Wired-Mitbegründers Kevin Kelly. Dieser berichtete, so Swanson:

„My youngest son is 16, and when he was 10 or 11, he asked, ‘How did you get on the Internet without computers?‘ He kind of understood how computers might not exist […] but he couldn’t imagine the Internet not being there.”

Und Swanson ergänzt:

„It’s not easy for me, either, an I was there, calling the reference desk at the library.”

Die Zeit vor der Allgegenwart des Digitalen lässt sich 2013 (in der westlichen Lebenswelt) fast nur noch als Geschichte vermitteln. Wohin die Wege führen in 20 Jahren geführt haben werden, scheint derzeit ungewisser, als – in der Rückschau – jede Vorhersage aus dem Jahr 1993. Mutige Science-Fiction-Szenarien abseits finsterer Dystopien gibt es kaum. Offensichtlich ist sicher der Trend von wired zu wireless. Offensichtlich ist ebenfalls, dass ein Quantensprung ins Digitale (oder im Digitalen), wie er 1993+ erfolgte, heute nicht mehr mit einer Printpublikation begleitet werden wird. Nicht mal mit einer, die Wireless heißt. Die Avantgarde-Zeitschriftengründungen der letzten Jahre berühren vielmehr eine Art kritische Ausrichtung bis Gegenkultur zur Digitalität. Möglicherweise ist damit auch ein Trend für die nähere Zukunft bestimmt: Postbinäre und neoanaloge Kommunikationsformen. Im Jahr 2033 wird sicher jemand mehr darüber schreiben können. Aber wie und wo und welcher Form vermag ich nicht vorherzusagen. Dabei wird es schon spannend sein, zu sehen, wie er sich an die Medienkultur 2013 erinnert.

Quellen

John Browning (1993) Libraries Without Walls for Books Without Pages. Electronic Libraries and the Information Economy. In: Wired 1.01. Online: www.wired.com/wired/archive/1.01/libraries_pr.html

Angelique Chrisafis (2012) Why France is shunning the ebook. In: Guardian / Shortcuts Blog, 24.06.2012. Online: www.guardian.co.uk/books/shortcuts/2012/jun/24/why-is-france-shunning-ebooks

Clare Lyster (2012) The Logistical Figure. Apathy, individualism, power. In: Cabinet Magazine. Issue 47 (Fall 2012) S. 56-62

Carl Swanson (2013) Are we still living in 1993? In: New York Magazine. Februar 11, 2013, S. 28-37

Ein Leserbrief zu Sibel Ulucans Begriffsbestimmtung der „Hybride Bibliothek“ (Ausgabe 21)

Posted in LIBREAS.Leserbriefe by Ben on 22. Januar 2013

Man muss es schon zugeben: Die Anzahl der Leserbriefe, die die LIBREAS-Redaktion zu den Ausgaben erreichen, hält sich bisher in einem sehr überschaubaren Rahmen. Was eigentlich schade ist. Denn wie einige Threads in der Inetbib-Liste, der  populärsten deutschsprachigen Mailing-Liste unseres Feldes, zeigen, gibt es nach wie vor die Bereitschaft und das Bedürfnis, sich in einer Form auszutauschen, die in fachlichen bzw. Gelehrtenbriefwechseln ihren Ursprung hat und heute freilich, jedenfalls soweit es öffentlich wahrnehmbar ist, per E-Mail stattfindet. Für Sammler von Autografen ist das eine bedauerliche Entwicklung. Für den Diskurs kann es sehr fruchtbar sein. LIBREAS als Diskursmedium freut sich natürlich sehr über E-Mails und Leserbriefe und sofern sie uns für den Diskurs relevant genug erscheinen, publizieren wie diese sehr gern und zeitnah. Was im Gegenzug bedeutet, dass Einsender von Leserbriefen und -E-Mails immer damit rechnen müssen, dass ihre Position von uns veröffentlicht wird. Als digitale Publikation besteht für uns keine Notwendigkeit zum Kürzen. Wenn wir redaktionellen Bearbeitungsbedarf sehen, halten wir mit den Einsendenden Rücksprache. Tipp- und Flüchtigkeitsfehler korrigieren wir stillschweigend.

Die publizierten Leserbriefe und -E-Mails geben die Meinung der jeweiligen Autoren und nicht der Redaktion wieder.

Einsendungen bitte an:

redaktion@libreas.eu

bzw.

LIBREAS / Maxi Kindling
Humboldt-Universität zu Berlin
Institut für Bibliotheks- und Informationswissenschaft
Unter den Linden 6
D-10099 Berlin
Deutschland

(bk / red.)

Leserbrief von Walther Umstätter vom 18.01.2013 zu Sibel Ulucan (2012): Hybride Bibliothek – eine Begriffsneubestimmung. In: LIBREAS.Library Ideas, Jg. 8, H. 2 (21).

Der Beitrag „Hybride Bibliothek – eine Begriffsneubestimmung“ von Sibel Ulucan macht deutlich, dass es um die letzte Jahrhundertwende keine gute Idee war, den Projekten der USA zur Digital Library, in Großbritannien
bzw. Europa als Pendant die Hybrid Library als Ort analoger und digitaler Medien, gegenüber zu stellen. Das eigentliche Ziel der Digitalisierung wurde nicht mehr erkennbar. Wenn die Autorin nun, einer im Bibliothekswesen seit mehr als einem Jahrzehnt gebräuchlichen Bezeichnung, eine neue Bedeutung, mit noch größeren Problemen der begrifflichen Unschärfe, geben möchte, so ist das eher verwirrend als erhellend. Schon in der Biologie wird das Wort hybrid sehr viel präziser verwendet, als es Ulucan tut. Die Feststellung „Denn die Vermischung ist das Prinzip des Lebens.“ klingt zwar einleuchtend, ist aber in dieser Einfachheit irreführend. Denn in der Biologie gibt es lang diskutierte Definitionen von Art und Rasse, die z.B. bei Reinrassigkeit bzw. Heterosis nicht immer als beliebig hybridisierbar zu bezeichnen sind, und auch „Crossover“ ist nicht nur eine einfache Kreuzung, sondern ein spezieller Fall bei Chromosomenbrüchen mit entsprechenden Konsequenzen. Also etwas, was es in Bibliotheken oder Kulturen so nicht geben kann.

Wenn alle Bibliotheken als hybrid definiert werden, weil sie Dokumente verschiedener Art oder Kulturen sammeln, wird das Wort hybrid ohnehin inhaltsleer, weil es ja keinen Unterschied zwischen Bibliothek und hybrider Bibliothek gibt.

Da ich ein Verfechter des Post Peer Reviewing bin, und es durchaus begrüßenswert finde, wenn Libreas nicht den Versuch macht Beiträge schon vor der Publikation abzulehnen, halte ich es zwar für gerechtfertigt, die Ansichten von Frau Ulucan ins Netz zu stellen, sie aber völlig unkommentiert zu lassen, dürfte es Newcomern unmöglich machen, eine ausreichend zuverlässige Begriffsbestimmung der Fachliteratur zu entnehmen.

Überlegungen zum Verhältnis von Mensch und Technik in Wissenschaftsinfrastrukturprojekten.

Posted in LIBREAS.Referate by Ben on 7. Januar 2013

zu:

Sonja Palfner, Ulla Tschida: Grid: Technologie und soziale Praxis. In: Technikfolgenabschätzung. Theorie und Praxis. 21 / Heft 2. November 2012. S. 50-53

Unter den Projekten zur Digitalisierung der Wissenschaftspraxis in der Bundesrepublik der 2000er Jahre ragt die D-GRID-Initiative markant hervor. Das begründet sich einerseits aus ihrem Anspruch heraus, Grid-Computing in enger Kooperation mit den Fachcommunities in der Fläche zu etablieren. Und andererseits aufgrund des erheblichen Fördervolumens, das sich freilich nach dem Anspruch richtete. Die enge Verzahnung zwischen informatischer Innovation und fachwissenschaftlichen Ansprüchen prädestinierte die Initiative für eine wissenschaftssoziologische Begleitforschung. Technologie ist unzweifelhaft grundsätzlich vor allem soziales Geschehen. Auch die Entscheidung des BMBF zur massiven Förderung genau dieses Ansatzes ist Ergebnis sozialer Interaktionen. Aktuell bewegen sich diese um die Frage, wie, wo und in welcher Form die entwickelten Infrastrukturelemente und forschungsbegleitenden Werkzeuge mitsamt der für sie notwendigen Weiterentwicklung verstetigt werden können? Die technischen Möglichkeiten selbst wirken gewiss dispositiv auf das Machbare. Was aber tatsächlich umgesetzt wird, resultiert aus einer komplexen Wechselwirkung diverser Faktoren – von Budgets über die Motivation, Interessen, Konkurrenzkonstellationen und Kompetenzen von Einzelakteuren bis hin zu rechtlichen Gesichtspunkten.

Sonja Palfner und Ulla Tschida, die die D-Grid-Initiative aus einer techniksoziologischen Perspektive beforschen, rücken in ihrem kurzen Beitrag für die Zeitschrift Technikfolgenabschätzung die Frage nach dem Verhältnis zwischen den Fachgemeinschaften und den Entwicklern ins Zentrum, eine Frage also, die sich zwangsläufig auch der Bibliothekswissenschaft stellt. Denn einerseits sind wissenschaftliche Bibliotheken grundsätzlich ebenfalls Dienstleister für die Wissenschaftspraxis. Und andererseits sind Digitale Bibliotheken durch und durch informatische Ensemble. Die Entwicklung Digitaler Bibliotheksdienstleistungen, die sinnvollerweise konsequent mit dem Ziel der tatsächlichen Inanspruchnahme durch die Bibliotheksnutzer erfolgen muss, bewegt sich folglich in einem Spannungsverhältnis ähnlich dem, das die Autorinnen anhand von drei Konstellationstypen aufschlüsseln.

Beim ersten Typ dominiert die Fachwissenschaft die Informatik. Die Entwickler sollen passgenaue Dienste nach den Bedürfnissen und Ansprüchen der Wissenschaftler entwickeln. Das Problem dabei liegt jedoch in der Dynamik exakt dieser Ansprüche. Die Autorinnen betonen, dass „ein etablierter Service […] durch die Forschung selbst quasi ständig aus der bekannten Routine gerissen werden [kann].“ (S. 53)

Geht man von einer idealtypischen Wissenschaft, also einem permanenten Erkenntnisfortschritt mit sich verschiebenden Forschungshorizonten aus, dann ist das nicht einmal ein Kann-Zustand, sondern elementar: Es gibt in der Wissenschaft bestenfalls zeitweilige Stabilisierungen und Konsolidierungen in Routinen, die aber naturgemäß je nach Überarbeitung der Thesen, Forschungsfragen und Erkenntniszielen eher früher als später selbst infrage gestellt werden. Dauerhafte Routinedienste für die Wissenschaft sind hierbei bestenfalls im Sinne von Basiskonzepten und vor allem von Standards für Begleit- und Nachweisdienste (Forschungsdokumentation, Datenarchivierung), also metawissenschaftlich, denkbar. Je konkreter die Forschungspraxis und das dazu entwickelte Werkzeug (bzw. je näher an der so genannten Forschungsfront), desto zwingender wird auch eine Weiter- oder gar Neuentwicklung dazugehörender Anwendungen werden.

Was bleibt, sind Lessons-Learned- und Best-Practice-Erkenntnisse, die den jeweiligen Anpassungen zugrunde liegen. Bei einer engen Verzahnung von Bibliothek bzw. Dokumentation mit Forschungsprojekten wäre es beispielsweise ein Embedded Librarian, der mit einem diesbezüglichen Erfahrungswissen hinzugezogen wird und eine Grundsolidität der für ein Projekt notwendigen technischen Begleitdienste garantiert. Und der vielleicht entscheidet, ob auf etablierte Anwendungen zurückgegriffen werden kann/sollte oder Neu- bzw. Weiterentwicklungen unumgänglich sind. Denn ohne Zweifel gibt es trotz des oben Gesagten weite Bereiche der Wissenschaftspraxis, die methodische Nachnutzungen auch aus (wissenschafts-)ökonomischer Sicht als pragmatische Lösung zweckmäßig erscheinen lassen. Wer mit Projektwissenschaft vertraut ist, weiß, dass ein kompromissloses Streben nach neuer Erkenntnis in der Praxis eher die Ausnahme als die Wissenschaftsregel darstellt. Offen bleibt dennoch auch dann, ob bzw. wann man die Forschungsfrage den zur Verfügung stehenden Werkzeuge anpasst oder Werkzeuge zur Forschungsfrage entwickelt. Pauschal ist sie in einer hochdifferenzierten Wissenschaftswelt nicht zu beantworten.

Die zweite Konstellation bezeichnen die Autorinnen als „Service in the making“ und meinen vermutlich einen Ansatz im Einklang mit der beschriebenen Entwicklung: Eine Softwarelösung wird konkret für ein Problem oder einen Forschungsansatz entwickelt. Entwicklerkapazitäten wären unmittelbar und auf Augenhöhe mit den fachwissenschaftlichen Kapazitäten in ein Projekt einzubinden.

Für Bibliotheken könnte man analog eine permanente Interaktion mit den Bibliotheksnutzern parallel stellen. Hier wäre also direkt eine Bibliothekswissenschaft angesprochen, die die Praxen und Entwicklungen in der Wissenschaftskommunikation systematisch analysiert und zu Hinweisen und Leitlinien für die Praxen und Entwicklungen im Bibliothekswesen weiterverarbeitet. Wenn der Bibliothekswissenschaft in diesem Zusammenhang eine Aufgabe zufällt, dann die, den Akteuren der wissenschaftlichen Literatur- bzw. Informationsversorgung – vorrangig aber eben nicht nur Bibliotheken – Orientierungswissen zur Verfügung zu stellen.

Der dritte Konstellationstyp invertiert schließlich das Verhältnis des ersten. Die fachwissenschaftliche Herausforderung dient hier nur als Aufhänger für die Produkt- oder Serviceentwicklung. Die Autorinnen sprechen von der „Materialisierung des informatischen Erkenntnisgewinns.“ (S. 53) Löst man dies von der Wissenschaftspraxis ab, findet man sich schnell im Bereich kommerzieller Software-Entwicklung, zum Beispiel bei Social-Media-Anbietern, die Erkenntnisse der Sozialen Netzwerk-Analyse benutzen, um die Algorithmen hinter ihren Plattformen zu optimieren.

In der Realität finden sich die Konstellationen selten trennscharf ausgeprägt. Vielmehr dürften sie sich selbst dynamisch entwickeln. Persönliche Motivationen dürften ebenso wie Ressourcenlagen und bestimmt auch Opportunitätsüberlegungen eine wichtige Rolle bei der Ausprägung der Schwerpunkte in diesem Wechselspiel zwischen Fachwissenschaftlern und Entwicklern einnehmen. Zumal auf einer Individualebene in der Praxis häufig Doppelrollen übernommen werden. Nicht selten dominieren Akteure, die sowohl einen fachwissenschaftlichen wie auch einen informatischen Hintergrund besitzen. Kombinationsstudiengänge fördern korrespondierend solch interdisziplinäre Grundausrichtungen, wobei sich die wissenschaftssoziologische Überlegung anschließt, inwieweit sich hierdurch bestimmt wissenschaftliche Eliten gezielt etablieren (können). Angesichts der wahrscheinlichen Intensivierung von Verfahren aus den so genannten Digitalen Geisteswissenschaften (bzw. Digital Humanities) ist so beispielsweise die Kombination einer geisteswissenschaftlichen Abschlusses mit einem computerwissenschaftlichen berufsstrategisch sicher eine bessere Wahl, als sich allein beispielsweise auf die Literaturwissenschaft zu konzentrieren. Interdisziplinarität meint in der heutigen Wissenschaftslandschaft möglicherweise weniger den Spagat zwischen zwei Disziplinen und mehr den zwischen einer fachwissenschaftlichen (theoretischen) und einer wissenschaftspraktischen Qualifikation.

Welche der drei Konstellationen sich tatsächlich wie entfaltet, lässt sich naturgemäß durch die Begleitforschung erst im Nachgang eines Projektes abschließend ermitteln. Sie kann aber fraglos, analog u. a. zur Diskursanalyse, die bestimmte Trends in sich konkret vollziehenden Diskursen zu erkennen und zu konstatieren und so auf den Diskurs Einfluss zu nehmen vermag, schon während der Durchführung eines Projektes, feststellen, wie sich Verteilungen entwickeln (Dominanz der Fachwissenschaft oder Dominanz der Informatik) und auf Abweichungen von einer angestrebten Ideallinie in diesem Verhältnis mit dem Ziel einer Korrektur hinweisen. Dies setzt selbstverständlich voraus, dass entsprechende Schwerpunkte und auch Parameter zwischen den Beteiligten ausgehandelt wurden. Beziehungsweise mitunter sogar, dass zunächst einmal ein Verständnis für die soziologische Grundierung dieses Verhältnisses zwischen Wissenschaft und Service für die Wissenschaft besteht. Also eine Sensibilität für die soziale Bedingtheit der Beziehung zwischen dem forschenden Menschen und den technischen / technologischen Dispositiven (Infrastrukturen, Bibliotheksdienste, Software) seiner Forschung sowie denen, die für die Bereitstellung und Entwicklung dieser Dispositive zuständig sind (Rechenzentren, Bibliotheken, Entwickler).

( Ben Kaden / Berlin / 07.01.2013 )

(Anmerkung: Ben Kaden ist aktuell wissenschaftlicher Mitarbeiter im TextGrid-Projekt.)

Daten und Wolken. Über die Verortung von Rechenzentren.

Posted in LIBREAS.Referate by Ben on 8. Dezember 2012

Anmerkungen zu:

Susan Alpsancar: Cloud. In: Marquardt, Nadine; Schreiber, Verena (Hg.) (2012): Ortsregister. Ein Glossar zu Räumen der Gegenwart. 1. Aufl. Bielefeld: Transcript. S. 64-69

Sonja Palfner, Gabriele Gramelsberger: Rechenzentrum. In: Marquardt, Nadine; Schreiber, Verena (Hg.) (2012): Ortsregister. Ein Glossar zu Räumen der Gegenwart. 1. Aufl. Bielefeld: Transcript. S. 231-236

von Ben Kaden

Dass das Wort Bibliothek mit einem Ort assoziiert wird, ist unstrittig – trotz aller Versuche, sie digital aufzulösen nicht zuletzt dank diverser Neubauten aber vermutlich auch generell. Für Rechenzentren gilt das nur begrenzt. Als konkreter Ort ist die Bezeichnung näher an bestimmten Aufbruchsbildern der Wissenschaft irgendwo zwischen den 1950er und den 1980er Jahren als an gegenwärtiger Wahrnehmung und angesichts der eminenten Bedeutung dieser Einrichtung scheint die Rechenzentrumsforschung z.B. als Teil der Techniksoziologie eher wenig präsent.

Je mehr die Rechner Alltagswerkzeuge wurden, desto unspektakulärer wurde das Rechenzentrum als Ort, zumal die aufgestellte Hardware in der direkten Betrachtung wenig Fläche für emotionale Bezüge bietet. Dann doch lieber die Cloud, die, wie Susan Alpsancar schreibt, „mit dem Ungreifbaren gleichzusetzen“ ist, aber metaphorisch gerade deshalb einen ganz anderen Kosmos entfaltet. Das Cloud-Computing, auf das wir über die Displays der gewichtsoptimierten Endgeräte zugreifen, hob das Rechnen scheinbar aus dem wuchtigen Rechenboxen in eine schwerkraftlose Wolkenwelt. Von einem „neue[n] Hype unter Computervisionären“ zu sprechen ist im Jahr 2012 schon fast überholt. Dennoch lohnt der Beitrag Susan Alpsancars im Sammelband „Ortsregister“ als grundlegende Annäherung, denn dass „[b]eim Cloud-Computing […] kommerzielle Anbieter die IT-Kapazitäten [bündeln und monopolisieren]“ ist ein zweifellos beachtenswerter Nebeneffekt. Und dies sollte allen, die ihr expliziertes Leben in die Cloud schieben, bewusst sein.

Strukturell hat die Cloud mit dem aus der datenintensiven Forschung stammenden Grid-Computing das Prinzip der verteilten Verarbeitung von Prozessen gemeinsam. Zudem lagert man auch die eigenen Datenbestände weitgehend aus, so dass das Tablet oder das Smartphone mehr oder weniger zu Varianten transportabler Terminals werden. Susan Alpsancar sieht diese Praxis als doppelt nicht-örtlich: Wir legen die Daten in einem für uns räumlich unbestimmbaren „Irgendwo“ ab, um sie von einem ebenfalls unbestimmten „Überall“ abrufen zu können. Und mehr noch: Je stärker wir Soziale Netzwerke wie Facebook nutzen, um unsere Identität abzubilden, desto intensiver verlagern wir auch unsere sozialen Beziehungen in diese Strukturen. Diese entwickeln sich demnach mehr oder weniger zu einem Hybridphänomen aus virtueller Identitätskartei und digital auflösbarem Kommunikationsort werden. Ganz risikolos ist die soziale Schwerelosigkeit und die unserer Daten nicht. Die Anker (oder auch Fußketten) sind in der Abhängigkeit von den konkreten Anbietern zu finden, die im Zweifel, so ist jedenfalls zu befürchten, ihr Geschäftsmodell über die Bedürfnisse der einzelnen stellen. Es sei denn, rechtliche Rahmenbedingungen setzen hier deutliche Grenzen.

Die werden bisweilen wieder ganz klassisch vom geographischen Standort des jeweiligen Servers bestimmt. Der zweite Fall, an dem uns die nach wie vor gegebene Tatsächlichkeit des konkreten Speicherortes bewusst wird, ist der Ausfall. Susan Alpsancar bemerkt, „dass die Frage nach dem »wo« der Daten nur dann relevant wird, wenn die gewöhnliche Nutzung unterbrochen wird. Wenn etwa eine technische Störung vorliegt oder Sie Ihre Daten in andere Aufenthaltswahrscheinlichkeitsräume bringen wollen.“

Doch selbst wenn sich dann die Grenzen der Cloud bzw. des Cloud-Computing herauskonturieren, weiß der Facebook-Nutzer vor seinem ratlosen Endgerät immer noch nicht, in welchem Teil der Erde sich seine Daten eventuell nach wie vor, aber für ihn unerreichbar gespeichert befinden.

Cover: Ortsregister.

Dass das Rechenzentrum als abstrakter und meist nicht wahrgenommener, in gewisser Weise nebulöser Ort erscheint, ist heute verständlich. Aber auch relativ neu. Denn als die Datenverarbeitung noch etwas war, was nahezu automatisch mit dem Schlagwort Big Science verknüpft war, wusste jeder der in diesen Kontext aktiv Eingeweihten, welches Gewicht auch hinsichtlich des Ressourcenaufwands in den entsprechenden Rechenzentren steckte. Man kann nun entgegnen, dass die Eingeweihten bzw. mit dem Betrieb solcher Einrichtung berufsmäßig betrauten das auch heute selbstverständlich sehr genau wissen. Und es den Nicht-Eingeweihten traditionell ziemlich gleich war, wo das nächste Rechenzentrum ist. Die Verschiebung liegt nun darin, dass heute auch die meisten Nicht-Eingeweihten zutiefst von Rechenzentren abhängig sind, dies jedoch nur bedingt realisieren, wenn sie die Vorzüge der Cloud genießen, zu denen unbedingt auch gehört, dass man nichts über sie wissen muss und sie trotzdem benutzen kann.

Die Trennung der Geräte zur Datenspeicherung und -verarbeitung und zur Nutzung andererseits ist ein vergleichsweise junges Phänomen, das sich erst mit dem Internet als Medium der rückkoppelnden Datenübertragung wirklich massentauglich entfalten konnte. Dadurch aber, dass die nach wie vor vorhandene und notwendige rechnende Großmaschinerie in der Wahrnehmung hinter den graphischen Nutzeroberflächen verschwindet, fehlt uns auch ein Gefühl für diese:

„Möglicherweise greift hier auch eine Profanisierung des Rechenzentrums als Dienstleistungseinrichtung und eine damit einhergehende Unsichtbarmachung von Arbeit in der Traditionslinie des »stummen Dienens«, ein Übersehen dieses Ortes.“

Jedenfalls nutzerseitig ist diese Einschätzung von Sonja Palfner und Gabriele Gramelsberger vollauf nachvollziehbar. So wie wir in der Regel nicht genau wissen, wie andere elementare Alltagsinfrastrukturen (Strom, Warmwasser) zu den jeweiligen Schnittstellen laufen und wie die transportierten Inhalte verarbeitet, aufbereitet und transportiert werden (Wasserwerk, Leitungssystem), so merken wie auch hier erst, dass es sie gibt, wenn sie nicht mehr funktionieren, also zum Beispiel der Gehsteig aufgegraben ist, um ein gebrochenes Rohr freizulegen. Oder, wenn wir plötzlich, warum auch immer, von der Nutzung ausgeschlossen werden und so irritiert wie folgenlos am Wasserhahn drehen.

Entsprechend ist das Rechenzentrum für die Autorinnen durchaus ein Ort, „der Bestehendes herausfordert“ und zwar einfach deshalb, weil wir schlichtweg abhängig von ihnen wurden und sie daher als Verwaltungsknoten unserer Kommunikationen auch Werkzeuge der Macht sind. Um dies zu verstehen, schlagen die Autorinnen eine „Archäologie des Rechenzentrums“ vor und wer hier Foucault als Stichwortgeber liest, liest richtig. Leider fordert der Charakter des Sammelbandes als Glossar eine Kürze ein, die zwar die Etappen der Entwicklung abbildbar macht, aber offensichtlich eine Tiefenanalyse über die Sensibilisierung qua Deskription für diese unvermeidliche Bindung hinaus ausschließt.

Die Nachzeichnung des Verlaufs der Beziehung zwischen Rechenzentrum und Wissenschaft ist dennoch interessant. Zunächst (1950er Jahre) entstanden in bestimmten disziplinären Kontexten für konkrete Anwendungen so genannte Rechenstellen. Diese hatten im Prinzip den Status eines Labors, waren also fest in die Wissenschaft eingebunden. Sukzessive wurden sie jedoch zu eigenständigen Größen, die generell EDV-Dienstleistungen für die sie betreibenden Einrichtungen zu erfüllen hatten. Diese Spezialisierung führte zu einer Entkopplung von der Wissenschaftspraxis:

„Labore, Werkstätten und Forschungsbibliotheken sind Räume des Forschens, die von Wissenschaftlern und ihren Gegenständen bewohnt werden. Rechenzentren sollten dies nicht sein.“

Während die Erkenntnisproduktion an anderen Orten stattfand, blieb den Rechenzentren die Organisation der entsprechenden Infrastruktur, was bis zur Beschaffung von EDV für die einzelnen Hochschulinstitute reichte und entsprechend einiges Konfliktpotential barg. Mit Grid und Cloud jedoch wandert wenigstens die datenintensive Wissenschaftspraxis wiederum in die Rechenzentren (ab). Deren Kapazitäten dienen nicht mehr nur der Organisation eines E-Mail- oder Publikationsservers. Vielmehr stellen sie nun die direkte Basis für die Bearbeitung bestimmter Forschungsfragen. Sie übernehmen in gewisser Weise die Rolle, die man sonst wissenschaftlichen Bibliotheken zuschreibt und werden der Ort, an dem sich weite Teile der Erkenntnisproduktion vollziehen und abbilden.

Je stärker die „epistemische Praxis“ der „berechnenden Vorhersage“ zur Zentralgröße der Wissenschaft expandiert, desto größer wird die Rolle der Rechentechnik. Mittlerweile, so führen die Autorinnen aus, werden teilweise Berechnungen dem Laborexperiment vorgeschaltet. Dieses beginnt erst dann, wenn ein entsprechendes Design digital erstellt und als funktionierend ausgerechnet wurde. Es geht also nicht nur um den Einsatz von Rechentechnik für statistische bzw. quantitative Analysen. Die Technologie prägt zusätzlich in bestimmten Bereichen unmittelbar Forschungsdesign und somit auch die epistemologische Praxis. Der Vorteil ist eine zielgenauere Forschung. Der Nachteil ist womöglich eine Verengung der Sichtfelds der Wissenschaft nach den Maßstäben dieser technischen Dispositive.

Man muss heute nicht mehr betonen, dass digitale Basiskompetenzen – in disziplinär unterschiedlicher Konkretisierung – zur Wissenschaft gehören. Für aktuell im Studium befindliche Generationen ist das erfahrungsgemäß selbstverständlich. Was jedoch in diesen Lehrplan integriert gehört, ist die Praxis der kritischen Reflexion über die Reichweite und Grenzen der Technologie. Also, raummetaphorisch gesprochen, die Befähigung, das Rechenzentrum und seine Leistungen in der Wissenschaftslandschaft zweckgemäß zu verorten.

(Berlin, 06.12.2012)