LIBREAS.Library Ideas

Die Bibliothek in der Literatur. Heute: In Hanns Cibulkas Swantow.

Posted in Die Bibliothek in der Literatur, LIBREAS.Feuilleton by Ben on 29. Januar 2017

Ein Sonntagstext von Ben Kaden (@bkaden)

I

Im März 1989 schrieb jemand mit dem schönen nordischen Namen Olaf mutmaßlich im Uckermärkischen Templin – es findet sich die Abkürzung Tpl neben dem Datum – die erste Zeile eines der bekanntesten Lieder der DDR-Popmusik in einem schmalen Band aus der Kleinen Edition des Mitteldeutschen Verlags. „Einmal wissen dieses bleibt für immer“, popularisiert durch „Am Fenster“ der Band City, formuliert von Hildegard Maria Rauchfuß, erstveröffentlicht 1970 in dem heute schwer vergriffenen Band „Versuch es mit der kleinen Liebe“. Die Lyrikerin war bekannt für singbare und Singeklub taugliche Texte und durfte einmal gemeinsam im Auftrag des Rat des Bezirkes Leipzig mit dem Komponisten Peter Herrmann eine Kantate zu Ehren Karl Liebknechts erarbeiten. So war kurz vor ihrem Band eine Schallplatte der heute trotz Stiftung weitgehend versunkenen Schlagercombo Fred Frohberg und das Ensemble 67 mit einigen Vertonungen ihrer Texte durch die Presswerke von Amiga gegangen. „Versuch es mit der kleinen Liebe“ war beim Henschelverlag in der Kabarettabteilung untergekommen und wurde von Erika Baarmann illustriert. Im Jahr nach Erscheinen intonierte der Pionierchor Böhlen bei den 13. Arbeiterfestspielen zur Freude der Berichterstatterin des Neuen Deutschland „ein Loblied gleichsam auf die arbeitenden Menschen unserer Republik und das kostbare, verpflichtende Vertrauen der Kinder zu ihnen.“ (vgl. Pehlivanian, 1971) Die Amiga-Single von „Am Fenster“ erschien 1977, ergänzt um das zutiefst nostalgische Lied „Mein alter Freund“ und ebenso die westdeutsche Pressung bei Telefunken. Die Produktion von City war, wie auch bei ein paar anderen Gruppen, die bei der gefeierten Vorstellung von „Am Fenster“ auf der „Rhythmus 77“ im Berliner Palast der Republik aufspielten (und auch solchen die fernblieben – die Puhdys tourten gerade durch Bulgarien, dem Heimatland von City-Mitglied und Am-Fenster-Arrangeur Georgi Gogow.) buchstäblich ein Exportschlager auch ins nichtsozialistische Ausland. In Griechenland beispielsweise erreichte die Schallplatte den Status einer goldenen. Das lag nicht unbedingt nur am Text, sondern mutmaßlich weitaus mehr an der überaus stimmigen Komposition, die sich unmittelbar einprägt und zwar so, dass sie sofort erklingt, wenn man die Worte liest, hier handschriftlich in ein Exemplar der vierten Auflage von Hanns Cibulkas Swantow eingewidmet, direkt unter die Mottos, die Cibulka von Goethe und Hugo von Hofmannsthal für sein Buch wählte, was Hildegard Maria Rauchfuß sicher gefreut hätte.

Hanns Cibulka - Swantow - aufgeschlagen, mit Widmung

Einmal wissen – dieses ist für immer!? Nun ja. Für den Aufenthalt des Buches im Regal der beschenkten Person galt dies offenbar nicht. Aber vielleicht wird das Bild ja alsbald vom Crawler des Internet-Archives eingesammelt. Und dann ist zumindest die Erinnerung an die Verknüpfung von Olaf und Swantow für eine kleine digitale Ewigkeit archiviert. Für immer ist das auch nicht. Aber immerhin.

(more…)

Wie Roland Reuß lesen? Eine Textkritik.

Posted in LIBREAS.Feuilleton by Ben on 14. Oktober 2015

von Ben Kaden (@bkaden)

Dass Roland Reuß für den Diskurs ein hochmodernes und leider auch hochermüdendes Stilmittel bevorzugt, nämlich die Polemik, ist allen bekannt, seit er auf seinen Durchbruchstext zum Thema Open Access (Roland Reuß: Eingecremtes Publizieren: Open Access als Enteignung. In: Frankfurter Allgemeine Zeitung, 11.02.2009, Nr. 35, S. N5) die Abschaffung der Idee des Individuums und vielleicht sogar des alten Europas durch die Wissenschaftspolitik voraussagte:

„Wer hier anfängt, blind und ohne Reflexion auf die Folgen rumzufuhrwerken, legt die Axt an die Wurzel dessen, was das alte Europa einmal „selbständiges Individuum“ genannt hat. Niemand kann das wollen.“

Gudrun Gersmann, zu dieser Zeit Vorsitzende des Unterausschusses »Elektronische Publikationen« der Deutschen Forschungsgemeinschaft, antwortete damals und zwar ausdrücklich nicht in ihrer DFG-Rolle sondern mit einem Erfahrungsbericht aus dem Deutschen Historischen Institut in Paris ebenfalls in der FAZ. Ihre Replik fiel bemerkenswert geduldig und gelassen aus. (Gudrun Gersmann: Wer hat Angst vor Open Access? In: Frankfurter Allgemeine Zeitung, 18.02.2009, Nr. 41, S. N5) Zum Ende hin lobte sie noch einmal das utopisch-emanzipative Potenzial von Open Access: (more…)

Perspektiven für die Digital Humanities (z.B. als Post-Snowden-Scholarship).

Posted in LIBREAS.Debatte, LIBREAS.Feuilleton by Ben on 30. Juni 2015

Eine Notiz von Ben Kaden (@bkaden)

I

In der letztwöchigen Ausgabe der New York Review of Books (LXII, 11) bespricht der Literaturkritiker Christopher Benfey Mark Greifs Buch The Age of the Crisis of Man: Thought and Fiction in America, 1933-1973 (Princeton : Princeton University Press, 2015). Besonders überzeugend findet er die Ausführungen Mark Greifs zum Aufkommen der Theory, die mit den Arbeiten von Autoren wie Claude Leví-Strauss oder Roman Jakobson und Jacques Derrida erst dem Strukturalismus und dann Folgetheorien zu einer Popularität in den Geistes- und Sozialwissenschaften in den USA verhalfen. Greif, so Benfey, sieht beispielsweise in der Dekonstruktion eine Wiederbelebung von Ideen des New Criticism, also streng formalistischer Annäherungen an literarische Texte. Benfey zieht nun die Verbindungslinie von den New Critics zu den Digital Humanists. Ähnlich, so schreibt er, wie einst die Neue Kritik von den traditionell orientierten Wissenschaftlern als ein zu klinischer Ansatz und daher als Gefahr gesehen wurde, sehen sich neue Formen des Lesens („new ways of reading“) heute mit dem Vorwurf, sie seien „antihumanistic“ konfrontiert. Diese neuen Formen des Lesens entsprechend nun dem, was hier unter Digital Humanities verstanden wird: (more…)

Nach Feyerabend. Wieder ein Methodenzwang? Eine Skizze zum Diskurs um Digitale Bibliothek, Digitalkultur und Digital Humanities.

Posted in LIBREAS aktuell, LIBREAS.Feuilleton by Ben on 8. April 2014

von Ben Kaden (@bkaden)

I. Digital Humanities als Begleitforschung zur Gegenwart

Noch relativ neu, aber bereits alt genug, um im gutsortierten Berliner Remittentenfachhandel zum halben Preis angeboten zu werden, ist der Sammelband Digital Humanities aus der Reihe Nach Feierabend, also dem Zürcher Jahrbuch für Wissensgeschichte. Die Halbwertzeit derartiger Printpublikationen nähert sich offenbar der von Publikationen im Web. Bei der DNB ist der Titel dagegen offenbar noch nicht einmal im Haus (Stand: 07.04.2014). So schnell also rotiert die Buchhandels- und Diskursmaschinerie. Aber vielleicht ist doch alles anders und es handelt sich nur um Messeexemplare.

Es ist ein faszinierendes Symptom der digitalen Gegenwart, dass sich Wissensgeschichtsschreibung nicht zuletzt anhand der sozialen Begleitmedien für alle Ereignisse und Phänomene, die sich in der Reichweite entsprechend aktiver Akteure (beispielsweise einer vitalen Twitter-Community) befinden, in Echtzeit und teilweise sogar bewusst mit dieser Rolle vollzieht.

Das Buch zur Debatte ist dann eigentlich vor allem ein fixierter Zwischenmarker, der nach herkömmlichen Mustern die Dynamik eines ununterbrochenen Gesprächs bündelt und greifbar macht. So ein Sammelband hascht in gewisser Weise nach all den Diskursfäden und -topoi, die im Sozialen Netz der Tagungen und Symposien und im Social Web des digitalen Austauschs herumschwirren, fängt einige davon ein und setzt sie fest. Er schlägt damit die Brücke zwischen einer unsteten, weitgehend informellen Diskurssphäre und der Wissenschaftskultur, die eine klare Referenz zu einem in einer Bibliothek dokumentierten Text nach „externer Begutachtung, gründlicher Überarbeitung, redaktioneller Bearbeitung und nochmaliger Überarbeitung“ (Hagner, Hirschi, 2013, S. 10) als Beweis dafür braucht, dass es sich um legitim adressierbare Positionen handelt.

Daran zeigt sich eine ganz besondere Kluft in der Wissenschaftskultur der Gegenwart. Denn die beiden Sphären der Kommunikation über geisteswissenschaftliche Themen und Gegenstände – informell und digital, formalisiert und als ISSN- oder ISBNisierte Publikation – verwässern die Stabilität der möglichen Forschungsmaterialien. Die disziplinären Gemeinschaften müssen eigentlich genauso neu aushandeln, was für sie eine legitime Material- und Referenzbasis darstellt, wie die Bibliotheken entscheiden müssen, welches digitale Objekt eine Publikation darstellt, die in ihr Sammelraster passt.

Wenn man wollte, könnte man Digital Humanities auch als geisteswissenschaftliche Auseinandersetzung mit rein digitalen Forschungsgegenständen betrachten. Das wäre eine ganz einfache Abgrenzung. Wahrscheinlich zugleich aber eine viel zu enge. Dennoch müssen sich die Geisteswissenschaften, die ihre Gegenstände auf der Höhe der Zeit suchen, überlegen, wie sie die digitalen Kulturspuren greifbar bekommen, die sich von denen, mit denen sich Geisteswissenschaften traditionell beschäftigen, erheblich unterscheiden und zwar nicht nur hinsichtlich ihrer Intention und Vergänglichkeit. Sondern auch in ihrer Kodifizierung, die andere, automatische Verarbeitungsmethoden ermöglicht. Und auch eine andere Geschwindigkeit.

Digital Humanities, so kann man in diesem Schema argumentieren, wären eine geisteswissenschaftliche Begleitforschung zum kulturellen Geschehen. Ob sich perspektivisch in der Zeitdimension zwei Linien, idealerweise komplementärer Natur, herausarbeiten, nämlich eine zeitlich sehr ereignisnahe (Mikro-)Geisteswissenschaft und eine in längeren Zeitrahmen betrachtetende, verortende und reflektierende (Makro-)Geisteswissenschaft, ist schwer abzusehen, wäre aber wünschenswert. Eine auf den Aspekt der Temporalität gerichtete Auseinandersetzung mit dem Phänomen der Digital Humanities scheint jedoch generell noch nicht allzu intensiv geführt zu werden.

II. Amateure und Professionals

Ein wenig deutet der Beitrag von Philipp Wampfler (»online first«. Geisteswissenschaften als Social Media, S. 79-102) in diese Richtung, der anhand der Transformation des Journalismus durch Social Media mutmaßt:

„Können Geisteswissenschaften nicht wie der Printjournalismus einen von außen vorgegebenen Wandel durchleben, dann sind sie vielleicht nicht als Social Media denkbar, sondern werden als diskursives System durch Social Media abgelöst.“  (S. 99)

Es ist nicht nur ein Wandel bei den für den Diskurs zur Verfügung stehenden Kommunikationsmitteln zu beobachten, sondern auch ein Aufbrechen des Zugangs zum Diskurs, was es für etablierte Akteure durchaus schwieriger werden lässt, ihre Position zu festigen. Denn die Aufmerksamkeitsökonomie des WWWs läuft ja auch kurzschleifiger und setzt mehr auf Popularität (altmetrisch erfassbar) und weniger auf Prestige und Renommee.

Inwieweit dies mit den „Egalitätsidealen“ vereinbar ist, von denen Michael Hagner und Caspar Hirschi schreiben und die neben Effizienzüberlegungen und den unvermeidbaren Anpassungsdruck an die digitale Gegenwart (und Zukunft) zu den drei Säulen des Transformationsdiskurses gehören, ist eine ungelöste Frage in den Netzdebatten. Immerhin bekommt man den Eindruck, als würden die Karten (öfter) neu gemischt, was dazu führt, dass die Positionen bisweilen weiter ins Extreme und in einer Kampf- und Untergangsrethorik abdriften, als der Sache gut tut.

Wo die einen endlich die Möglichkeit auf Teilhabe sehen, fürchten die anderen um ihre Legitimation. Dieser Prozess dürfte überall zu beobachten sein, wo sich die klaren Abgrenzungen zwischen Dilettant und Meister, zwischen Amateur und Profi auflösen, beispielsweise weil es eine bestimmte vorher notwendige Fertigkeiten tatsächlich egalisierende Technologie gibt.

Am vergangenen Sonntag gab es auf einer Veranstaltung  der Berliner Gazette mit dem Titel Komplizen. Woran wollen wir zusammen arbeiten? In dieser Post-Snowden-Welt… die Gelegenheit, im Rahmen der Diskussion um die Bibliothek der Zukunft, das Verhältnis von professionellen und nicht-professionellen „Bibliothekaren“ zu erörtern.

Die Frage war dort, welche Rolle in digitalen Informationswirklichkeiten eigentlich Bibliothekare spielen können bzw. ob man sie überhaupt noch braucht? Jeder, so eine Position, kann Bibliothekar sein, wenn man ihm nur ein wenig Technologie und Grundwissen zur Verfügung stellt. Tatsächlich rekurriert auch jeder, der seine Literaturverwaltungssoftware, mehr oder weniger bewusst, auf die alte bibliothekarische Tätigkeit der Titelaufnahme.

In der Spezifizierung der Debatte ging es darum, herauszuarbeiten, was die Profession des Bibliothekars herausstellt. Wenig verblüffend sind es bestimmte Kompetenzen, die es ihm ermöglichen, nicht etwa etwas zu tun, was nicht auch ein engagierter Laie tun könnte, dies aber am Ende im Idealfall doch schneller, präziser und gründlicher. Man wird nicht Bibliothekar, weil man etwas tun möchte, was sonst niemand kann. Sondern, weil man es aufgrund eines gewissen Trainings besser kann. Spezialisierung hat den Vorteil, dass man eine komplexe Lebenswirklichkeit bewältigen kann, ohne alle in dieser auftretenden Aufgaben selbst lösen (können) zu müssen. Es überrascht schon ein wenig , warum ausgerechnet vom Bibliothekar derart vehement eine Legitimation eingefordert wird, während nie jemand die Rolle beispielsweise des professionellen Klempners oder Dachdeckers hinterfragt. Es zeigt aber auch, dass die Kernkompetenzen des Berufs entweder nicht deutlich genug in die breite Öffentlichkeit (und in die der Netzaktivisten) vermittelt werden oder tatsächlich als obsolet angesehen werden.

Komplizen Berlin / Workshop Bibliothek der Zukunft

Die Arbeit an der Bibliothek der / mit Zukunft. Auf dem Workshop KOMPLIZEN am 06.04.2014 im SUPERMARKT in der Berliner Brunnenstraße.

III. Was jeder kann und keiner braucht.

Ähnliches lässt sich vermutlich für den Geisteswissenschaftler festhalten. Michael Hagner und Caspar Hirschi fragen konkret nach dem Sinn der Behauptung, „dass die Geisteswissenschaften ihre angeblich verlorene gesellschaftliche Relevanz im Netz wiederfinden können“ und knüpfen damit an den schon etwas älteren Diskurs zur vermeintlich Obsoleszenz bzw. wenigstens Unterlegenheit der dieser interpretierenden und verstehensgerichteten Disziplinen gegenüber dem produktiven und normierten Potential der STEM-Fächer.

Es ist auch beim Geisteswissenschaftler nicht so, dass er über exklusive Kenntnisse und einzigartige Ideen verfügt, die nur von einem vergleichsweise kleinen Club von Eingeweihten (also der Fachcommunity) wertgeschätzt und erörtert werden können. Wenn man aber eine „angeblich verlorene gesellschaftliche Relevanz“ beklagt, dann heißt dies auch, dass eine allgemeine Einschätzung dessen, was diese Fächer forschen, zwischen „kann ja jeder“ und „braucht kein Mensch“ pendelt, meist mit Ausschlag zum zweiten, was gerade bei Nischenthemen schwerer zu entkräften ist, sofern das Gegenüber die Prämisse nicht akzeptiert, dass sofort offensichtliche Nützlichkeit keinesfalls die einzige Leitgröße menschlichen Handelns sein sollte. (Eine nützliche Gegenwartsanthropologie könnte vermutlich nachweisen, weshalb dieser Anspruch derzeit so populär und durchsetzungsstark ist.)

Für das „kann ja jeder“ bleibt der offensichtliche Unterschied zwischen demjenigen, der sich lange Zeit sehr intensiv und systematisch mit einem Gegenstandsbereich befasst hat und dem, der sich flugs ein paar Quellen durchsieht, um sich ein Urteil bilden zu können. Es heißt allerdings nicht, dass nicht auch das Tiefenwissen zuweilen in die Irre leitet. Es bedeutet zudem oft, dass Tiefenwissen zu einer Vorsicht gegenüber allzu schnellen Deutungen und Festlegungen führt. Diskussionen mit Aktivisten enden dann häufig in einem apodiktischen Lob der Tat und einem Vorwurf des feigen Zauderns und Zagens. Was manchmal zutrifft. Was öfters auch daneben schlägt.

Gleiches gilt, sehr bekanntermaßen, auch für die bibliothekarische Praxis, bei der eine allzu grundierte Position eventuell tatsächlich sinnvolle Anpassungen häufig ausbremst. (Dass im Bereich der öffentlichen Bibliotheken von den drei Säulen  –   Egalität, Anpassungsdruck, Effizienz  –  der Effizienzgedanke das eigentliche Triebmittel ist, wegen des G’schmäckles, aber gern hinter den anderen beiden Säulen versteckt wird, ist mittlerweile wahrscheinlich auch jedem bekannt.

Trotzdem ist die gestern geäußerte These des Aktivisten Marcell Mars (der sein sehr ehrenwertes Projekt Memory of the World explizit mit der Idee der Public Libraries grundiert), jeder könne heute in 15 Minuten Bibliothekar werden, aus professioneller Sicht auch bei großer Sympathie nicht konsensfähig. Aus der pragmatischen Sicht eines auf die subversive Tat fixierten Aktivisten wäre sie es vielleicht schon:

„It’s hard to get the “real” libraries/librarians loud and active. Part of the establishment of that dream, of public library, is that people working in the public libraries are public sector workers. They are not known to be particularly brave kind of people. In the time of crisis.“ (Garcia, Mars, 2014)

Der Aktivist blendet jedoch aus, wie er vor allem einfordert, dass die BibliothekarInnen laut und aktiv in einem Sinne sein sollten, den er der Public Library zuschreibt. Genaugenommen handelt es sich aber um diverse Konzepte von Public Library und während Marcell Mars ein digitales globales und offenes Wissensnetz imaginiert, das so beschrieben wird:

„The vision of the Memory of the World is that the world’s documentary heritage belongs to all, should be fully preserved and protected for all and, with due recognition of cultural mores and practicalities, should be permanently accessible to all without hindrance.“ (ebd,)

und dabei erstaunlich zugangsfixiert, also hinter den Ideen beispielsweise der Berlin Declaration on Open Access, bleibt, sehen sich die professionellen Bibliothekare häufiger im Auftrag einer konkreten Gemeinschaft oder Nutzergruppe und unter dem Druck, ihre Angebote entsprechend gestalten zu wollen und zwar im Rahmen dessen, was ihnen die Ressourcenlage zulässt.

Memory of the World ist fraglos ein hoch interessantes Konzept, eine Art anarchisches Publikations(nachweis)system, eine Graswurzel-Europeana und das aus ebenfalls im Interview erwähnte Monoskop wirkt teilweise wie eine zeitgemäßere Fortsetzung von Beats Biblionetz.

Das Betrübliche an der Diskussion mit vielen Aktivisten ist selten das Ziel, sondern die Vehemenz mit der sie für ihre Ideen streiten und zwar bisweilen dort, wo man sie nur auf die Unterschiede, die man zwischen der Public Library als Metapher im Web und der öffentlichen Bibliothek im Stadtraum Berlins hinweist. Über allem schwingt dann eben immer dieser Säbel der Ideologisierung.

Ähnliches lässt sich hin und wieder auch für den Diskurs der / über die Digital Humanities festhalten, die als Idee noch einen Tick weniger spezifiziert erscheinen, als die immerhin auf den Dreischritt Sammlung, Erschließung und Verfügbarmachung (Vermittlung) von Publikationen reduzierbare Rolle der Bibliothek.

Fragt man freilich weiter, was denn eigentlich eine Publikation im Netz sei und wo die Grenzen eines digitalen Dokuments  und die der Autorschaft liegen (Roger T. Pédauque kann von beidem berichten, Pédauque, 2003), dann sieht man auch hier vor allem Unschärfen in Relation. (Im erwähnten Sammelband befasst sich übrigens Niels-Oliver Walkowski in seinem Beitrag  „Text, Denken und E-Science. Eine intermediale Annäherung an eine Konstellation“ (S. 37-54) mit dem Phänomen von Enhanced Publications und der Frage der Textualität.)

IV. Berührungspunkte

Im Editorial des Nach-Feierabend-Bandes, gegen den ich mich in der Buchhandlung, dies als spätes Geständnis, zugunsten einer schönen Ausgabe mit Architekturskizzen von Leonid Lavrov entschied, wird das Diskursfeld „Digital Humanities“ von den Herausgebern dankenswerterweise etwas aufgefächert.

So benennen sie drei, wenn man so will, Digitalisierungsdimensionen der Geisteswissenschaften:

1. digitale Recherche (Digitalisierung der Inhaltsbeschaffung)

2. Digitalisierung von Papierbeständen (Digitalisierung der Inhalte)

3. Neue Forschungs- und Publikationsformen (Digitalisierung der Inhaltserzeugung und -verbreitung)

Aus der bibliothekswissenschaftlichen Warte fällt unvermeidlich auf, dass es sich bei den Schritten eins und zwei um Aktivitäten handelt, in die Bibliotheken spätestens seit den 1970er Jahren aktiv sind. Hier kommen digitale Basisprozesse der Fachinformation im geisteswissenschaftlichen Bereich an, was sich erwartbar aber eigentlich erstaunlich spät vollzieht.

Parallel ist die Rolle der Computerlinguistik zu berücksichtigen, die ebenfalls sehr viel von dem, was heute in den Digital-Humanities-Bereich dringt, schon sehr lange benutzt.

So liegen die digitalen Geisteswissenschaften tatsächlich ein bisschen in der Zange der Erfahrungshorizonte des Bibliothekswesens (Infrastruktur und Technologie zur digitalen Verarbeitung von Inhalten) und der Linguistik (Methodologie und Technologie zur digitalen Verarbeitung von Inhalten).

Ergänzt man beim dritten Aspekt eine eingeklammerte Silbe, so wird deutlich dass „Neue Forschungs- und Publikations(platt)formen“  gleichfalls etwas sind, bei denen Bibliotheken, und sei es nur mit ihrer Expertise auf dem Gebiet der Publikationsformenlehre, eine Rolle spielen können und nicht selten tun sie es in Projektrahmen auch. In einem höflichen Gutachten zu meinem Abstract für die DHd-Konferenz 2014 fand sich übrigens der Kritikpunkt benannt:

„Warum z. B. in der editionsphilologischen Forschung die Bibliothekswissenschaft eine wichtige Rolle spielt, ist für mich nicht nachvollziehbar.“ (unveröffentlichtes Gutachten zur DHd-2014)

Da die Nachfrage leider nicht im Auditorium wiederholt wurde, muss ich die Antwort hier andeuten: zum Beispiel im Wissen über die Entwicklung von Medialität und zwar sowohl im historischen Verlauf wie auch in der Breite. Selbstverständlich kann ein Editionswissenschaftler auch eine diesbezüglich tiefe Kenntnis besitzen, die in seinem Feld auch tiefer reicht, als die des Bibliothekswissenschaftlers. Der jedoch weiß im Idealfall zusätzlich, wie man in anderen Kontexten publiziert und wie man diese Publikationen auch langfristig verfügbar hält und was, wenn man etwas wie eine digitale Edition erfinden muss, in diesem Bereich technisch alles möglich und sinnvoll ist. Man kann auch anders antworten, aber das muss auch an anderer Stelle geschehen.

Die Schnittstelle zur Welt der digitalen Hacktivisten findet sich dort, wo Digital Humanities mit dem Impetus auftreten, ein „Werkzeug zur Neuorganisation des gesellschaftlichen Wissens und damit letztlich zur Reform des menschlichen Zusammenlebens“ zu sein (Hagner, Hirschi, S. 7). Hier weisen sie in Richtung Sozialutopie, wobei aus der präziseren Beobachtung offen bleibt, wie sehr hinter derartigen Aussagen auch wirkliche Überzeugungen stecken oder einfaches Taktieren, wenn es darum geht, den Anspruch auf Förderung entsprechender Projekte zu legitimieren.

Der Topos von der Verbesserung der Welt durch Zugang und Technologie begleitete ähnlich lange Zeit die Open-Access-Bewegung und ist als Motivationselement sicher häufig wichtig. Auf der anderen Seite steht der Druck, diese Verbesserung auch nachweisen zu müssen, was dann sehr schwer fällt, wenn Heilsversprechen besonders euphorisch ausfallen. In der Open-Access-Bewegung scheint man derweil auf pragmatischere bzw. niedriger zielende Argumentationen zu bauen, wobei nicht selten an das Argument der Erhöhung der Zugangsgerechtigkeit das Argument des volkswirtschaftlichen Nutzens tritt. In den Digital Humanities spielt dieses meist nur dann eine Rolle, wenn auf die Bedeutung verteilter und nachnutzbarer Ressourcen verwiesen wird.

Michael Hagner und Caspar Hirschi stellen vier andere Aspekte als zentral für die Diskussion heraus und eine diskursanalytische Annäherung an den sehr spannenden Ablauf der Debatte darüber, was Digitale Geisteswissenschaften sein können, findet darin wenigstens auf den ersten Blick ganz passende Basiskategorien:

  1. Autorschaft (Gegensatzpaar: adressierbarer [Einzel]Autor < > soziale Netzgemeinschaft)
  2. Forschungspraktiken (qualitativ, wenige Quellen < > quanitativ, Big Data)
  3. epistemische Tugenden (Argumentation, Narration < > Bereitstellung, Verlinkung, [eventuall auch Visualisierung])
  4. Publikationsformen (abgeschlossene Monografie / Artikel < > „liquide Netzpublikation“)

Die interessante Frage, die die Autoren, die sich als Nicht-Utopisten erklären, daraus ableiten ist, „ob [bei einer Durchsetzung der „neuen Ideale“] der Begriff Wissenschaft dann überhaupt noch tauglich und die Universität noch der richtige Ort wären, solche Kulturtechniken zu vermitteln“?  (ebd., S. 8) Was auch wieder eine Zuspitzung ist. Ganz ohne Polemisieren geht es wohl nirgends und so rutscht ihnen eine weitere Frage in den Text, nämlich, „wie viel Distant Reading die Geisteswissenschaften vertragen, ohne am Ende in digitaler Adipositas zu erstarren“? (S. 9) So bekommt Franco Moretti doch noch sein Fett weg. Somit implizieren sie weiterhin gleich selbst eine erste Antwort auf ihre Frage:

„Was bedeuten digital gesteuerte Erkenntnisverfahren wie etwa das Distant Reading – das eigentlich kein Lesen mehr ist, weil zahlreiche Texte nur noch mit einem bestimmten Algorithmus gescannt werden – für die traditionellen geisteswissenschaftlichen Herangehensweisen?“ (S. 9)

Wobei Franco Moretti mit der Benennung des Distant Reading gar nichts Wortwörtliches, sondern eine sprachspielerische Stichelei gegen die Kultur des Close Reading im Sinn hatte und in seinem zentralen Artikel (Moretti, 2000) verdeutlicht, dass es ihm um morphologische Analysen geht, die als Gegenkonzept zu der Tatsache dienen sollen, dass die literaturwissenschaftliche Tradition der Tiefenlektüre notwendig nur einen bestimmten Kanon berücksichtigt, die Welt der Literatur (bzw.: die Weltliteratur) aber weitaus reichhaltiger ist. Das auf Algorithmen setzende Distant Reading ist derzeit wahrscheinlich die beste Option, um dieses Korpus überhaupt in die Literaturwissenschaft hereinzuholen. Es besteht auch kein Anlass, hier eine Konkurrenz oder gar einen Nachfolger zum Close Reading zu sehen. Sinnvoller wäre, das Distant Reading als Erweiterung zu sehen. Denn wo sich das Close Reading konzeptionell auf die Lektüre des Einzigartigen, des Besonderen und Ungewöhnlichen ausrichtet, kann das Distant Reading mit seiner Musteranalyse durchaus helfen, exakt die Werke zu identifizieren, die es wirklich verdienen, sehr nah und gründlich studiert zu werden.

Insofern könnte man die Frage

„Inwiefern basieren die Digital Humanities auf neuen Forschungsfragen und inwiefern können sie solche generieren?“

möglicherweise besser so stellen:

„Inwiefern basieren Digital Humanities auf etablierten geisteswissenschaftlichen Forschungsfragen und wie können sie deren Bearbeitung unterstützen?“  (ebd.)

Man kann sich die Entwicklung der Digital Humanities nämlich auch problemlos als Erweiterung des Bestehenden vorstellen. So wie die Digitale Bibliothek erstaunlicherweise und trotz aller entsprechenden Beschwörungen nicht dazu geführt hat, dass die Bibliothek als Ort an Bedeutung verlor. Eher im Gegenteil.

Berlin, 07.04.2014

Literatur

Garcia, David; Mars, Marcell (2014) Book Sharing as a „gateway drug“: Public Library. In: new tactical research. Feb. 14, 2014 http://new-tactical-research.co.uk/blog/1012/

Hagner, Michael; Hirschi, Casper (2013) Editorial. In: Gugerli, David [Hrsg.] ; Hagner, Michael [Hrsg.] ; Hirschi, Caspar [Hrsg.] ; Kilcher, Andreas B. [Hrsg.] ; Purtschert, Patricia [Hrsg.] ; Sarasin, Philipp [Hrsg.] ; Tanner, Jakob [Hrsg.]: Nach Feierabend 2013. Zürich: diaphanes. S. 7-11 (PDF-Download des Editorials)

Moretti, Franco (2000) Conjectures on World Literature. In: New Left Review. 1 (Jan/Feb 2000) http://newleftreview.org/II/1/franco-moretti-conjectures-on-world-literature

Pédauque, Roger T. (2003): Document : forme, signe et médium, les re-formulations du numérique. In: Archive Ouverte en Sciences de l’Information et de la Communication. http://archivesic.ccsd.cnrs.fr/sic_00000511

Walkowski, Niels-Oliver (2013) Text, Denken und E-Science. Eine intermediale Annäherung an eine Konstellation. In: Gugerli, David [Hrsg.] ; Hagner, Michael [Hrsg.] ; Hirschi, Caspar [Hrsg.] ; Kilcher, Andreas B. [Hrsg.] ; Purtschert, Patricia [Hrsg.] ; Sarasin, Philipp [Hrsg.] ; Tanner, Jakob [Hrsg.]: Nach Feierabend 2013. Zürich: diaphanes.  S. 37-54

Wampfler, Philippe (2013) »online first«. Geisteswissenschaften als Social Media. In: Gugerli, David [Hrsg.] ; Hagner, Michael [Hrsg.] ; Hirschi, Caspar [Hrsg.] ; Kilcher, Andreas B. [Hrsg.] ; Purtschert, Patricia [Hrsg.] ; Sarasin, Philipp [Hrsg.] ; Tanner, Jakob [Hrsg.]: Nach Feierabend 2013. Zürich: diaphanes.  S. 79-102

Wer übernimmt was? Zum Verhältnis von Digital Humanities und Geisteswissenschaften.

Posted in LIBREAS.Debatte, LIBREAS.Feuilleton by Ben on 12. September 2013

Ein Kommentar von Ben Kaden (@bkaden)

Der Beitrag ist zwar nach den Zeitrechnungsstandards des WWW schon uralt, da er aber offensichtlich in der deutschen Digital-HumanitiesCommunity für einigen Wirbel sorgt und mir, nachdem er sich scheu unter meinem ansonsten schon zuverlässig zugreifenden Radar hindurch geduckt hatte, nun noch einmal mit Nachdruck (bzw. als Ausdruck) auf den Schreibtisch gelegt wurde, will ich doch wenigstens meine Kenntnisnahme dokumentieren.

Am 19.07.2013 druckte die Frankfurter Allgemeine Zeitung auf der Themenseite Bildungswelten (S. 9) einen Beitrag des Literatur-Juniorprofessors Jan Röhnert (TU Braunschweig, Wikipedia-Seite) mit dem Titel Feindliche Übernahme? Die Geisteswissenschaften wehren sich gegen falsche Ansprüche der Informatik, aber setzen auf die „Digital Humanities“. Er berichtet vom „Gespenst einer feindlichen Übernahme [der geisteswissenschaftlichen] Fächerkultur durch die Dogmen der Informatik.“ , was offensichtlich derzeit das heißeste Eisen im Metadiskurs der Geisteswissenschaften zu sein scheint. Jedenfalls auf dem Sommerplenum 2013 des Philosophischen Fakultätentages in Chemnitz im späten Juni.

Eigentlich handelt es sich um einen Methodenstreit, denn die Geisteswissenschaften fürchten ihre Mathematisierung und damit einhergehend die Verdrängung von Interpretation bzw. Hermeneutik. Erstaunlicherweise ist die Bibliothekswissenschaft hier einen Schritt voraus, denn ähnliche Debatten wurden am Berliner Institut bereits Ende der 1990er Jahre rege ausgefochten, wobei die zweite Seele (meist die biblio- bzw. szientometrische) lange Zeit parallel irgendwo unter der Bezeichnung „wissenschaftliche Informationsversorgung“ oder auch „Dokumentation(swissenschaft)“ parallel an ihrer Entfaltung arbeitete, um schließlich mit der nahezu Volldigitalisierung bibliothekarischer Datenverarbeitungsprozesse und endlich auch mehr und mehr der Bibliotheksbestände zur bestimmenden wurde. Dass die Gegenstände der Bibliothek digitalisiert wurden ist insofern von Bedeutung, als dass diese Digitalisierungen zugleich häufig die Gegenstände der Geisteswissenschaften (nämlich Texte) digitalisierten und so erst die Digital Humanities möglich machten.

Der Paradigmenwechsel, den laut Jan Röhnert der Bremer eScience-Fachmann Manfred Wischnewsky einfordert, vollzog sich dort schon weitaus früher und mittlerweile sind alle Facetten metamedialer Auseinandersetzung mit analogen Bibliotheksbeständen (Einbandkunde, Buchgeschichte, u. ä.) längst aus den Lehrplänen des Berliner Instituts verschwunden. Das Medium Buch ist für die Bibliothekswissenschaft in Berlin weitgehend irrelevant geworden. Betrachtet man die Debatten der Digitalen Geisteswissenschaften aus einer medialen Warte, geht es dort um einen ganz ähnlichen Schritt: Die Auflösung des Einzelobjekts, also in der Regel eines Werkes, das in der Literaturwissenschaft oft klassischerweise in direkter Beziehung zum Medium Buch oder etwas ähnlich Berührbarem steht.

Es sind verschiedene Stränge, die im Diskurs zusammen- und auch aneinander vorbei laufen. Jan Röhnert berichtet von Positivismus-Vorwürfen und dem bekannten und aus irgendeinem Grund gepflegten Irrtum, bei dem man „quantitativ erzeugte technische Simulationen bereits als qualitativen Wissenszuwachs ausgibt.“

Zumal der Wissensbegriff selbst, wie heute jedem bewusst sein dürfte, mit oft myopischem Blick auf ein Simulacrum verweist. Abstrakt ist das Wort „Wissen“ auch durch seine Übernutzung in den vergangenen Jahrzehnten derart zu einem substanzarmen Textbaustein eingeschrumpft, dass eigentlich jeder mit etwas Sprachbewusstsein ausgestattete Diskursteilnehmer auf dieses Hohlwort zu verzichten bemüht sein sollte.  Dann würden vielleicht auch die aus dem mit dem Ausdruck „Wissen“ fast  verbundenen Anspruchsdenken nicht ganz unzusammenhängenden Missverständnisse reduziert.

Aus einer distanzierten Warte ist die Aufregung ohnehin unverständlich, handelt es sich bei den Digital Humanities doch ganz offensichtlich nicht um die Fortsetzung der Geisteswissenschaften mit digitalen Methoden, sondern um die Auseinandersetzung mit traditionell geisteswissenschaftlichen Gegenständen mittels digitaler Aufbereitungs- und Analysewerkzeuge. Es ist eher eine neue Form von Wissenschaft, die hier entsteht. Dass man sich einer geistigen Schöpfung nach wie vor auch hermeneutisch nähern kann (und zum Wohle der Menschheit auch zukünftig muss), sollte außer Frage stehen. Bedenklich wird es erst, wenn Förderinstitutionen Durch- und Weitblick verlieren und aus Zeitgeist-, Marketing- oder anderen Gründen denken, dass man die Unterstützung für die Geisteswissenschaften auf die Digital Humanities umschichten sollte. Diese Angst ist, wie man oft von Betroffenen hört, nicht ganz unbegründet und wahrscheinlich die eigentliche Essenz der Behauptungskämpfe.

Inhaltlich verwundert dagegen (nicht nur) aus einer semiotischen Warte, warum die traditionellen Geisteswissenschaften (eine behelfsmäßige Formulierung in Abgrenzung zum Ausdruck der „digitalen Geisteswissenschaften“) ihre hermeneutische Kompetenz nicht noch stärker auf natur- und sozialwissenschaftliche Gegenstandsbereiche ausweiten. Wer beispielsweise Franz Hessels Stadtraumlektüren kennt, weiß sofort, dass sich jedes beobachtbare soziale Gefüge genauso wie auch die Geometrie als Narrativ lesen und verstehen lässt.

Übrigens auch die Debatte um die „Feindliche Übernahme“, wobei Jan Röhnert unnötig in die – etwas wohlfeile –  Parallele zu geheimdienstlicher Datenanalyse stolpert:

„Solche Software, die  – nicht unähnlich den kürzlich aufgedeckten Spionageprogrammen „Prism“ und „Tempora“ –  unvorstellbar große Informationsmengen analysiert […]“

So naheliegend die Ähnlichkeit ist, so unglücklich ist der Vergleich. Denn dass natürlich geheimdienstliche Aufklärung seit je massiv auch auf interpretatorische, teilweise sicher auch hermeneutisch inspirierte Verfahren setzte, steht genauso außer Frage. Die Parallele ist keinesfalls neu und als kritisches Argument nur tauglich, wenn man sie auch entsprechend erläutert. In der Länge dieses Artikels ist das freilich nicht möglich. Dabei liegen mit den zitierten Positionen von Gerhard Lauer und Malte Rehbein eigentlich schon sehr konsensfähige Positionen auf dem Tisch und im Text und auch Jan Röhnert beendet seine Schilderung derart versöhnlich, dass man als außenstehender Beobachter die Aufregung gar nicht versteht. Übrigens auch nicht die, der Digital-Humanities-Community, von der mir heute berichtet wurde.

 (Berlin, 12.09.2013)

In weiter Ferne und nah. Über Dekonstruktion, Digitalkultur und Digital Humanities

Posted in LIBREAS.Feuilleton by Ben on 27. Juni 2013

Ein Blick in aktuelle Diskurse.

von Ben Kaden / @bkaden

„So einen wie ihn wird es im digitalen Zeitalter nicht mehr geben.“

beendet der Verleger Michael Krüger seinen Nachruf auf Henning Ritter in der Mittwochsausgabe der NZZ (Michael Krüger: Leser, Sammler und Privatgelehrter. Henning Ritter – eine Erinnerung. In: nzz.ch, 25.06.2013) und lässt damit den Leser anders berührt zurück, als es ein Nachruf gemeinhin zur Wirkung hat. Denn in gewisser Weise spricht er damit der Gegenwart, die wenig definiert als von Digitalem dominiert gekennzeichnet wird, die Möglichkeit ab, eine intellektuelle Kultur hervorzubringen, für die Henning Ritter stand. Das klingt nahezu resignativ und ist aus dem tiefem Empfinden des Verlusts auch erklärbar. Die traurige Einsicht ist zudem Lichtjahre von dem Furor entfernt, der der Debatte um eine Lücke zwischen Netz und Denkkultur noch vor wenigen Jahren mit Aufsätzen wie dem über den Hass (!) auf Intellektuelle im Internet von Adam Soboczynski kurzzeitig beigegeben wurde. (Adam Soboczynski: Das Netz als Feind. In: Die ZEIT, 20.05.2009) Ich weiß nicht, ob das Netz mittlerweile als Freund verstanden wird. In jedem Fall haben sich drei Auslegungen durchgesetzt: das Netz als Medium (nüchtern-funktional), das Netz als Marktplatz und das Netz als sozialer Wirkungsraum.

Dass das Netz auch als Austragungsort intellektueller Diskurse geeignet ist, merkt man dagegen in Deutschland weniger, einfach weil die spärlichen Gegenstücke zu dem nahezu Überfluss der entsprechenden Magazinkultur im englischsprachigen Weltenkreis, die längst medial eine e– und p-Hybridkultur ist und vom New Yorker über The Point bis zur White Review reicht, kaum im Netz präsent sind. Vielleicht gibt es auch tatsächlich zu wenige (junge) Intellektuelle dieses Kalibers in Deutschland. (Einige reiben sich auf irights.info am denkbar undankbaren Themenfeld des Urheberrechts auf und manchmal rutscht bei perlentaucher.de  etwas ins Blog, was in diese Richtung weist.) Und sicher hat dieses Defizit eine Reihe von Gründen. Das wir mittlerweile digitale Medienformen in unseren Alltag eingebettet haben, dürfte jedoch kaum die Ursache sein.

Dass sich die intellektuelle Kultur einer jeweiligen Gegenwart von der der Gegenwarten davor und danach unterscheidet, liegt darüber hinaus bereits offensichtlich in der Verfasstheit von Kultur begründet. Das digitale Zeitalter wird auch keinen Giordano Bruno hervorbringen (höchstens eine Giordano-Bruno-Stiftung) und keinen Walter Benjamin (höchstens einen Walter-Benjamin-Platz) und keinen Pjotr Kropotkin (höchstens noch ein unpassend eingeworfenes Zitat eines Oberschlaumeiers im politikwissenschaftlichen Proseminar). Aber „Postkarten mit aufgeklebten Zeichnungen oder vermischten Nachrichten, Briefe, die aus nichts als Zitaten bestanden“ zu versenden – das geschieht noch. Und zwar tatsächlich im Postkarten- und Briefformat und auch beispielsweise bei Tumblr, das diese Kulturpraxis des Collagierens, die an anderer Stelle selbst als Niedergang der abendländischen Kultur gesehen wurde, nahezu entfesselt erlebbar macht.

Auch intellektuelle Bohemiens gibt es erfahrungsgemäß und jedenfalls in Berlin nicht zu knapp. Nur sitzen sie – einige Jungfeuilletonisten ausgeklammert – nicht mehr bei «Lutter & Wegner», wohl aber manchmal im Verlagsprogramm bei der edition unseld und ansonsten, wenn sie noch etwas progressiver sind, doppelt exkludiert (freiwillig und weil die Verkaufskalkulatoren diesem Denken neben der Spur keinen Markt zusprechen) vom herkömmlichen Verlagsestablishment in ihren eigenen Diskursräumen (oft mehr Kammern). Und sogar den „unabhängigen Privatgelehrten, der mit einer gewissen boshaften Verachtung auf die akademischen Koryphäen herabblickt[…]“, findet man auf beliebigen Parties der Digital Boheme fast im Rudel. Die Zeiten, dass man Avantgarde war, wenn man sich von biederen Funktionswissenschaftlerei in den Hochschulen abgrenzte, waren schon vorbei, bevor man E-Mails schrieb. Der Hipsterismus hat aus dieser Einstellung sogar fast ein Freizeitutensil gemacht. Dass progressives Denken und Hochschulkarriere keine kausale Verknüpfung eingehen, sondern eher zufällig zusammenfinden, weiß mittlerweile auch jeder, sind das Universitäts- wie auch Wissenschaftssystem als rationaler Funktionskorpus doch geradezu naturgemäß darauf zugeschnitten, Denken zu normieren und in recht schmalen Kanälen zu führen.

Die Melancholie des Hanser-Verlagschefs Michael Krüger ist zweifellos nachvollziehbar. Neutral gesprochen wäre der Ausstiegssatz völlig zutreffend und selbstevident. Die Versuchung der Verklärung der persönlich verlebten Zeit als der besten aller möglichen Daseinsvarianten bedrängt sicher irgendwann fast jeden. Und einmal wird sicher eine Koryphäe der digitalen Geisteskultur einen ähnlichen Satz voller Trauer über einen Netzintellektuellen schreiben. Man darf ihm allerdings wünschen, dass er den Satz ohne Benennung der Nachfolgezeitrechnung (also ohne das dann aktuelle „digitale Zeitalter“) verfasst. Denn wie wahrer wäre die Aussage, wenn sie schlicht: „So einen wie ihn wird es nicht mehr geben.“ Oder besser noch: „Es gibt ihn nicht mehr.“ hieße. Große Persönlichkeiten, zu denen Henning Ritter, Homme de Lettres und Mensch als Mensch, zweifellos zählte, brauchen keine vergleichende Wie-Verortung im Zeitlauf.

II

Womöglich wird der „Methodenfreak“ (Süddeutsche Zeitung) Franco Moretti in diesem „einmal“ der Rückschau als eine Leitfigur der Geisteswissenschaften im Zeitalter ihrer digitalen Re-Evozierbarkeit gelten. Lothar Müller widmet dem Vorzeige-Digital-Humanist aus Stanford bereits heute im Feuilleton der Süddeutschen Zeitung vom Mittwoch einen satten Sechsspalter (Lothar Müller: Ein Methodenfreak. In: Süddeutsche Zeitung, 26.06.2013, S. 14) mit einer eindrucksvollen Porträtaufnahme aus der Kamera der mit ihren Aufnahmen der deutschen Fußballnationalmannschaft ziemlich bekannt gewordenen Regina Schmeken. In der Bildrepräsentation spielt der Literaturwissenschaftler also bereits in einer oberen Liga. Isolde Ohlbaum dagegen, von der das zentrale Nachruffoto von Henning Ritter stammt (u. a. Dienstag im FAZ-Feuilleton), kennt man eher von ihren Aufnahmen von Alberto Moravia, Susan Sontag und Elias Canetti. Der Kulturbruch scheint sich bis ins Lichtbild einzuschreiben.

Franco Moretti, der ursprünglich (und „am liebsten“) theoretischer Physiker werden wollte, bricht nun tatsächlich und vielleicht noch stärker als jede These vom Tod der Autorenschaft in die stabile Kultur der Literaturanalyse ein, in dem er das Close Reading mit seiner quantitative Lektürepraxis, vorsichtig formuliert, in Frage stellt.

Lange Zeit war die Nahlektüre bereits aus praktischen Gründen die einzig gangbare wirkliche gründliche Auseinandersetzung mit Text. Denn angesichts der seit je immensen Mengen an Publiziertem, führte ein intellektuelles Mitteldistanzlesen meist nur zu – oft sehr eindrucksvollem – Querschnittswissen, was für das Kamingespräch hervorragend, für die harte wissenschaftliche Diskursführung aber zu oberflächlich ist. Die minutiöse Kenntnis weniger Texte und dazugehöriger Kontexte galt lange als edles Ziel der deutenden Textdisziplinen – wenngleich die minutiöse Kenntnis vieler Texte besser gewesen wäre, in einem normalen Wissenschaftsberufsleben aber einfach nicht realisierbar. Daher Kanonisierung, daher Beschränkung auf die Schlüsseltexte und Leitfiguren. Daher gern auch noch das dritte Buch über Achim (z.B. von Arnim).

III

Digitale Literaturwissenschaft bedeutet nun, sich der Stärken der Rechentechnik (= der automatischen Prozessierung großer Datenmengen) zu bedienen, um auf dieser Grundlage – sie nennen es „Distant Reading“ – das Phänomen Literatur strukturell, idealerweise als Gesamtgeschehen, zu erfassen, zu erschließen und (zunächst) interpretierbar zu machen. Die Manipulierbarkeit – vielleicht als „distant writing“ – wäre als Zugabe im Digitalen problemlos denkbar. Moretti trägt damit die naturwissenschaftliche Idee des verlässlichen Modells in die Beschäftigung mit Literatur:

„Ich bin auf Modelle aus […] auf die Analyse von Strukturen. Was ich am ‚close reading‘ nicht mag, ist das in den meisten Varianten anzutreffende Wohlbehagen an der unendlichen Multiplikation von Interpretationen, zum Beispiel der ‚deconstruction‘, wo die Leute umso glücklicher sind, je mehr Widersprüche sie in einem Text entdecken. Diese Beschränkung auf die immer reichere Interpretation einzelner Werke hat mich noch nie gereizt.“

So Moretti, der damit selbstredend auch eine völlige Ausblendung des Zwecks der Dekonstruktion vornimmt, die sich ausdrücklich und aus gutem Grund gegen die Reduktion der Welt auf allgemeine Regeln und hin zur Anerkennung bzw. der Untersuchung des Spezifischen wendet. Diesen Ansatz auf Wohlbehagen und Glücklichsein zu reduzieren, zeigt vor allem, wie tief die Gräben zwischen den Schulen in den USA sein müssen. Wer sich nämlich an einem dekonstruktiven Lesen versucht hat, weiß, wie unbehaglich und zwangsläufig unbefriedigend diese unendliche Kärrnerarbeit in der stetigen Verschiebung des Sinns sein muss. Mit einer modellorientierten Wissenschaftsauffassung, vermutlich sogar mit einer auf Erkenntnis (statt Verständnis) und Kontrolle (statt Anerkennung) gerichteten Wissenschaft lässt sich die Dekonstruktion kaum in Einklang bringen. Diese Art von Auseinandersetzung mit Text produziert kein sicheres Wissen, sondern im Gegenteil, wenn man so will, bewusst verunsicherndes. Das mag sie so unbequem und auch kaum leicht verwertbar machen.

IV

Was Moretti macht, wenn er Textmassen quantitativ und statistisch auswertet, entspricht prinzipiell den digitalökonomischen Datenanalysen, die man, wie wir mittlerweile wissen, auch zur geheimdienstlichen Terrorabwehr verwenden kann. Sein Konzept – er nennt es Quantitativen Formalismus – dient gleichfalls zur Strukturerschließung des Dokumentierten, also des Empirischen, wobei sich systematisch Abweichungen isolieren lassen, die man dann bei Bedarf qualitativ durchleuchten kann. Damit gewinnt man fraglos eine solidere Basis für die Auseinandersetzung mit Texten in ihrer Gesamtheit (so sie in ihrer Gesamtheit digitalisiert und Teil des Korpus sind). Man erfährt bei der richtigen Analyse viel über die syntaktischen, mitunter auch konzeptionellen Relationen zwischen Textprodukten bzw. Äußerungen. Man kann Querverbindungen und Referenzen isolieren und nachverfolgen. Bisweilen deckt man auch Plagiarismus auf und Doppelschöpfungen. Es lassen sich Aussagen über die Produktions- und Rezeptionsbedingungen von Texten treffen (zum Beispiel über das Mapping mit Ausleihstatistiken öffentlicher Bibliotheken). Aus vielen Perspektiven können wir zu den Gegenständen der Literaturwissenschaft so exakt wie noch nie in der Wissenschaftsgeschichte Aussagen treffen, Schlüsse und Querverbindungen ziehen und Einsichten vorbereiten. Wir sind in der Lage, aus einer Art Vogelperspektive ein riesiges Feld der Literatur zu betrachten und zugleich zu übersehen.

Allerdings, und das ist der Unterschied zwischen einem guten Close Reading und dem besten vorstellbaren Distanzlesen, bleibt die Literatur aus dem Korb dieses Heißluftballons unvermeidlich unbegreiflich. Wir können nicht gut mit unserer Wahrnehmung zugleich über den Dingen und in den Dingen sein. Im besten Fall können wir also in einer Kombination von close und distant Morettis Draufsichtverfahren als Drohne benutzen, um – je nach Erkenntnis- und Handlungsinteresse – den Zugriff zu präzisieren. In dieser Hinsicht sind statistische Zugänge eine grandiose Erweiterung des wissenschaftlichen Möglichen. Die Dekonstruktion könnte sich des Quantitativen Formalismus sogar ganz gut bedienen, wenn es darum geht, etablierte Perspektiven der Dekonstruktion zu verschieben. Als Alternative wäre das Verfahren der statistisch erschlossenen Vollempirie dagegen offensichtlich untauglich, da es schlicht etwas ganz anderes in den Blick nimmt, als die Praxis der Nähe.

V

„ ‚Persönlichkeit‘ auf wissenschaftlichem Gebiet hat nur der, der rein der Sache dient“, schreibt Max Weber, Morettis Idol, und dies reproduziert kaum verschleiert eine religiöse Bindung in die Wissenschaft, die hiermit die Sache zum Gottesersatz erhebt. Die Identität der Wissenschaftlerpersönlichkeit ergibt sich allein aus dem Dienst am Objekt. Mit Aufklärung hat die sich daraus leider bis heute oft ableitende Empiriefrömmelei jedoch wenig zu tun. Ein Dogma kämpft hier nur gegen das andere und für wirklich Intellektuelle war dieses Preisboxen um die Wahrheit noch nie ein besonders attraktives Spektakel, zumal sie meist nur von den billigen Plätzen zusehen durften. Nun wäre eine post-sachliche, also konsequent entdogmatisierte Wissenschaft nicht mehr Wissenschaft wie wir sie kennen, schätzen und als sinnvoll erachten. Sondern vielleicht systematisierte Intellektualität. Oder eben das, was man im besten Sinne meinte, als man Humanities eben nicht als Sciences konzipierte.

Die Digital Humanities und die quantitative Literaturwissenschaft sind nicht, wie man häufig vermutet, eine Weiterentwicklung der geisteswissenschaftlicher Praxen, sondern eine neuartige Annäherung an deren Bezugspunkte. Was dann durchaus sympathisch ist, wenn nicht Max-Weber-Adepten im gleichen Zug, diese weicheren Ansätze als inferior herausstellen, weil sie davon ausgehen, dass auch Literatur vor allem empirisch ist und damit in die Irre wandern. Spätestens seit dem 20. Jahrhundert sind der Literatur und der Kunst die Ansprüche der Empirie nämlich vor allem eins: gründlich suspekt. Literatur geht es – wie übrigens auch der Dekonstruktion – nicht mehr um die Spiegelung der Welt, sondern darum, sich den Spiegeln so gut es geht zu entziehen, das Bild zu biegen, um das sichtbar zu machen, was dahinter liegen könnte. Diese Art von Literatur zielt nicht auf Wahrheit und vermutlich macht sie diese für viele unheimlich und für ein paar Freunde des Close-Readings eben doch reizvoll. Wenn diese kreativ genug sind, nicht auf Wahrheitsanspruch zu lesen, gelingt es sogar, etwas Fruchtbares und Anschlussfähiges daraus abzuleiten, das keine Statistik jemals hergibt.

VI

Nun ist zu beantworten, worin dieses Fruchtbare bestehen könnte. Hinweise liefert vor allem der Blick in die Gegenwart bzw. in die etwas jüngere Vergangenheit, also in die Entfaltungszeit des Michael Krüger’schen „Digitalen Zeitalters“ (als besäße der Äonen-Bezug noch irgendeinen diskursiven Wert). Wer sich die Entfaltung der digitalen Kultur der vergangenen zwei Jahrzehnte ansieht, erkennt unschwer, dass ihr Erfolg durch die Kombination zweier Grundprinzipien begründet ist: das des Narrativen und das der Statistik. Plattformen wie Facebook sind biografischer Abbildungsraum und Sozialkartei herunteradressiert auf die kleinste kulturelle Einheit: Das Individuum. Während uns die Zahlen (Freunde, Likes, Shares, etc.) – Übernahme aus der Ökonomie – unseren Erfolg bei der sozialen Einbindung (Netzwerk) unseres Lebens präzise nachweisen, benutzen wir die Narration unserer Selbste dazu, diese Zahlen (unsere soziale Akzeptanz) zu beeinflussen. Selbstverständlich zählt im nächsten Schritt nicht nur die Quantität, sondern auch – FOAF – die Qualität unserer Kontakte.

Etwa in der Mitte dieser zwei Jahrzehnte öffentliche Netzkultur liegt eine Zäsur. Die ersten zehn Jahre etablierten den digitalen Kommunikationsraum noch weitgehend nach dem Muster der analogen Welt (massenmediale Kommunikation hier, private Kommunikation per E-Mail, Chat, P2P-Filesharing da und obendrauf noch ein paar Versandhäuser mit Online-Katalogen) wogegen mit dem sogenannten Web 2.0 die Trennwände nach und nach durchlässig wurden, so dass mittlerweile auf unseren Privatprofilen sichtbar wird, welche Zeitungsartikel wir abgerufen und welche Musiktitel wir abgespielt haben. Das Besondere als Basis der Handlungsstrukturen rückt in den Vordergrund. Wir schwanken zwischen Me-too und Me-first, letzteres mit der Chance, ganz früh im Trend zu sein und damit zu punkten (das Pyramidenspiel des Sozialprestiges) und zugleich mit dem Risiko, fehl zu gehen.

Diese relativ leicht erfass- und visualisierbare Statistik unseres Kulturverhaltens hilft uns einerseits, einen statistisch stabilisierten Überblick über unsere Nutzungsaktivitäten in äußerst komplexen Medien zu gewinnen und andererseits, dies in die Autofiktion unserer Identität einzubinden. Was wir von Max Weber also übernehmen können, ist der subjektive Sinn und das darin Eingebettete, das irreduzibel ist auch vor der Summe des einzeln Geteilten. Dieser subjektive Sinn geht, so eine Ergänzungsthese, nämlich nicht vollständig darin auf, was wir denken, was andere in unser Handeln hineinlesen sollen, sondern er wird auch permanent eigeninterpretiert und zwar vor dem Horizont unserer Selbstwahrnehmung und in Hinblick auf die Stimmigkeit unseres Eigennarrativs.

Die Explizierungsmedien für unser soziales Handeln helfen uns nun, die permanente Fortschreibung dieser Identitätserzählung so systematisch zu pflegen, wie es sonst bestenfalls mit einem penibel geführten Tagebuch möglich gewesen wäre. Das Reizvolle für die Bibliotheks- und Informationswissenschaft ist in diesem Zusammenhang die zu beobachtende Ausweitung dokumentarischer Praxen in die Selbstverwaltung der Identität. Wo wir unser Leben, die Spuren, aus denen wir Erinnerung generieren können, expliziert aufzeichnen und damit, teilweise öffentlich sichtbar, nachprüfbar machen, ist es nicht unwahrscheinlich, dass wir unsere Lebensgestaltung im Sinne eine dokumentierten Kontinuität und Stimmigkeit dieser Gesamtverläufe ausrichten. Dass der Sozialdruck, entstehend aus den geteilten Reise-, Konsum- und Aktivitätsbilanzen der Anderen, eine erhebliche Rolle spielt, ist unübersehbar.

Unser Web-Selbst wird so auf bestimmte Effekte hin manipuliert bzw. manipulierbar und unser, nennen wir es mal so, Offline-Selbst daran angepasst. Gerade bei Phänomenen wie dem Online-Dating entstehen erfahrungsgemäß häufig Differenzen aus dem geweckten Erwartungsbild (oder dem angenommen geweckten Erwartungsbild) und dem tatsächlich einlösbaren Offline-Original. Rein strukturell unterstützen die Plattformen die Verwandlung unserer sozialen Repräsentation in eine vermeintlich objektiv (Statistik) bewertbare Warenförmigkeit. Dies gilt also nicht nur in Hinblick auf unsere Adressierbarkeit für Werbung, sondern auch hinsichtlich des Repräsentationsdrucks auf unsere sozialen Kontakte, die uns jederzeit aus ihrem expliziten Netzwerk entfernen können, wenn wir ihnen als unpassend oder irrelevant erscheinen.

An der Schnittstelle zum professionellen Umfeld sind entsprechende Effekte noch deutlicher. Wo potentielle Arbeitgeber in den Besitz von Partyfotos und auf dieser Grundlage zu für uns realweltlich negativen Entscheidungen kommen können (eine große Debatte vor einigen Jahren), wirken diese Strukturen automatisch auf unser Verhalten zurück. Jedes aktuelle Mobiltelefon hat eine Kamera – wir können also überall fotografiert werden und müssen entsprechend überall adäquat wirken. Fast freut man sich, dass diese Spitze der Verhaltenslenkung noch nicht in Umsetzung ist und sich die Partytouristen in Berlin-Mitte nach wie vor benehmen als gäbe es weder Instagram noch ein Morgen. Und schließlich gibt es noch diejenigen, die keine Lust (mehr) auf die Nutzung dieser Verwaltungsmedien haben, denen die Gefahr der Fremdbeobachtung und / oder der Aufwand solcher Selbst(bild)kontrolle zu hoch ist. Offen ist allerdings, was wird, wenn eine virtuelle Repräsentation normativ wird, vielleicht sogar staatlich gesteuert. Wer das für absurd hält, der sollte sich einmal mit der Geschichte des Personalausweises befassen. Dann erscheint fast folgerichtig, dass früher oder später eindeutige digitale ID-Marker für unsere virtuellen Repräsentationen als notwendig eingeführt werden.

VII

Eine schöne Herleitung der generellen digitalkulturellen Entwicklung bis heute bietet in einer nahezu enzyklopädischen Form (immerhin nach dem Untergang der Enzyklopädien und damit der Vorstellung, man könne einen allgemeinen Kanon des Faktenwissens in einer geschlossenen Form abbilden) eine im Mai erschienene und noch erhältliche Sonderausgabe des zentralen Begleitmediums der Netzkultur – der Zeitschrift Wired: Wired. The first 20 years. (Interessanterweise wurde das mittlerweile zum popkulturellen Parallelmedium etablierte und weitaus anarchischere Vice Magazine fast zeitgleich gegründet. Wer die Jahrgänge dieser Publikationen bewahrt hat, dürfte für eine Genealogie der populärkulturellen Gegenwart mitsamt der dazugehörigen Kulturindustrie eine solide Forschungsgrundlage besitzen.)

Wired - das weiße Heft

Wired. Das weiße Heft, hier platziert auf einem Retro-Liegekissen. Auf der soeben erfundenen Moretti-Skala Close-Distant-Reading lautet die Leseempfehlung für diese Ausgabe: Mittel. Wer leichtgängigen kalifornischen Selbstbespiegelungsjournalismus mag, findet exakt was er erwartet, muss es also eigentlich nur überfliegen. Wer sich gern erinnern möchte, wie alles begann mit der Netzkultur, entdeckt die richtigen Schlüsselwörter (bzw. seine Madeleines wie Proustianer sagen würden). Wer sanftmütige Insiderscherze zur Ted-Talk-Präsentationspraxis sucht, bekommt Unterhaltung für die Länge von etwa 10 Tweets. Insgesamt ist die Ausgabe ein schmuckes Sammlerstück und wir werden in zehn Jahren sicherlich mit einigem Erstaunen und nicht wenig Freude an der Nostalgie wieder hineinblättern.

Diejenigen, die in den 1990ern mit der Netzkultur anbandelten, finden zudem im Jubiläumsheft eine Dokumentation einschlägiger Leitphänomene der eigenen Vergangenheit. Die Anknüpfungspunkte von A wie Angry Birds, Apps und Arab Spring über Friendster, Microsoft (sehr ausführlich), Napster (anderthalb Spalten), Trolling („But when skillful trolls do choose to converse with their critics, they poison the discussion with more over-the-top provocations masquerading as sincere statements.”, S. 160) und Wikileaks bis Z wie ZeuS sind jedenfalls vielfältig.

Ein schöner Trigger ist natürlich das Stichwort Blogs: 1998, als die meisten nutzergenerierten Inhalte noch bei Freespace-Anbietern wie Geocities oder tripod.com lagen, existierten, so erfährt man auf Seite 34, 23 Weblogs. Webweit. Ein Jahr später waren es ein paar zehntausend und der Schlüssel war eine vergleichsweise simple Webanwendung namens Blogger eines Zwei-Personen-Unternehmens namens Pyra Labs.

Diese Geschichte, genauso wie Google, das 2003 Blogger übernahm, zeigt den faszinierenden Kern der Digitalkultur. Die entscheidenden Entwicklungen waren immer durch das Engagement weniger Akteure (eine Porträtgalerie vom Präsidenten-Fotografen Platon präsentiert von Marissa Mayer bis Tim Cook all diese Lichtgestalten in Schwarz-Weiß), sehr simple Ideen, wenig langfristiger Planung und glücklicher Fügung geprägt. All diese Spuren sind so umfassend wie bei keiner anderen mächtigen Kulturentwicklung in der Menschheitsgeschichte dokumentiert. Die heutigen Big Player der Netzkultur begannen alle mit wenig mehr als vergleichsweise minimalem Budget und einer Idee. Wo man planvoll vorging und viel Geld investierte (kottke.com), ging es meist schief.

In die vom Ende der Geschichte erschöpften 1990er Jahre drang mit dem Internet eine frische Woge Zukunft und das Versprechen lautete, dass jeder, wenn er nur einen Computer und ein Modem und etwas Fantasie hatte, eine neue Welt nicht nur betreten, sondern sogar gestalten kann. (Und außerdem mit nur einer Idee sehr reich werden.) Für die Kulturindustrie wurden zu diesem Zeitpunkt die Karten neu gemischt, was viele Vertreter der etablierten Zweige weder verstanden noch überhaupt wahrnahmen. (sh. auch Sony, S. 136)

Das konnte natürlich auch scheitern, wie beispielsweise die Idee dank Hypertext nicht-lineare Narrationsformen durchzusetzen. „You can see this as a classic failure of futurism“, schreibt Steven Johnson zum entsprechenden Stichwort (S. 92), „Even those of us who actually have a grasp of longterm trends can’t predict the real consequences of those trends.” Wirkliche Webliteratur hat sich nirgends ein Publikum erobert und selbst wer nicht-lineare Texte liebt, liest seinen Danielewski (jedenfalls nach meiner Erfahrung) doch lieber als Blattwerk.

Die Übertragung des Vernetzungsprinzips auf die Reproduktion einer Verwaltungskartei für persönliche Kontakte wurde jedoch zum derzeitigen Zentralhabitat der Webpopulation. (sh. Facebook) Das man das Hauptgewicht tatsächlich auf Identität (das Gesicht) und nicht nur auf den Kontakt (ein Rolodex 2.0 hätte gewiss allein klanglich versagt) legte, ist Teil der Rezeptur.

Das weiße Wired-Heft selbst entspricht dem flockigen, anekdotengeschwängerten und niemals langweiligen Stil, der dem Web eigen ist, ist also auch ein gutes Zeitdokument journalistischer Standards der Netzkultur und lässt sich obendrein prima am Strand lesen. Idealerweise an einem mit Netzabdeckung, denn der Artikel zum Thema QR Code ist konsequent als QR Code-Verknüpfung eingedruckt. Mindestens so erstaunlich erscheint, dass die Firma 1&1 aus Montabaur auf Seite 193 eine Anzeige schaltet, deren Anmutung schon im Jahr 1993 in Wired altbacken gewirkt hätte. Aber vielleicht gerade deshalb.

VIII

Weiß man nach der Lektüre der Ausgabe präziser, wo wir nach 20 Jahren Wired (bzw. 20 Jahren Netzpopulärkultur) stehen? Vielleicht so viel, wie man über die Literatur einer Literaturgattung weiß, wenn man den Brockhaus-Artikel oder einen Moretti-Aufsatz zum Thema gelesen hat. Man hat einen Überblick und ein paar separate Fakten. Aber ohne unmittelbare Erfahrung bleibt es blanke Oberfläche. Die unmittelbare Gegenwartserfahrung zeigt eine gewisse Konsolidierung der Nutzungspraxen, die dafür mit dem Alltag verschmelzen. Die Wired-Ausgabe zeigt auf, was die vergangenen 20 Jahre eigentlich verschoben haben und nun sitzen wir hier vor den Macbook-Air und finden es eigentlich ganz okay, wenn es einen kleinen Sprung im Display gibt, also eine Brechung der Fassade. Im Hypertext-Eintrag heißt es: „and in the long run the web needed the poets and philosophers almost as much as it needed the coders.“ (S. 92)

Das Verhältnis scheint mir längst gekippt zu sein. Digitale Frühaufklärer wie Jewgeni Morosow und Gegenrevolutionäre wie Jaron Lanier sind längst im Metadiskurs auf Augenhöhe und in gleicher Dauerpräsenz wie die lange dominanten Futuristen und Heilsverkünder anzutreffen. Diese Vielstimmigkeit ist keine schlechte Entwicklung. Auch dahingehend geschah in den vergangenen Jahren sehr viel auch an Reifung. Alle, die über zwanzig sind, wissen, dass zwanzig Jahre überhaupt kein langer Zeitraum sind. Hält man sich vor Augen, wie grundlegend und disruptiv die Kulturverschiebung eigentlich wirkt (das Wired-Heft deutet es nur an), dann lief es – auch vor dem Horizont des geschichtlichen Wissens um kulturelle Verwerfungen) – geradezu friedlich und naiv ab, was sicher auch das Resultat einer schnellen und ziemlich umfassenden Bemächtigung, Steuerung, Moderation und Gestaltung dieser Prozesse durch einen nun digitalen Kapitalismus ist.

Die Entfaltung der Schattenseiten der Technologie, ihre Intrusivität hat sich bisher mit dem Emanzipationspotential die Waage gehalten. Ihres dystopischen Gehalt sind wir uns bewusst (und wer Nachholbedarf hat, sollte Gary Shteyngarts Super Sad True Love Story lesen).

Die Einblicke in Tempora und Prism durch Edward Snowden sind sicherlich eine nächste Zäsur und ein wichtiger Schritt zum Verständnis der Risiken eine Omnikodifizierung und Vernetzung unserer Lebenswelten. In jedem Fall zeigen sie die Notwendigkeit einer übergeordneten Gegenkontrolle zum angeordneten Monitoring unserer digitalen Handlungen. Entsprechend wichtig ist auch die Rolle der Intellektuellen und eines dekonstruierenden intellektuellen Diskurses dazu. Der muss nicht zwingend in der Wissenschaft geführt werden. Aber es würde natürlich der Wissenschaft nicht schaden, wenn sie ihn führte.

Das Fruchtbare dieses Bremsdiskurses wäre übrigens, dass die Gesellschaft beständig die gesamte Bandbreite ihrer Wertvorstellungen, Wünsche und Ängste gegenüber dem digitaltechnisch Machbaren und der Digitalkultur reflektiert, um früh und deutlich genug Einspruch erheben zu können, wenn etwas aus dem Ruder läuft und wenn neue Totalisierungstendenzen gleich welcher Art entstehen. Die Literatur schafft es, uns dafür sensibel zu halten, gerade in dem sie in der Nahlektüre berührt. Ich bin mir nicht sicher, wie die Stilanalytik des Distant Readings aus dem Stanford Literary Lab dafür einsetzbar wäre.

26.06.2013

Library Life. Ein Interview zu einem interdisziplinären Forschungsprojekt.

Posted in LIBREAS aktuell, LIBREAS.Interview by libreas on 11. April 2013

von Lars Müller

In der Bibliotheks- und Informationswissenschaft spricht man häufig und gerne über die Erforschung vom Leben in und um Bibliotheken . Bibliotheks- und informationswissenschaftliche Studien dazu sind aber erstaunlicherweise im deutschsprachigen Raum Raritäten. Ebenso überraschend greifen in wachsender Zahl andere Disziplinen dieses Themenfeld auf. Eines dieser Projekte ist die Research Area 8, Cultures of Knowledge, Research, and Education im International Graduate Centre for the Study of Culture an der Universität Giessen. Dort ist Friedolin Krentel einer der Ansprechpartner für das Forschungsprojekt „Library Life“. Ich war daher neugierig auf das Giessener Projekt und habe für das LIBREAS-Blog per E-Mail nachgefragt.
Lars Müller (LM): Aus welchen Disziplinen stammen die beteiligten Forscher/innen Eurer Arbeitsgruppe, sind Bibliotheks- und Informationswissenschaftler/innen beteiligt?

Friedolin Krentel (FK): Unsere Arbeitsgruppe zu „Library Life“ ist aus disziplinärer Hinsicht sicherlich ein bunt zusammengewürfelter Haufen. Sie setzt sich heute aus etwa 8 bis 10 Wissenschaftler*innen zusammen, die aus ganz unterschiedlichen Fachrichtungen wie Ethnologie, Germanistik, Geschichte, Informatik, Literaturwissenschaften, Medienwissenschaften und den Sozialwissenschaften kommen. Ausgewiesene Bibliotheks- und/oder Informationswissenschaftler*innen sind leider nicht dabei. Ich könnte mir aber durchaus vorstellen, dass sich die Vielfalt unserer disziplinären Hintergründe zusammengenommen im Zusammenspiel mit unserem Forschungsinteresse sicherlich in mancherlei Hinsicht mit informationswissenschaftlichen Ansätzen und Perspektiven assoziieren lässt.

LM: Worauf richtet sich Euer Erkenntnisinteresse: Alltag der Forscher/innen, Entstehung von Wissen oder Information, Bibliothek als Raum…?

FK: Unser Projekt entwickelte sich innerhalb der Research Area 8 über einen Zeitraum von beinahe zwei Jahren aus einer intensiven Beschäftigung mit Texten der Akteur-Netzwerk-Theorie (ANT) um Bruno Latour und Michel Callon. Das kann man zum Beispiel auch am Titel „Library Life“ sehen, der bewusst auf die von Bruno Latours und Steven Woolgars 1979 publizierte Untersuchung namens „Laboratory Life“ (Bruno Latour, Steve Woolgar (1986): Laboratory life. The construction of scientific facts. Beverly Hills : Sage Publ, 1979. Wikipedia-Seite zur Publikation) anspielt. Die Studie beschäftigt sich mit Praktiken der Wissensproduktion in naturwissenschaftlichen Laboren und liefert wichtige Impulse für die fortlaufende Entwicklung der ANT.

In „Library Life“ wollen wir nun in gewisser Weise mit der ANT experimentieren, um zu überprüfen, inwiefern deren analytisches Instrumentarium sich auch für sozial- und geisteswissenschaftliche Wege der Wissensproduktion nutzen lässt bzw. welche neuen Erkenntnisse und Beschreibungen sich aus dieser Perspektive ergeben. Unser Fokus liegt auf der Rekonstruktion der individuellen Praktiken der Wissensorganisation und Textproduktion von Sozial- und Geisteswissenschaftler*innen. Dabei wollen wir sowohl ideelle, praktische als auch materielle Einflussfaktoren des wissenschaftlichen Arbeitsalltags aufzeigen, um damit den Prozess der Wissensgenerierung “sichtbarer” und „(be-)greifbarer“ beschreiben zu können.

Gerade angesichts einer immens fortschreitenden Umstellung der Arbeitsumgebungen im Zuge von „Computerisierung“ und Vernetzung der verwendeten Werkzeuge und Hilfsmittel sowie der möglicherweise parallelen Verwendung von „analogen“ (Zettelkasten, Karteikarten, handschriftliches Exzerpieren) und „digitalen“ (Literaturverwaltungsprogramme, vernetzte Suchalgorithmen, relationale Datenbanken, kollaborativ-vernetztes Arbeiten) Methoden, kann hier von einer Vielfalt unterschiedlichster Vorgehensweisen und Strategien zur Erzeugung wissenschaftlicher Erkenntnisse ausgegangen werden.

LM: Wie lautet Eure forschungsleitende These?

FK: Analog zu den laboratory studies nehmen wir als heuristische Arbeitshypothese an, dass die Arbeitszimmer, Bibliotheken und Büros die Labore, respektive Werkstätten sozial- und geisteswissenschaftlicher Wissensproduktion sind. Als Arbeitsorte oder Arbeitsumwelten mit einer spezifisch gestalteten Logik, materiellen Ausstattung sowie bestimmten Eigenschaften und Eigenarten sind sie unmittelbar in die Praktiken des wissenschaftlichen Erkenntnisprozess involviert und werden zugleich durch diese Praktiken als (sozial- und/oder geistes-)wissenschaftliche Handlungsorte hervorgebracht. Der wissenschaftliche Erkenntnisprozess findet damit nicht „nur“ auf einer rein geistigen Ebene statt, sondern beinhaltet immer auch einen praktischen (und zumeist wenig reflektierten) Umgang mit in gewisser Weise auch widerspenstigen Elementen der Arbeitsumwelt. Dabei kann es sich auf der einen Seite um ganz offensichtliche Dinge wie Computer, spezielle Programme, Bücher, Notizen usw. handeln. Aber ebenso könnten auch Dinge wie Lieblingsstifte, Bilder, Skulpturen, der Blick aus dem Fenster, die Kaffeemaschine im Büro, Pflanzen usw. eine Rolle spielen. Die Liste ließe sich sicherlich nahezu unendlich fortsetzen, man muss sich nur mal überlegen was am eigenen Schreibtisch so alles herumsteht oder liegt.

Mit dem von der ANT postulierten „symmetrischen Blick“ auf Wissen schaffende Praxen, gehen wir also davon aus, dass diese materiellen Ensemble im Zusammenspiel der im Umgang mit ihnen durchgeführten Praktiken direkt in die inhaltliche und formale Gestalt wissenschaftlicher Texte einfließen. Entsprechend sieht unsere empirische Datenerhebung ausdrücklich vor, das jeweilige Arbeitsumfeld und dessen Ausstattung und Dinge einzubeziehen.

LM: Welche Methoden benutzt ihr?

FK: Die Auswahl geeigneter Methoden für unser Unterfangen war innerhalb der interdisziplinären Forschungsgruppe ein längerer Prozess. Im Kern ging es darum, die methodologischen Anforderungen des Forschungsinteresses mit dem dazu notwendigen individuellen Aufwand für die parallel an ihren jeweiligen Dissertationen arbeitenden Doktorand*innen der Arbeitsgruppe abzuwägen.
Da es uns unmöglich erschien neben der Dissertation eine ethnografische Beobachtung der häufig mehrere Monate oder gar Jahre andauernden Arbeit an wissenschaftlichen Texten in Aktion im Sinne der ANT durchzuführen, versuchen wir mittels narrativer Interviews einen Reflexionsprozess bei den Interviewpartner*innen über ihr eigenes Tun anzustoßen. Sie sollen damit sozusagen zu Ethnograf*innen ihrer Selbst werden und uns – orientiert an einem von ihnen publizierten Artikel – dessen Entstehungsgeschichte rekonstruierend erzählen. Um die dinglichen, körperlichen und praxeologischen Dimensionen der Wissenserzeugung nicht aus dem Blick zu verlieren, entschieden wir uns dazu, die Interviews an dem von den Interviewpartner*innen als ihrem textspezifisch-persönlichen Hauptarbeitsort – sei es nun in der Bibliothek, dem Büro oder auch ein privates Zimmer – benannten Ort durchzuführen. Die Interviews werden jeweils zu zweit durchgeführt, so dass immer eine Person sich auf die Beobachtung des räumlich-materiellen Ensembles sowie dessen gestische Einbeziehung in die Erläuterung konzentrieren kann. Die Beobachtungen sowie unser im Vorfeld für die materiell-praxeologischen Dimensionen sensibilisierte Blick dienen dann im späteren Verlauf des Interviews dazu, möglichst offene Fragen zu konkreten Umgangsweisen und Bedeutungen einzelner erwähnter, gezeigter oder auch unerwähnter Elemente zu stellen.

Als Vorbereitung für die Interviews identifizierten wir aus unseren eigenen Arbeitsweisen potentiell relevante Aspekte und entwickelten daraus eine Art Leitfaden, der aber bestenfalls erst dann zum Einsatz kommen soll, wenn sich aus dem Interview selbst oder den Beobachtungen keine weiteren Fragen mehr ergeben. Die freie Erzählung unserer Interviewpartner*innen soll im Vordergrund stehen! Da es innerhalb unserer Forschungsgruppe unterschiedlich ausgeprägte Erfahrungen mit Interviews (und speziell narrativen Interviews) gibt, soll der Leitfaden auch als eine Hilfestellung für die unerfahreneren Kolleg*innen dienen.
Mit Einverständnis der Interviewpartner*innen würden wir im Anschluss an das Interview auch noch versuchen einzelne wichtige Elemente und/oder den gesamten Arbeitsraum mittels Videokamera und Fotoapparat zu dokumentieren, um diese dann für die Analyse in der Gruppe nutzen zu können und den individuellen Erinnerungsprozess beim Schreiben und Auswerten der Beobachtungsprotokolle zu unterstützen.

LM: Wie ist die Gruppe der Untersuchten zusammengesetzt?

FK: Als Sample für unsere Interviewanfragen haben wir in erster Linie persönlich bekannte Wissenschaftler*innen aus unterschiedlichen geistes- und sozialwissenschaftlichen Disziplinen und in verschiedenen Karrierestadien – von Doktorand*in bis Professor*in – ins Auge gefasst. Aufgrund der teilweise in privaten Bereichen stattfindenden Interviews, erscheint uns ein gewisses bereits im Vorfeld bestehendes Vertrauensverhältnis wichtig für den Zugang und die individuelle Bereitschaft für ein Interview. Insgesamt werden wir – zumeist zu zweit und in unterschiedlichen Konstellationen – jeweils zwei Interviews führen, wodurch sich unsere Untersuchungsgruppe auf insgesamt etwa 10 Personen begrenzen lässt. Zusätzlich überlege ich derzeit, ob es nicht auch interessant wäre, unsere eigenen wissenschaftlichen Arbeitsweisen innerhalb von „Library Life“ zu beobachten. Als Ausgangspunkt könnte beispielsweise unsere Klausurtagung zur gemeinsamen Sichtung und Analyse des Datenmaterials dokumentiert werden und für eine Art Metaanalyse dienen.

LM: In welcher Phase befindet sich das Projekt „Library Life“ zur Zeit?

FK: Die Phase der Datenerhebung per Interviews läuft. Sie wird sich noch bis Ende Mai hinziehen. Soweit ich weiß, wurden bereits erste Interviews geführt und einige Zusagen sind ebenfalls eingegangen, die dann im April/Mai in Angriff genommen werden. Für Anfang Juni haben wir uns mit der bereits erwähnter Klausurtagung eine klare Deadline gesetzt, zu der die Interviews definitiv abgeschlossen sein sollten. In dieser Klausurtagung wollen wir uns dann gemeinsam über mehrere Tage den Daten und ihrer Analyse widmen, um wichtige Aspekte herauszuarbeiten, die anschließend in kleineren Gruppen vertiefend behandelt werden können. Außerdem steht auf der Klausurtagung noch an, dass wir uns angesichts der vorläufigen Ergebnisse über mögliche Publikationsformate einigen, womit wir dann ja auch gleich bei der nächsten Frage angekommen sind.

LM: Ich bin gespannt auf Eure Ergebnisse. Wann und wo werdet ihr sie publizieren?

FK: Wie gesagt, steht das wo und wie noch nicht fest. Wir haben in diversen Arbeitstreffen zwar bereits mehrere Male das Thema Publikationsformen angesprochen, konnten und wollten uns da aber noch nicht endgültig festlegen. Die Tendenz geht aber – aus meiner Sicht – dahin, dass wir uns den November diesen Jahres als Deadline setzen, zu der wir uns gegenseitig und daran anschließend sicherlich auch noch auf unterschiedlichen Tagungen die Teilergebnisse der einzelnen Arbeitsgruppen vorstellen werden. Wie diese dann abschließend fixiert werden, sei es nun als gemeinsamer Sammelband, einzelne Artikel oder auch in Form einer Ausstellung oder online-Präsenz (oder auch mehrere Formate parallel) kann ich jetzt noch nicht sagen. Ich denke aber, dass wir dann im Juni weiter sind. Wer sich also dafür interessiert, kann sich bereits jetzt oder dann im Juni hoffentlich ausführlicher auf der Homepage der Research Area 8 informieren.

Zum Abschluss möchte ich mich für die spannenden Fragen bedanken, die mir einerseits die Möglichkeit eingeräumt haben, „Library Life“ vorzustellen, die mich aber darüber hinaus auch dazu angeregt haben, unser Projekt nochmal neu zu reflektieren und zu formulieren. Vielen Dank!

LM: Ich danke Dir!

(April 2013)

It’s the frei<tag> 2013 Countdown (11): What? (Literaturverwaltung, Beispiel)

Posted in LIBREAS aktuell, LIBREAS Veranstaltungen by Karsten Schuldt on 10. März 2013

von Karsten Schuldt

I.

Letzte Woche fand in der Humboldt-Universität zu Berlin die Inetbib-Konferenz statt. Eine wichtige Veranstaltung, bei der unter anderem der Redaktionskollege Matti Stöhr einen Vortrag zu Literaturverwaltungen und Bibliotheken hielt, wo er unter anderem darauf insistierte, dass Bibliotheken nicht nur für eine oder zwei Literaturverwaltungssysteme Beratung anbieten sollten, sondern ihrem Anspruch als Einrichtungen, die einen möglichst grossen Zugang zu Wissen ermöglichen, entsprechend, auch möglichst viele Alternativen zur Literatursverwaltung nachweisen sollten. Das Bibliotheken Beratungen zur Literaturverwaltung anbieten sollen wurde in diesem Vortrag und auch der folgenden Diskussion vorausgesetzt. Niemand hat dem widersprochen.

II.

Zum Wochenende nach der Inetbib-Tagung ging ich mit einer Freundin aus, die ich sehr hoch schätze und die mich mit ihrer Intelligenz immer wieder von überzeugt. Zwei kleine charakterliche Schwächen weisst sie allerdings auf: Erstens will sie – warum auch immer – ihre jetzige Beziehung gegen alle Flirtversuche einfach beibehalten und zweitens weigert sie sich, Bibliothekswissenschaftlerin zu werden, will stattdessen einfach weiter Physikerin bleiben und demnächst in dieser Disziplin ihre Promotion beginnen. An beiden Schwächen kann ich mich seit Jahren abarbeiten.

Diese Freundin besuchte desletztens die jährliche Tagung der deutschen physikalischen Gesellschaft. Sie berichtete, dass sie dort eine Informationsveranstaltung besuchte, auf der ein Sprecher angeblich informationswissenschaftliche Themen besprechen wollte, aber eigentlich eine Software vorstellte, mit der Wissenschaftlerinnen und Wissenschaftler in der Lage sein sollen, ihre Literatur zu verzeichnen, die PDFs dazu zu speichern, diese zu durchsuchen und im Allgemeinen zu verwalten. Besagte Freundin war von diesem obskuren Programm „Mendeley“ so begeistert, dass sie die letzten Tage damit verbrachte, mit dessen Hilfe tatsächlich ihre gesamte Forschungsliteratur zu verzeichnen.

Wie gesagt: Ich traue dieser Frau vieles zu und halte ihre Intelligenz für ausserordentlich hoch. Allerdings scheint ihr, die wirklich viel von mir zu Bibliotheken, Informationsverwaltung, Informationswissenschaft etc. gehört hat und selber seit einigen Jahren im physikalischen Forschungsprozess aktiv ist, die Idee eines Literaturverwaltungsprogrammes so neu und so radikal richtig zu erscheinen, dass sie es erst zufällig jetzt entdeckt hat. Das kann nicht daran liegen, dass sie bislang ignorant durch die Welt gegangen wäre. Im Gegensatz zu vielen anderen Physikerinnen und Physikern benutzt sie sogar ihre Universitätsbibliothek. Eigentlich hat die Bibliothek ihre Chance gehabt, sie an Literatursverwaltungssoftware heranzuführen.

Wie auch immer die "anderen", die die mit Bibliotheken etwas anderes als "wir" oder gar nicht zu tun haben, ticken ist offenbar so einfach gar nicht zu verstehen. Mag sein, dass wir wissen, was für sie besser wäre (Wirklich? Denken wir nicht eher nur, wir würden es wissen? Braucht die Welt vielleicht Datenbanken gar nicht so sehr, wie wir denken?), dass heisst nicht, dass die "anderen" es auch so sehen. Es zu verstehen ist offenbar immer "nur" ein Versuche. Oder, um in der Sprache der aktuellen Ausstellung in der NGBK (hier auf dem Bild) zu bleiben, ein Versuch den state of mind zu rekonstruieren.

Wie auch immer die „anderen“, die die mit Bibliotheken etwas anderes als „wir“ oder gar nicht zu tun haben, ticken ist offenbar so einfach gar nicht zu verstehen. Mag sein, dass wir wissen, was für sie besser wäre (Wirklich? Denken wir nicht eher nur, wir würden es wissen? Braucht die Welt vielleicht Datenbanken gar nicht so sehr, wie wir denken?), dass heisst nicht, dass die „anderen“ es auch so sehen. Es zu verstehen ist offenbar immer „nur“ ein Versuche. Oder, um in der Sprache der aktuellen Ausstellung in der NGBK (hier auf dem Bild) zu bleiben, ein Versuch den state of mind zu rekonstruieren.

III.

Ist das ein Einzelfall? Ich vermute eher nicht. Aber es ist eine erstaunliche Überraschung, die man auch nur entdeckt, wenn man sich direkt in die Realität begibt. Wir als Bibliothekswesen scheinen beispielsweise vorauszusetzen, dass Literaturverwaltungsprogramme sinnvoll sind – und deshalb hat der Kollege Stöhr auch Recht, wenn er darauf verweist, dass Bibliotheken mehr als ein Programm (und dann meist auch noch ein eher mittelmässiges, dass oft nur auf einen mittelmässigen Betriebssystem läuft) begleiten sollten. Aber die Wissenschaft funktioniert offenbar auch dufte ohne ein solches Programm. (Von der gleichen Freundin kann ich berichten, dass sie mich kurz vor ihrer Masterarbeit fragte, ob ich ihr einmal recherchieren zeigen kann, weil das Studieren und Forschen bis dato offenbar auch ohne Recherche funktioniert hatte.)

Einst, als ich in einer Öffentlichen Bibliothek ein Praktikum absolvierte, kam ein Nutzer, der dort immer war, zu mir und fragte, ob es in der Bibliothek ein Buch gäbe, in welchem steht, wie die Worte richtig geschrieben werden, damit man nachschlagen kann, wie es richtig wäre. Auch da habe ich eine Zeit gebraucht, den Fakt zu verarbeiten, dass er von etwas sprach, was ich als bekannt voraussetzen würden: den Duden halt.

Was mich in solchen Fällen immer wieder trifft ist gar nicht die Erkenntnis, dass man, wenn man nur lange genug die eigene Schicht, das eigene Bildungskapital und die eigenen Peer Groups „ignoriert“ sehr schnell Dinge als bekannt und selbstverständlich voraussetzt, die es nicht sind. Vielmehr drängt sich mir immer wieder die Frage auf: Wie kriegen wir als Bibliotheken eigentlich heraus, was wir fälschlich voraussetzen? Es kann ja keine Strategie sein, die ganze Zeit mit Forschenden aus anderen Disziplinen zu flirten oder auf erstaunliche Anfragen von Nutzerinnen und Nutzern zu warten. Aber über die Frage selber bin ich bislang nicht herausgekommen.

Überlegungen zum Verhältnis von Mensch und Technik in Wissenschaftsinfrastrukturprojekten.

Posted in LIBREAS.Referate by Ben on 7. Januar 2013

zu:

Sonja Palfner, Ulla Tschida: Grid: Technologie und soziale Praxis. In: Technikfolgenabschätzung. Theorie und Praxis. 21 / Heft 2. November 2012. S. 50-53

Unter den Projekten zur Digitalisierung der Wissenschaftspraxis in der Bundesrepublik der 2000er Jahre ragt die D-GRID-Initiative markant hervor. Das begründet sich einerseits aus ihrem Anspruch heraus, Grid-Computing in enger Kooperation mit den Fachcommunities in der Fläche zu etablieren. Und andererseits aufgrund des erheblichen Fördervolumens, das sich freilich nach dem Anspruch richtete. Die enge Verzahnung zwischen informatischer Innovation und fachwissenschaftlichen Ansprüchen prädestinierte die Initiative für eine wissenschaftssoziologische Begleitforschung. Technologie ist unzweifelhaft grundsätzlich vor allem soziales Geschehen. Auch die Entscheidung des BMBF zur massiven Förderung genau dieses Ansatzes ist Ergebnis sozialer Interaktionen. Aktuell bewegen sich diese um die Frage, wie, wo und in welcher Form die entwickelten Infrastrukturelemente und forschungsbegleitenden Werkzeuge mitsamt der für sie notwendigen Weiterentwicklung verstetigt werden können? Die technischen Möglichkeiten selbst wirken gewiss dispositiv auf das Machbare. Was aber tatsächlich umgesetzt wird, resultiert aus einer komplexen Wechselwirkung diverser Faktoren – von Budgets über die Motivation, Interessen, Konkurrenzkonstellationen und Kompetenzen von Einzelakteuren bis hin zu rechtlichen Gesichtspunkten.

Sonja Palfner und Ulla Tschida, die die D-Grid-Initiative aus einer techniksoziologischen Perspektive beforschen, rücken in ihrem kurzen Beitrag für die Zeitschrift Technikfolgenabschätzung die Frage nach dem Verhältnis zwischen den Fachgemeinschaften und den Entwicklern ins Zentrum, eine Frage also, die sich zwangsläufig auch der Bibliothekswissenschaft stellt. Denn einerseits sind wissenschaftliche Bibliotheken grundsätzlich ebenfalls Dienstleister für die Wissenschaftspraxis. Und andererseits sind Digitale Bibliotheken durch und durch informatische Ensemble. Die Entwicklung Digitaler Bibliotheksdienstleistungen, die sinnvollerweise konsequent mit dem Ziel der tatsächlichen Inanspruchnahme durch die Bibliotheksnutzer erfolgen muss, bewegt sich folglich in einem Spannungsverhältnis ähnlich dem, das die Autorinnen anhand von drei Konstellationstypen aufschlüsseln.

Beim ersten Typ dominiert die Fachwissenschaft die Informatik. Die Entwickler sollen passgenaue Dienste nach den Bedürfnissen und Ansprüchen der Wissenschaftler entwickeln. Das Problem dabei liegt jedoch in der Dynamik exakt dieser Ansprüche. Die Autorinnen betonen, dass „ein etablierter Service […] durch die Forschung selbst quasi ständig aus der bekannten Routine gerissen werden [kann].“ (S. 53)

Geht man von einer idealtypischen Wissenschaft, also einem permanenten Erkenntnisfortschritt mit sich verschiebenden Forschungshorizonten aus, dann ist das nicht einmal ein Kann-Zustand, sondern elementar: Es gibt in der Wissenschaft bestenfalls zeitweilige Stabilisierungen und Konsolidierungen in Routinen, die aber naturgemäß je nach Überarbeitung der Thesen, Forschungsfragen und Erkenntniszielen eher früher als später selbst infrage gestellt werden. Dauerhafte Routinedienste für die Wissenschaft sind hierbei bestenfalls im Sinne von Basiskonzepten und vor allem von Standards für Begleit- und Nachweisdienste (Forschungsdokumentation, Datenarchivierung), also metawissenschaftlich, denkbar. Je konkreter die Forschungspraxis und das dazu entwickelte Werkzeug (bzw. je näher an der so genannten Forschungsfront), desto zwingender wird auch eine Weiter- oder gar Neuentwicklung dazugehörender Anwendungen werden.

Was bleibt, sind Lessons-Learned- und Best-Practice-Erkenntnisse, die den jeweiligen Anpassungen zugrunde liegen. Bei einer engen Verzahnung von Bibliothek bzw. Dokumentation mit Forschungsprojekten wäre es beispielsweise ein Embedded Librarian, der mit einem diesbezüglichen Erfahrungswissen hinzugezogen wird und eine Grundsolidität der für ein Projekt notwendigen technischen Begleitdienste garantiert. Und der vielleicht entscheidet, ob auf etablierte Anwendungen zurückgegriffen werden kann/sollte oder Neu- bzw. Weiterentwicklungen unumgänglich sind. Denn ohne Zweifel gibt es trotz des oben Gesagten weite Bereiche der Wissenschaftspraxis, die methodische Nachnutzungen auch aus (wissenschafts-)ökonomischer Sicht als pragmatische Lösung zweckmäßig erscheinen lassen. Wer mit Projektwissenschaft vertraut ist, weiß, dass ein kompromissloses Streben nach neuer Erkenntnis in der Praxis eher die Ausnahme als die Wissenschaftsregel darstellt. Offen bleibt dennoch auch dann, ob bzw. wann man die Forschungsfrage den zur Verfügung stehenden Werkzeuge anpasst oder Werkzeuge zur Forschungsfrage entwickelt. Pauschal ist sie in einer hochdifferenzierten Wissenschaftswelt nicht zu beantworten.

Die zweite Konstellation bezeichnen die Autorinnen als „Service in the making“ und meinen vermutlich einen Ansatz im Einklang mit der beschriebenen Entwicklung: Eine Softwarelösung wird konkret für ein Problem oder einen Forschungsansatz entwickelt. Entwicklerkapazitäten wären unmittelbar und auf Augenhöhe mit den fachwissenschaftlichen Kapazitäten in ein Projekt einzubinden.

Für Bibliotheken könnte man analog eine permanente Interaktion mit den Bibliotheksnutzern parallel stellen. Hier wäre also direkt eine Bibliothekswissenschaft angesprochen, die die Praxen und Entwicklungen in der Wissenschaftskommunikation systematisch analysiert und zu Hinweisen und Leitlinien für die Praxen und Entwicklungen im Bibliothekswesen weiterverarbeitet. Wenn der Bibliothekswissenschaft in diesem Zusammenhang eine Aufgabe zufällt, dann die, den Akteuren der wissenschaftlichen Literatur- bzw. Informationsversorgung – vorrangig aber eben nicht nur Bibliotheken – Orientierungswissen zur Verfügung zu stellen.

Der dritte Konstellationstyp invertiert schließlich das Verhältnis des ersten. Die fachwissenschaftliche Herausforderung dient hier nur als Aufhänger für die Produkt- oder Serviceentwicklung. Die Autorinnen sprechen von der „Materialisierung des informatischen Erkenntnisgewinns.“ (S. 53) Löst man dies von der Wissenschaftspraxis ab, findet man sich schnell im Bereich kommerzieller Software-Entwicklung, zum Beispiel bei Social-Media-Anbietern, die Erkenntnisse der Sozialen Netzwerk-Analyse benutzen, um die Algorithmen hinter ihren Plattformen zu optimieren.

In der Realität finden sich die Konstellationen selten trennscharf ausgeprägt. Vielmehr dürften sie sich selbst dynamisch entwickeln. Persönliche Motivationen dürften ebenso wie Ressourcenlagen und bestimmt auch Opportunitätsüberlegungen eine wichtige Rolle bei der Ausprägung der Schwerpunkte in diesem Wechselspiel zwischen Fachwissenschaftlern und Entwicklern einnehmen. Zumal auf einer Individualebene in der Praxis häufig Doppelrollen übernommen werden. Nicht selten dominieren Akteure, die sowohl einen fachwissenschaftlichen wie auch einen informatischen Hintergrund besitzen. Kombinationsstudiengänge fördern korrespondierend solch interdisziplinäre Grundausrichtungen, wobei sich die wissenschaftssoziologische Überlegung anschließt, inwieweit sich hierdurch bestimmt wissenschaftliche Eliten gezielt etablieren (können). Angesichts der wahrscheinlichen Intensivierung von Verfahren aus den so genannten Digitalen Geisteswissenschaften (bzw. Digital Humanities) ist so beispielsweise die Kombination einer geisteswissenschaftlichen Abschlusses mit einem computerwissenschaftlichen berufsstrategisch sicher eine bessere Wahl, als sich allein beispielsweise auf die Literaturwissenschaft zu konzentrieren. Interdisziplinarität meint in der heutigen Wissenschaftslandschaft möglicherweise weniger den Spagat zwischen zwei Disziplinen und mehr den zwischen einer fachwissenschaftlichen (theoretischen) und einer wissenschaftspraktischen Qualifikation.

Welche der drei Konstellationen sich tatsächlich wie entfaltet, lässt sich naturgemäß durch die Begleitforschung erst im Nachgang eines Projektes abschließend ermitteln. Sie kann aber fraglos, analog u. a. zur Diskursanalyse, die bestimmte Trends in sich konkret vollziehenden Diskursen zu erkennen und zu konstatieren und so auf den Diskurs Einfluss zu nehmen vermag, schon während der Durchführung eines Projektes, feststellen, wie sich Verteilungen entwickeln (Dominanz der Fachwissenschaft oder Dominanz der Informatik) und auf Abweichungen von einer angestrebten Ideallinie in diesem Verhältnis mit dem Ziel einer Korrektur hinweisen. Dies setzt selbstverständlich voraus, dass entsprechende Schwerpunkte und auch Parameter zwischen den Beteiligten ausgehandelt wurden. Beziehungsweise mitunter sogar, dass zunächst einmal ein Verständnis für die soziologische Grundierung dieses Verhältnisses zwischen Wissenschaft und Service für die Wissenschaft besteht. Also eine Sensibilität für die soziale Bedingtheit der Beziehung zwischen dem forschenden Menschen und den technischen / technologischen Dispositiven (Infrastrukturen, Bibliotheksdienste, Software) seiner Forschung sowie denen, die für die Bereitstellung und Entwicklung dieser Dispositive zuständig sind (Rechenzentren, Bibliotheken, Entwickler).

( Ben Kaden / Berlin / 07.01.2013 )

(Anmerkung: Ben Kaden ist aktuell wissenschaftlicher Mitarbeiter im TextGrid-Projekt.)

Call for Papers: Forschungsdaten, Metadaten, noch mehr Daten. Forschungsdatenmanagement

Posted in LIBREAS Call for Papers by libreas on 12. Dezember 2012

Call for Papers für die LIBREAS-Ausgabe #23
Thema:
Forschungs- und andere Daten sowie ihre Organisation und Rolle in Bibliothek und Wissenschaft
Einreichungsfrist: bis 31.05.2013 14.07.2013 19.08.2013
gewünscht sind: Beiträge, die Wechselwirkungen zwischen Wissenschaft, Daten und Bibliotheken reflektieren, annotieren, dekonstruieren und/oder analysieren
disziplinäre Einschränkungen: keine
Rückfragen: redaktion@libreas.eu

„Eine Forschung, die zunehmend durch die kooperative Tätigkeit weltweit vernetzter Communities und durch den Einsatz Computerbasierter Verfahren bestimmt ist, erfordert nun einmal die kontinuierliche und vor allem langfristige Verfügbarkeit von Publikationen und Forschungsdaten über das Internet. Nicht nur die Notwendigkeit, Forschungsergebnisse durch den Rückgriff auf die diesen Ergebnissen zugrunde liegenden Daten verifizieren zu können, sondern auch die produktive Nachnutzung von Forschungsdaten in anderen Kontexten setzt voraus, dass digital kodierte Information über Jahrzehnte hinweg authentisch verfügbar bleibt.“ (Matthias Kleiner. Vorwort. In: Heike Neuroth et al. (2012), S. 9)

„Die Basis einer gesunden Ordnung ist ein großer Papierkorb.“ (Kurt Tucholsky. In: Neue Leipziger Zeitung, 19.08.1930)

 

Wissenschaft produziert heute neben Erkenntnis vor allem immense Datenmengen. Die enorme Steigerung beruht in erster Linie auf der Entwicklung und Verfügbarkeit von Technologien zur Datenproduktion und -verarbeitung. leistungsstärkere Rechner und Messgeräte produzieren und vernetzen immer mehr Daten. Wo viele Daten sind, kommen fast naturgesetzlich immer noch mehr hinzu. Die Datenmengen, eines  Large Hadron Collider (LHC) in Genf sind derart umfangreich, dass sie nicht einmal mehr an einer zentralen Stelle gespeichert werden können, sondern auf das LHC Computing Grid verteilt werden müssen. Aber auch im Alltag entstehen immer mehr Daten „nebenher“, beim Surfen im Netz, beim Chatten, beim Taggen von Dateien usw. Nahezu jeder Klick erzeugt auch neue Daten.

Die Entwicklung führt zu umfassenden Änderungen der Wissenschaft, ihrer Methoden und besonders den Anforderungen an ihre Werkzeuge sowie an die Wissenschaftsinfrastrukturen. Datenintensive Forschung braucht angemessene Hilfsmittel. Physikerinnen und Physiker, die mit Daten aus LHC-Experimenten arbeiten wollen, müssen lernen, Daten aus dem Grid zusammensammeln und auszugeben. Sozialwissenschaftlerinnen und -wissenschaftler, die theoretische Modelle zum Zusammenhang von Hochschulsystem und Städteplanung über mehrere Staaten hinweg testen wollen, können dafür auf eine umfassende Datenlage zurückgreifen. Sie müssen aber diese kennen, finden und weiterverarbeiten können.

Angesichts dieser empirischen Wende könnte das Testen theoretischer Modelle bald der Vergangenheit angehören. Jim Gray formulierte die These, dass wir in die Zeit des vierten Forschungsparadigmas eintreten würden. (Hey, Tansley & Tolle, 2009) Die Forschungsdatenbestände würden zu groß werden, um überhaupt noch anders als mit explorativer Statistik, also einer Art Datenhermeneutik, auswertbar zu sein. Ob dies für alle Wissenschaften zutrifft, ist offen.

Folgerichtig wird die Bedeutung von langfristig und offen verfügbaren Forschungsdaten für den Forschungsprozess immer stärker betont. Man entwirft Systeme, die die Reputation einer Forscherin, eines Forschers an die erstellten Daten binden sollen. Diese Diskussion überdeckt eine andere Wahrheit: Immer noch sitzen die Theologinnen und Theologen an ihren Schreibtischen und produzieren nicht viel mehr Daten als in den Jahrhunderten zuvor. Sie benutzen aber möglicherweise zunehmend digital vorliegende Quellen. So geht es vielen Disziplinen: Einige, wie die Physik oder die Klimaforschung, erzeugen permanent riesige Datenmengen. Bei anderen ist vielleicht nicht das Wachstum der eigens produzierten Datenmengen überwältigend. Wohl aber die Zahl der durch die Digitalisierung direkt abrufbaren Datenbestände. Um diese ordentlich zu nutzen, sind adäquate Erschließungs- und Vermittlungsverfahren sowie Werkzeuge notwendig.

Wie soll Forschungsdatenmanagement funktionieren? (more…)