LIBREAS.Library Ideas

Nach Feyerabend. Wieder ein Methodenzwang? Eine Skizze zum Diskurs um Digitale Bibliothek, Digitalkultur und Digital Humanities.

Posted in LIBREAS aktuell, LIBREAS.Feuilleton by Ben on 8. April 2014

von Ben Kaden (@bkaden)

I. Digital Humanities als Begleitforschung zur Gegenwart

Noch relativ neu, aber bereits alt genug, um im gutsortierten Berliner Remittentenfachhandel zum halben Preis angeboten zu werden, ist der Sammelband Digital Humanities aus der Reihe Nach Feierabend, also dem Zürcher Jahrbuch für Wissensgeschichte. Die Halbwertzeit derartiger Printpublikationen nähert sich offenbar der von Publikationen im Web. Bei der DNB ist der Titel dagegen offenbar noch nicht einmal im Haus (Stand: 07.04.2014). So schnell also rotiert die Buchhandels- und Diskursmaschinerie. Aber vielleicht ist doch alles anders und es handelt sich nur um Messeexemplare.

Es ist ein faszinierendes Symptom der digitalen Gegenwart, dass sich Wissensgeschichtsschreibung nicht zuletzt anhand der sozialen Begleitmedien für alle Ereignisse und Phänomene, die sich in der Reichweite entsprechend aktiver Akteure (beispielsweise einer vitalen Twitter-Community) befinden, in Echtzeit und teilweise sogar bewusst mit dieser Rolle vollzieht.

Das Buch zur Debatte ist dann eigentlich vor allem ein fixierter Zwischenmarker, der nach herkömmlichen Mustern die Dynamik eines ununterbrochenen Gesprächs bündelt und greifbar macht. So ein Sammelband hascht in gewisser Weise nach all den Diskursfäden und -topoi, die im Sozialen Netz der Tagungen und Symposien und im Social Web des digitalen Austauschs herumschwirren, fängt einige davon ein und setzt sie fest. Er schlägt damit die Brücke zwischen einer unsteten, weitgehend informellen Diskurssphäre und der Wissenschaftskultur, die eine klare Referenz zu einem in einer Bibliothek dokumentierten Text nach „externer Begutachtung, gründlicher Überarbeitung, redaktioneller Bearbeitung und nochmaliger Überarbeitung“ (Hagner, Hirschi, 2013, S. 10) als Beweis dafür braucht, dass es sich um legitim adressierbare Positionen handelt.

Daran zeigt sich eine ganz besondere Kluft in der Wissenschaftskultur der Gegenwart. Denn die beiden Sphären der Kommunikation über geisteswissenschaftliche Themen und Gegenstände – informell und digital, formalisiert und als ISSN- oder ISBNisierte Publikation – verwässern die Stabilität der möglichen Forschungsmaterialien. Die disziplinären Gemeinschaften müssen eigentlich genauso neu aushandeln, was für sie eine legitime Material- und Referenzbasis darstellt, wie die Bibliotheken entscheiden müssen, welches digitale Objekt eine Publikation darstellt, die in ihr Sammelraster passt.

Wenn man wollte, könnte man Digital Humanities auch als geisteswissenschaftliche Auseinandersetzung mit rein digitalen Forschungsgegenständen betrachten. Das wäre eine ganz einfache Abgrenzung. Wahrscheinlich zugleich aber eine viel zu enge. Dennoch müssen sich die Geisteswissenschaften, die ihre Gegenstände auf der Höhe der Zeit suchen, überlegen, wie sie die digitalen Kulturspuren greifbar bekommen, die sich von denen, mit denen sich Geisteswissenschaften traditionell beschäftigen, erheblich unterscheiden und zwar nicht nur hinsichtlich ihrer Intention und Vergänglichkeit. Sondern auch in ihrer Kodifizierung, die andere, automatische Verarbeitungsmethoden ermöglicht. Und auch eine andere Geschwindigkeit.

Digital Humanities, so kann man in diesem Schema argumentieren, wären eine geisteswissenschaftliche Begleitforschung zum kulturellen Geschehen. Ob sich perspektivisch in der Zeitdimension zwei Linien, idealerweise komplementärer Natur, herausarbeiten, nämlich eine zeitlich sehr ereignisnahe (Mikro-)Geisteswissenschaft und eine in längeren Zeitrahmen betrachtetende, verortende und reflektierende (Makro-)Geisteswissenschaft, ist schwer abzusehen, wäre aber wünschenswert. Eine auf den Aspekt der Temporalität gerichtete Auseinandersetzung mit dem Phänomen der Digital Humanities scheint jedoch generell noch nicht allzu intensiv geführt zu werden.

II. Amateure und Professionals

Ein wenig deutet der Beitrag von Philipp Wampfler (»online first«. Geisteswissenschaften als Social Media, S. 79-102) in diese Richtung, der anhand der Transformation des Journalismus durch Social Media mutmaßt:

„Können Geisteswissenschaften nicht wie der Printjournalismus einen von außen vorgegebenen Wandel durchleben, dann sind sie vielleicht nicht als Social Media denkbar, sondern werden als diskursives System durch Social Media abgelöst.“  (S. 99)

Es ist nicht nur ein Wandel bei den für den Diskurs zur Verfügung stehenden Kommunikationsmitteln zu beobachten, sondern auch ein Aufbrechen des Zugangs zum Diskurs, was es für etablierte Akteure durchaus schwieriger werden lässt, ihre Position zu festigen. Denn die Aufmerksamkeitsökonomie des WWWs läuft ja auch kurzschleifiger und setzt mehr auf Popularität (altmetrisch erfassbar) und weniger auf Prestige und Renommee.

Inwieweit dies mit den „Egalitätsidealen“ vereinbar ist, von denen Michael Hagner und Caspar Hirschi schreiben und die neben Effizienzüberlegungen und den unvermeidbaren Anpassungsdruck an die digitale Gegenwart (und Zukunft) zu den drei Säulen des Transformationsdiskurses gehören, ist eine ungelöste Frage in den Netzdebatten. Immerhin bekommt man den Eindruck, als würden die Karten (öfter) neu gemischt, was dazu führt, dass die Positionen bisweilen weiter ins Extreme und in einer Kampf- und Untergangsrethorik abdriften, als der Sache gut tut.

Wo die einen endlich die Möglichkeit auf Teilhabe sehen, fürchten die anderen um ihre Legitimation. Dieser Prozess dürfte überall zu beobachten sein, wo sich die klaren Abgrenzungen zwischen Dilettant und Meister, zwischen Amateur und Profi auflösen, beispielsweise weil es eine bestimmte vorher notwendige Fertigkeiten tatsächlich egalisierende Technologie gibt.

Am vergangenen Sonntag gab es auf einer Veranstaltung  der Berliner Gazette mit dem Titel Komplizen. Woran wollen wir zusammen arbeiten? In dieser Post-Snowden-Welt… die Gelegenheit, im Rahmen der Diskussion um die Bibliothek der Zukunft, das Verhältnis von professionellen und nicht-professionellen “Bibliothekaren” zu erörtern.

Die Frage war dort, welche Rolle in digitalen Informationswirklichkeiten eigentlich Bibliothekare spielen können bzw. ob man sie überhaupt noch braucht? Jeder, so eine Position, kann Bibliothekar sein, wenn man ihm nur ein wenig Technologie und Grundwissen zur Verfügung stellt. Tatsächlich rekurriert auch jeder, der seine Literaturverwaltungssoftware, mehr oder weniger bewusst, auf die alte bibliothekarische Tätigkeit der Titelaufnahme.

In der Spezifizierung der Debatte ging es darum, herauszuarbeiten, was die Profession des Bibliothekars herausstellt. Wenig verblüffend sind es bestimmte Kompetenzen, die es ihm ermöglichen, nicht etwa etwas zu tun, was nicht auch ein engagierter Laie tun könnte, dies aber am Ende im Idealfall doch schneller, präziser und gründlicher. Man wird nicht Bibliothekar, weil man etwas tun möchte, was sonst niemand kann. Sondern, weil man es aufgrund eines gewissen Trainings besser kann. Spezialisierung hat den Vorteil, dass man eine komplexe Lebenswirklichkeit bewältigen kann, ohne alle in dieser auftretenden Aufgaben selbst lösen (können) zu müssen. Es überrascht schon ein wenig , warum ausgerechnet vom Bibliothekar derart vehement eine Legitimation eingefordert wird, während nie jemand die Rolle beispielsweise des professionellen Klempners oder Dachdeckers hinterfragt. Es zeigt aber auch, dass die Kernkompetenzen des Berufs entweder nicht deutlich genug in die breite Öffentlichkeit (und in die der Netzaktivisten) vermittelt werden oder tatsächlich als obsolet angesehen werden.

Komplizen Berlin / Workshop Bibliothek der Zukunft

Die Arbeit an der Bibliothek der / mit Zukunft. Auf dem Workshop KOMPLIZEN am 06.04.2014 im SUPERMARKT in der Berliner Brunnenstraße.

III. Was jeder kann und keiner braucht.

Ähnliches lässt sich vermutlich für den Geisteswissenschaftler festhalten. Michael Hagner und Caspar Hirschi fragen konkret nach dem Sinn der Behauptung, „dass die Geisteswissenschaften ihre angeblich verlorene gesellschaftliche Relevanz im Netz wiederfinden können“ und knüpfen damit an den schon etwas älteren Diskurs zur vermeintlich Obsoleszenz bzw. wenigstens Unterlegenheit der dieser interpretierenden und verstehensgerichteten Disziplinen gegenüber dem produktiven und normierten Potential der STEM-Fächer.

Es ist auch beim Geisteswissenschaftler nicht so, dass er über exklusive Kenntnisse und einzigartige Ideen verfügt, die nur von einem vergleichsweise kleinen Club von Eingeweihten (also der Fachcommunity) wertgeschätzt und erörtert werden können. Wenn man aber eine „angeblich verlorene gesellschaftliche Relevanz“ beklagt, dann heißt dies auch, dass eine allgemeine Einschätzung dessen, was diese Fächer forschen, zwischen „kann ja jeder“ und „braucht kein Mensch“ pendelt, meist mit Ausschlag zum zweiten, was gerade bei Nischenthemen schwerer zu entkräften ist, sofern das Gegenüber die Prämisse nicht akzeptiert, dass sofort offensichtliche Nützlichkeit keinesfalls die einzige Leitgröße menschlichen Handelns sein sollte. (Eine nützliche Gegenwartsanthropologie könnte vermutlich nachweisen, weshalb dieser Anspruch derzeit so populär und durchsetzungsstark ist.)

Für das „kann ja jeder“ bleibt der offensichtliche Unterschied zwischen demjenigen, der sich lange Zeit sehr intensiv und systematisch mit einem Gegenstandsbereich befasst hat und dem, der sich flugs ein paar Quellen durchsieht, um sich ein Urteil bilden zu können. Es heißt allerdings nicht, dass nicht auch das Tiefenwissen zuweilen in die Irre leitet. Es bedeutet zudem oft, dass Tiefenwissen zu einer Vorsicht gegenüber allzu schnellen Deutungen und Festlegungen führt. Diskussionen mit Aktivisten enden dann häufig in einem apodiktischen Lob der Tat und einem Vorwurf des feigen Zauderns und Zagens. Was manchmal zutrifft. Was öfters auch daneben schlägt.

Gleiches gilt, sehr bekanntermaßen, auch für die bibliothekarische Praxis, bei der eine allzu grundierte Position eventuell tatsächlich sinnvolle Anpassungen häufig ausbremst. (Dass im Bereich der öffentlichen Bibliotheken von den drei Säulen  –   Egalität, Anpassungsdruck, Effizienz  –  der Effizienzgedanke das eigentliche Triebmittel ist, wegen des G’schmäckles, aber gern hinter den anderen beiden Säulen versteckt wird, ist mittlerweile wahrscheinlich auch jedem bekannt.

Trotzdem ist die gestern geäußerte These des Aktivisten Marcell Mars (der sein sehr ehrenwertes Projekt Memory of the World explizit mit der Idee der Public Libraries grundiert), jeder könne heute in 15 Minuten Bibliothekar werden, aus professioneller Sicht auch bei großer Sympathie nicht konsensfähig. Aus der pragmatischen Sicht eines auf die subversive Tat fixierten Aktivisten wäre sie es vielleicht schon:

„It’s hard to get the “real” libraries/librarians loud and active. Part of the establishment of that dream, of public library, is that people working in the public libraries are public sector workers. They are not known to be particularly brave kind of people. In the time of crisis.“ (Garcia, Mars, 2014)

Der Aktivist blendet jedoch aus, wie er vor allem einfordert, dass die BibliothekarInnen laut und aktiv in einem Sinne sein sollten, den er der Public Library zuschreibt. Genaugenommen handelt es sich aber um diverse Konzepte von Public Library und während Marcell Mars ein digitales globales und offenes Wissensnetz imaginiert, das so beschrieben wird:

„The vision of the Memory of the World is that the world’s documentary heritage belongs to all, should be fully preserved and protected for all and, with due recognition of cultural mores and practicalities, should be permanently accessible to all without hindrance.“ (ebd,)

und dabei erstaunlich zugangsfixiert, also hinter den Ideen beispielsweise der Berlin Declaration on Open Access, bleibt, sehen sich die professionellen Bibliothekare häufiger im Auftrag einer konkreten Gemeinschaft oder Nutzergruppe und unter dem Druck, ihre Angebote entsprechend gestalten zu wollen und zwar im Rahmen dessen, was ihnen die Ressourcenlage zulässt.

Memory of the World ist fraglos ein hoch interessantes Konzept, eine Art anarchisches Publikations(nachweis)system, eine Graswurzel-Europeana und das aus ebenfalls im Interview erwähnte Monoskop wirkt teilweise wie eine zeitgemäßere Fortsetzung von Beats Biblionetz.

Das Betrübliche an der Diskussion mit vielen Aktivisten ist selten das Ziel, sondern die Vehemenz mit der sie für ihre Ideen streiten und zwar bisweilen dort, wo man sie nur auf die Unterschiede, die man zwischen der Public Library als Metapher im Web und der öffentlichen Bibliothek im Stadtraum Berlins hinweist. Über allem schwingt dann eben immer dieser Säbel der Ideologisierung.

Ähnliches lässt sich hin und wieder auch für den Diskurs der / über die Digital Humanities festhalten, die als Idee noch einen Tick weniger spezifiziert erscheinen, als die immerhin auf den Dreischritt Sammlung, Erschließung und Verfügbarmachung (Vermittlung) von Publikationen reduzierbare Rolle der Bibliothek.

Fragt man freilich weiter, was denn eigentlich eine Publikation im Netz sei und wo die Grenzen eines digitalen Dokuments  und die der Autorschaft liegen (Roger T. Pédauque kann von beidem berichten, Pédauque, 2003), dann sieht man auch hier vor allem Unschärfen in Relation. (Im erwähnten Sammelband befasst sich übrigens Niels-Oliver Walkowski in seinem Beitrag  “Text, Denken und E-Science. Eine intermediale Annäherung an eine Konstellation” (S. 37-54) mit dem Phänomen von Enhanced Publications und der Frage der Textualität.)

IV. Berührungspunkte

Im Editorial des Nach-Feierabend-Bandes, gegen den ich mich in der Buchhandlung, dies als spätes Geständnis, zugunsten einer schönen Ausgabe mit Architekturskizzen von Leonid Lavrov entschied, wird das Diskursfeld “Digital Humanities” von den Herausgebern dankenswerterweise etwas aufgefächert.

So benennen sie drei, wenn man so will, Digitalisierungsdimensionen der Geisteswissenschaften:

1. digitale Recherche (Digitalisierung der Inhaltsbeschaffung)

2. Digitalisierung von Papierbeständen (Digitalisierung der Inhalte)

3. Neue Forschungs- und Publikationsformen (Digitalisierung der Inhaltserzeugung und -verbreitung)

Aus der bibliothekswissenschaftlichen Warte fällt unvermeidlich auf, dass es sich bei den Schritten eins und zwei um Aktivitäten handelt, in die Bibliotheken spätestens seit den 1970er Jahren aktiv sind. Hier kommen digitale Basisprozesse der Fachinformation im geisteswissenschaftlichen Bereich an, was sich erwartbar aber eigentlich erstaunlich spät vollzieht.

Parallel ist die Rolle der Computerlinguistik zu berücksichtigen, die ebenfalls sehr viel von dem, was heute in den Digital-Humanities-Bereich dringt, schon sehr lange benutzt.

So liegen die digitalen Geisteswissenschaften tatsächlich ein bisschen in der Zange der Erfahrungshorizonte des Bibliothekswesens (Infrastruktur und Technologie zur digitalen Verarbeitung von Inhalten) und der Linguistik (Methodologie und Technologie zur digitalen Verarbeitung von Inhalten).

Ergänzt man beim dritten Aspekt eine eingeklammerte Silbe, so wird deutlich dass „Neue Forschungs- und Publikations(platt)formen“  gleichfalls etwas sind, bei denen Bibliotheken, und sei es nur mit ihrer Expertise auf dem Gebiet der Publikationsformenlehre, eine Rolle spielen können und nicht selten tun sie es in Projektrahmen auch. In einem höflichen Gutachten zu meinem Abstract für die DHd-Konferenz 2014 fand sich übrigens der Kritikpunkt benannt:

„Warum z. B. in der editionsphilologischen Forschung die Bibliothekswissenschaft eine wichtige Rolle spielt, ist für mich nicht nachvollziehbar.“ (unveröffentlichtes Gutachten zur DHd-2014)

Da die Nachfrage leider nicht im Auditorium wiederholt wurde, muss ich die Antwort hier andeuten: zum Beispiel im Wissen über die Entwicklung von Medialität und zwar sowohl im historischen Verlauf wie auch in der Breite. Selbstverständlich kann ein Editionswissenschaftler auch eine diesbezüglich tiefe Kenntnis besitzen, die in seinem Feld auch tiefer reicht, als die des Bibliothekswissenschaftlers. Der jedoch weiß im Idealfall zusätzlich, wie man in anderen Kontexten publiziert und wie man diese Publikationen auch langfristig verfügbar hält und was, wenn man etwas wie eine digitale Edition erfinden muss, in diesem Bereich technisch alles möglich und sinnvoll ist. Man kann auch anders antworten, aber das muss auch an anderer Stelle geschehen.

Die Schnittstelle zur Welt der digitalen Hacktivisten findet sich dort, wo Digital Humanities mit dem Impetus auftreten, ein “Werkzeug zur Neuorganisation des gesellschaftlichen Wissens und damit letztlich zur Reform des menschlichen Zusammenlebens” zu sein (Hagner, Hirschi, S. 7). Hier weisen sie in Richtung Sozialutopie, wobei aus der präziseren Beobachtung offen bleibt, wie sehr hinter derartigen Aussagen auch wirkliche Überzeugungen stecken oder einfaches Taktieren, wenn es darum geht, den Anspruch auf Förderung entsprechender Projekte zu legitimieren.

Der Topos von der Verbesserung der Welt durch Zugang und Technologie begleitete ähnlich lange Zeit die Open-Access-Bewegung und ist als Motivationselement sicher häufig wichtig. Auf der anderen Seite steht der Druck, diese Verbesserung auch nachweisen zu müssen, was dann sehr schwer fällt, wenn Heilsversprechen besonders euphorisch ausfallen. In der Open-Access-Bewegung scheint man derweil auf pragmatischere bzw. niedriger zielende Argumentationen zu bauen, wobei nicht selten an das Argument der Erhöhung der Zugangsgerechtigkeit das Argument des volkswirtschaftlichen Nutzens tritt. In den Digital Humanities spielt dieses meist nur dann eine Rolle, wenn auf die Bedeutung verteilter und nachnutzbarer Ressourcen verwiesen wird.

Michael Hagner und Caspar Hirschi stellen vier andere Aspekte als zentral für die Diskussion heraus und eine diskursanalytische Annäherung an den sehr spannenden Ablauf der Debatte darüber, was Digitale Geisteswissenschaften sein können, findet darin wenigstens auf den ersten Blick ganz passende Basiskategorien:

  1. Autorschaft (Gegensatzpaar: adressierbarer [Einzel]Autor < > soziale Netzgemeinschaft)
  2. Forschungspraktiken (qualitativ, wenige Quellen < > quanitativ, Big Data)
  3. epistemische Tugenden (Argumentation, Narration < > Bereitstellung, Verlinkung, [eventuall auch Visualisierung])
  4. Publikationsformen (abgeschlossene Monografie / Artikel < > “liquide Netzpublikation”)

Die interessante Frage, die die Autoren, die sich als Nicht-Utopisten erklären, daraus ableiten ist, „ob [bei einer Durchsetzung der „neuen Ideale“] der Begriff Wissenschaft dann überhaupt noch tauglich und die Universität noch der richtige Ort wären, solche Kulturtechniken zu vermitteln“?  (ebd., S. 8) Was auch wieder eine Zuspitzung ist. Ganz ohne Polemisieren geht es wohl nirgends und so rutscht ihnen eine weitere Frage in den Text, nämlich, „wie viel Distant Reading die Geisteswissenschaften vertragen, ohne am Ende in digitaler Adipositas zu erstarren“? (S. 9) So bekommt Franco Moretti doch noch sein Fett weg. Somit implizieren sie weiterhin gleich selbst eine erste Antwort auf ihre Frage:

„Was bedeuten digital gesteuerte Erkenntnisverfahren wie etwa das Distant Reading - das eigentlich kein Lesen mehr ist, weil zahlreiche Texte nur noch mit einem bestimmten Algorithmus gescannt werden – für die traditionellen geisteswissenschaftlichen Herangehensweisen?“ (S. 9)

Wobei Franco Moretti mit der Benennung des Distant Reading gar nichts Wortwörtliches, sondern eine sprachspielerische Stichelei gegen die Kultur des Close Reading im Sinn hatte und in seinem zentralen Artikel (Moretti, 2000) verdeutlicht, dass es ihm um morphologische Analysen geht, die als Gegenkonzept zu der Tatsache dienen sollen, dass die literaturwissenschaftliche Tradition der Tiefenlektüre notwendig nur einen bestimmten Kanon berücksichtigt, die Welt der Literatur (bzw.: die Weltliteratur) aber weitaus reichhaltiger ist. Das auf Algorithmen setzende Distant Reading ist derzeit wahrscheinlich die beste Option, um dieses Korpus überhaupt in die Literaturwissenschaft hereinzuholen. Es besteht auch kein Anlass, hier eine Konkurrenz oder gar einen Nachfolger zum Close Reading zu sehen. Sinnvoller wäre, das Distant Reading als Erweiterung zu sehen. Denn wo sich das Close Reading konzeptionell auf die Lektüre des Einzigartigen, des Besonderen und Ungewöhnlichen ausrichtet, kann das Distant Reading mit seiner Musteranalyse durchaus helfen, exakt die Werke zu identifizieren, die es wirklich verdienen, sehr nah und gründlich studiert zu werden.

Insofern könnte man die Frage

„Inwiefern basieren die Digital Humanities auf neuen Forschungsfragen und inwiefern können sie solche generieren?“

möglicherweise besser so stellen:

„Inwiefern basieren Digital Humanities auf etablierten geisteswissenschaftlichen Forschungsfragen und wie können sie deren Bearbeitung unterstützen?“  (ebd.)

Man kann sich die Entwicklung der Digital Humanities nämlich auch problemlos als Erweiterung des Bestehenden vorstellen. So wie die Digitale Bibliothek erstaunlicherweise und trotz aller entsprechenden Beschwörungen nicht dazu geführt hat, dass die Bibliothek als Ort an Bedeutung verlor. Eher im Gegenteil.

Berlin, 07.04.2014

Literatur

Garcia, David; Mars, Marcell (2014) Book Sharing as a “gateway drug”: Public Library. In: new tactical research. Feb. 14, 2014 http://new-tactical-research.co.uk/blog/1012/

Hagner, Michael; Hirschi, Casper (2013) Editorial. In: Gugerli, David [Hrsg.] ; Hagner, Michael [Hrsg.] ; Hirschi, Caspar [Hrsg.] ; Kilcher, Andreas B. [Hrsg.] ; Purtschert, Patricia [Hrsg.] ; Sarasin, Philipp [Hrsg.] ; Tanner, Jakob [Hrsg.]: Nach Feierabend 2013. Zürich: diaphanes. S. 7-11 (PDF-Download des Editorials)

Moretti, Franco (2000) Conjectures on World Literature. In: New Left Review. 1 (Jan/Feb 2000) http://newleftreview.org/II/1/franco-moretti-conjectures-on-world-literature

Pédauque, Roger T. (2003): Document : forme, signe et médium, les re-formulations du numérique. In: Archive Ouverte en Sciences de l’Information et de la Communication. http://archivesic.ccsd.cnrs.fr/sic_00000511

Walkowski, Niels-Oliver (2013) Text, Denken und E-Science. Eine intermediale Annäherung an eine Konstellation. In: Gugerli, David [Hrsg.] ; Hagner, Michael [Hrsg.] ; Hirschi, Caspar [Hrsg.] ; Kilcher, Andreas B. [Hrsg.] ; Purtschert, Patricia [Hrsg.] ; Sarasin, Philipp [Hrsg.] ; Tanner, Jakob [Hrsg.]: Nach Feierabend 2013. Zürich: diaphanes.  S. 37-54

Wampfler, Philippe (2013) »online first«. Geisteswissenschaften als Social Media. In: Gugerli, David [Hrsg.] ; Hagner, Michael [Hrsg.] ; Hirschi, Caspar [Hrsg.] ; Kilcher, Andreas B. [Hrsg.] ; Purtschert, Patricia [Hrsg.] ; Sarasin, Philipp [Hrsg.] ; Tanner, Jakob [Hrsg.]: Nach Feierabend 2013. Zürich: diaphanes.  S. 79-102

Wer übernimmt was? Zum Verhältnis von Digital Humanities und Geisteswissenschaften.

Posted in LIBREAS.Debatte, LIBREAS.Feuilleton by Ben on 12. September 2013

Ein Kommentar von Ben Kaden (@bkaden)

Der Beitrag ist zwar nach den Zeitrechnungsstandards des WWW schon uralt, da er aber offensichtlich in der deutschen Digital-Humanities-Community für einigen Wirbel sorgt und mir, nachdem er sich scheu unter meinem ansonsten schon zuverlässig zugreifenden Radar hindurch geduckt hatte, nun noch einmal mit Nachdruck (bzw. als Ausdruck) auf den Schreibtisch gelegt wurde, will ich doch wenigstens meine Kenntnisnahme dokumentieren.

Am 19.07.2013 druckte die Frankfurter Allgemeine Zeitung auf der Themenseite Bildungswelten (S. 9) einen Beitrag des Literatur-Juniorprofessors Jan Röhnert (TU Braunschweig, Wikipedia-Seite) mit dem Titel Feindliche Übernahme? Die Geisteswissenschaften wehren sich gegen falsche Ansprüche der Informatik, aber setzen auf die “Digital Humanities”. Er berichtet vom „Gespenst einer feindlichen Übernahme [der geisteswissenschaftlichen] Fächerkultur durch die Dogmen der Informatik.“ , was offensichtlich derzeit das heißeste Eisen im Metadiskurs der Geisteswissenschaften zu sein scheint. Jedenfalls auf dem Sommerplenum 2013 des Philosophischen Fakultätentages in Chemnitz im späten Juni.

Eigentlich handelt es sich um einen Methodenstreit, denn die Geisteswissenschaften fürchten ihre Mathematisierung und damit einhergehend die Verdrängung von Interpretation bzw. Hermeneutik. Erstaunlicherweise ist die Bibliothekswissenschaft hier einen Schritt voraus, denn ähnliche Debatten wurden am Berliner Institut bereits Ende der 1990er Jahre rege ausgefochten, wobei die zweite Seele (meist die biblio- bzw. szientometrische) lange Zeit parallel irgendwo unter der Bezeichnung „wissenschaftliche Informationsversorgung“ oder auch „Dokumentation(swissenschaft)“ parallel an ihrer Entfaltung arbeitete, um schließlich mit der nahezu Volldigitalisierung bibliothekarischer Datenverarbeitungsprozesse und endlich auch mehr und mehr der Bibliotheksbestände zur bestimmenden wurde. Dass die Gegenstände der Bibliothek digitalisiert wurden ist insofern von Bedeutung, als dass diese Digitalisierungen zugleich häufig die Gegenstände der Geisteswissenschaften (nämlich Texte) digitalisierten und so erst die Digital Humanities möglich machten.

Der Paradigmenwechsel, den laut Jan Röhnert der Bremer eScience-Fachmann Manfred Wischnewsky einfordert, vollzog sich dort schon weitaus früher und mittlerweile sind alle Facetten metamedialer Auseinandersetzung mit analogen Bibliotheksbeständen (Einbandkunde, Buchgeschichte, u. ä.) längst aus den Lehrplänen des Berliner Instituts verschwunden. Das Medium Buch ist für die Bibliothekswissenschaft in Berlin weitgehend irrelevant geworden. Betrachtet man die Debatten der Digitalen Geisteswissenschaften aus einer medialen Warte, geht es dort um einen ganz ähnlichen Schritt: Die Auflösung des Einzelobjekts, also in der Regel eines Werkes, das in der Literaturwissenschaft oft klassischerweise in direkter Beziehung zum Medium Buch oder etwas ähnlich Berührbarem steht.

Es sind verschiedene Stränge, die im Diskurs zusammen- und auch aneinander vorbei laufen. Jan Röhnert berichtet von Positivismus-Vorwürfen und dem bekannten und aus irgendeinem Grund gepflegten Irrtum, bei dem man „quantitativ erzeugte technische Simulationen bereits als qualitativen Wissenszuwachs ausgibt.“

Zumal der Wissensbegriff selbst, wie heute jedem bewusst sein dürfte, mit oft myopischem Blick auf ein Simulacrum verweist. Abstrakt ist das Wort „Wissen“ auch durch seine Übernutzung in den vergangenen Jahrzehnten derart zu einem substanzarmen Textbaustein eingeschrumpft, dass eigentlich jeder mit etwas Sprachbewusstsein ausgestattete Diskursteilnehmer auf dieses Hohlwort zu verzichten bemüht sein sollte.  Dann würden vielleicht auch die aus dem mit dem Ausdruck „Wissen“ fast  verbundenen Anspruchsdenken nicht ganz unzusammenhängenden Missverständnisse reduziert.

Aus einer distanzierten Warte ist die Aufregung ohnehin unverständlich, handelt es sich bei den Digital Humanities doch ganz offensichtlich nicht um die Fortsetzung der Geisteswissenschaften mit digitalen Methoden, sondern um die Auseinandersetzung mit traditionell geisteswissenschaftlichen Gegenständen mittels digitaler Aufbereitungs- und Analysewerkzeuge. Es ist eher eine neue Form von Wissenschaft, die hier entsteht. Dass man sich einer geistigen Schöpfung nach wie vor auch hermeneutisch nähern kann (und zum Wohle der Menschheit auch zukünftig muss), sollte außer Frage stehen. Bedenklich wird es erst, wenn Förderinstitutionen Durch- und Weitblick verlieren und aus Zeitgeist-, Marketing- oder anderen Gründen denken, dass man die Unterstützung für die Geisteswissenschaften auf die Digital Humanities umschichten sollte. Diese Angst ist, wie man oft von Betroffenen hört, nicht ganz unbegründet und wahrscheinlich die eigentliche Essenz der Behauptungskämpfe.

Inhaltlich verwundert dagegen (nicht nur) aus einer semiotischen Warte, warum die traditionellen Geisteswissenschaften (eine behelfsmäßige Formulierung in Abgrenzung zum Ausdruck der „digitalen Geisteswissenschaften“) ihre hermeneutische Kompetenz nicht noch stärker auf natur- und sozialwissenschaftliche Gegenstandsbereiche ausweiten. Wer beispielsweise Franz Hessels Stadtraumlektüren kennt, weiß sofort, dass sich jedes beobachtbare soziale Gefüge genauso wie auch die Geometrie als Narrativ lesen und verstehen lässt.

Übrigens auch die Debatte um die „Feindliche Übernahme“, wobei Jan Röhnert unnötig in die – etwas wohlfeile –  Parallele zu geheimdienstlicher Datenanalyse stolpert:

„Solche Software, die  – nicht unähnlich den kürzlich aufgedeckten Spionageprogrammen „Prism“ und „Tempora“ –  unvorstellbar große Informationsmengen analysiert […]“

So naheliegend die Ähnlichkeit ist, so unglücklich ist der Vergleich. Denn dass natürlich geheimdienstliche Aufklärung seit je massiv auch auf interpretatorische, teilweise sicher auch hermeneutisch inspirierte Verfahren setzte, steht genauso außer Frage. Die Parallele ist keinesfalls neu und als kritisches Argument nur tauglich, wenn man sie auch entsprechend erläutert. In der Länge dieses Artikels ist das freilich nicht möglich. Dabei liegen mit den zitierten Positionen von Gerhard Lauer und Malte Rehbein eigentlich schon sehr konsensfähige Positionen auf dem Tisch und im Text und auch Jan Röhnert beendet seine Schilderung derart versöhnlich, dass man als außenstehender Beobachter die Aufregung gar nicht versteht. Übrigens auch nicht die, der Digital-Humanities-Community, von der mir heute berichtet wurde.

 (Berlin, 12.09.2013)

In weiter Ferne und nah. Über Dekonstruktion, Digitalkultur und Digital Humanities

Posted in LIBREAS.Feuilleton by Ben on 27. Juni 2013

Ein Blick in aktuelle Diskurse.

von Ben Kaden / @bkaden

„So einen wie ihn wird es im digitalen Zeitalter nicht mehr geben.“

beendet der Verleger Michael Krüger seinen Nachruf auf Henning Ritter in der Mittwochsausgabe der NZZ (Michael Krüger: Leser, Sammler und Privatgelehrter. Henning Ritter – eine Erinnerung. In: nzz.ch, 25.06.2013) und lässt damit den Leser anders berührt zurück, als es ein Nachruf gemeinhin zur Wirkung hat. Denn in gewisser Weise spricht er damit der Gegenwart, die wenig definiert als von Digitalem dominiert gekennzeichnet wird, die Möglichkeit ab, eine intellektuelle Kultur hervorzubringen, für die Henning Ritter stand. Das klingt nahezu resignativ und ist aus dem tiefem Empfinden des Verlusts auch erklärbar. Die traurige Einsicht ist zudem Lichtjahre von dem Furor entfernt, der der Debatte um eine Lücke zwischen Netz und Denkkultur noch vor wenigen Jahren mit Aufsätzen wie dem über den Hass (!) auf Intellektuelle im Internet von Adam Soboczynski kurzzeitig beigegeben wurde. (Adam Soboczynski: Das Netz als Feind. In: Die ZEIT, 20.05.2009) Ich weiß nicht, ob das Netz mittlerweile als Freund verstanden wird. In jedem Fall haben sich drei Auslegungen durchgesetzt: das Netz als Medium (nüchtern-funktional), das Netz als Marktplatz und das Netz als sozialer Wirkungsraum.

Dass das Netz auch als Austragungsort intellektueller Diskurse geeignet ist, merkt man dagegen in Deutschland weniger, einfach weil die spärlichen Gegenstücke zu dem nahezu Überfluss der entsprechenden Magazinkultur im englischsprachigen Weltenkreis, die längst medial eine e- und p-Hybridkultur ist und vom New Yorker über The Point bis zur White Review reicht, kaum im Netz präsent sind. Vielleicht gibt es auch tatsächlich zu wenige (junge) Intellektuelle dieses Kalibers in Deutschland. (Einige reiben sich auf irights.info am denkbar undankbaren Themenfeld des Urheberrechts auf und manchmal rutscht bei perlentaucher.de  etwas ins Blog, was in diese Richtung weist.) Und sicher hat dieses Defizit eine Reihe von Gründen. Das wir mittlerweile digitale Medienformen in unseren Alltag eingebettet haben, dürfte jedoch kaum die Ursache sein.

Dass sich die intellektuelle Kultur einer jeweiligen Gegenwart von der der Gegenwarten davor und danach unterscheidet, liegt darüber hinaus bereits offensichtlich in der Verfasstheit von Kultur begründet. Das digitale Zeitalter wird auch keinen Giordano Bruno hervorbringen (höchstens eine Giordano-Bruno-Stiftung) und keinen Walter Benjamin (höchstens einen Walter-Benjamin-Platz) und keinen Pjotr Kropotkin (höchstens noch ein unpassend eingeworfenes Zitat eines Oberschlaumeiers im politikwissenschaftlichen Proseminar). Aber „Postkarten mit aufgeklebten Zeichnungen oder vermischten Nachrichten, Briefe, die aus nichts als Zitaten bestanden“ zu versenden – das geschieht noch. Und zwar tatsächlich im Postkarten- und Briefformat und auch beispielsweise bei Tumblr, das diese Kulturpraxis des Collagierens, die an anderer Stelle selbst als Niedergang der abendländischen Kultur gesehen wurde, nahezu entfesselt erlebbar macht.

Auch intellektuelle Bohemiens gibt es erfahrungsgemäß und jedenfalls in Berlin nicht zu knapp. Nur sitzen sie – einige Jungfeuilletonisten ausgeklammert – nicht mehr bei «Lutter & Wegner», wohl aber manchmal im Verlagsprogramm bei der edition unseld und ansonsten, wenn sie noch etwas progressiver sind, doppelt exkludiert (freiwillig und weil die Verkaufskalkulatoren diesem Denken neben der Spur keinen Markt zusprechen) vom herkömmlichen Verlagsestablishment in ihren eigenen Diskursräumen (oft mehr Kammern). Und sogar den „unabhängigen Privatgelehrten, der mit einer gewissen boshaften Verachtung auf die akademischen Koryphäen herabblickt[…]“, findet man auf beliebigen Parties der Digital Boheme fast im Rudel. Die Zeiten, dass man Avantgarde war, wenn man sich von biederen Funktionswissenschaftlerei in den Hochschulen abgrenzte, waren schon vorbei, bevor man E-Mails schrieb. Der Hipsterismus hat aus dieser Einstellung sogar fast ein Freizeitutensil gemacht. Dass progressives Denken und Hochschulkarriere keine kausale Verknüpfung eingehen, sondern eher zufällig zusammenfinden, weiß mittlerweile auch jeder, sind das Universitäts- wie auch Wissenschaftssystem als rationaler Funktionskorpus doch geradezu naturgemäß darauf zugeschnitten, Denken zu normieren und in recht schmalen Kanälen zu führen.

Die Melancholie des Hanser-Verlagschefs Michael Krüger ist zweifellos nachvollziehbar. Neutral gesprochen wäre der Ausstiegssatz völlig zutreffend und selbstevident. Die Versuchung der Verklärung der persönlich verlebten Zeit als der besten aller möglichen Daseinsvarianten bedrängt sicher irgendwann fast jeden. Und einmal wird sicher eine Koryphäe der digitalen Geisteskultur einen ähnlichen Satz voller Trauer über einen Netzintellektuellen schreiben. Man darf ihm allerdings wünschen, dass er den Satz ohne Benennung der Nachfolgezeitrechnung (also ohne das dann aktuelle „digitale Zeitalter”) verfasst. Denn wie wahrer wäre die Aussage, wenn sie schlicht: “So einen wie ihn wird es nicht mehr geben.” Oder besser noch: “Es gibt ihn nicht mehr.” hieße. Große Persönlichkeiten, zu denen Henning Ritter, Homme de Lettres und Mensch als Mensch, zweifellos zählte, brauchen keine vergleichende Wie-Verortung im Zeitlauf.

II

Womöglich wird der „Methodenfreak“ (Süddeutsche Zeitung) Franco Moretti in diesem „einmal“ der Rückschau als eine Leitfigur der Geisteswissenschaften im Zeitalter ihrer digitalen Re-Evozierbarkeit gelten. Lothar Müller widmet dem Vorzeige-Digital-Humanist aus Stanford bereits heute im Feuilleton der Süddeutschen Zeitung vom Mittwoch einen satten Sechsspalter (Lothar Müller: Ein Methodenfreak. In: Süddeutsche Zeitung, 26.06.2013, S. 14) mit einer eindrucksvollen Porträtaufnahme aus der Kamera der mit ihren Aufnahmen der deutschen Fußballnationalmannschaft ziemlich bekannt gewordenen Regina Schmeken. In der Bildrepräsentation spielt der Literaturwissenschaftler also bereits in einer oberen Liga. Isolde Ohlbaum dagegen, von der das zentrale Nachruffoto von Henning Ritter stammt (u. a. Dienstag im FAZ-Feuilleton), kennt man eher von ihren Aufnahmen von Alberto Moravia, Susan Sontag und Elias Canetti. Der Kulturbruch scheint sich bis ins Lichtbild einzuschreiben.

Franco Moretti, der ursprünglich (und „am liebsten“) theoretischer Physiker werden wollte, bricht nun tatsächlich und vielleicht noch stärker als jede These vom Tod der Autorenschaft in die stabile Kultur der Literaturanalyse ein, in dem er das Close Reading mit seiner quantitative Lektürepraxis, vorsichtig formuliert, in Frage stellt.

Lange Zeit war die Nahlektüre bereits aus praktischen Gründen die einzig gangbare wirkliche gründliche Auseinandersetzung mit Text. Denn angesichts der seit je immensen Mengen an Publiziertem, führte ein intellektuelles Mitteldistanzlesen meist nur zu – oft sehr eindrucksvollem – Querschnittswissen, was für das Kamingespräch hervorragend, für die harte wissenschaftliche Diskursführung aber zu oberflächlich ist. Die minutiöse Kenntnis weniger Texte und dazugehöriger Kontexte galt lange als edles Ziel der deutenden Textdisziplinen – wenngleich die minutiöse Kenntnis vieler Texte besser gewesen wäre, in einem normalen Wissenschaftsberufsleben aber einfach nicht realisierbar. Daher Kanonisierung, daher Beschränkung auf die Schlüsseltexte und Leitfiguren. Daher gern auch noch das dritte Buch über Achim (z.B. von Arnim).

III

Digitale Literaturwissenschaft bedeutet nun, sich der Stärken der Rechentechnik (= der automatischen Prozessierung großer Datenmengen) zu bedienen, um auf dieser Grundlage – sie nennen es „Distant Reading“ – das Phänomen Literatur strukturell, idealerweise als Gesamtgeschehen, zu erfassen, zu erschließen und (zunächst) interpretierbar zu machen. Die Manipulierbarkeit – vielleicht als „distant writing“ – wäre als Zugabe im Digitalen problemlos denkbar. Moretti trägt damit die naturwissenschaftliche Idee des verlässlichen Modells in die Beschäftigung mit Literatur:

„Ich bin auf Modelle aus […] auf die Analyse von Strukturen. Was ich am ‚close reading‘ nicht mag, ist das in den meisten Varianten anzutreffende Wohlbehagen an der unendlichen Multiplikation von Interpretationen, zum Beispiel der ‚deconstruction‘, wo die Leute umso glücklicher sind, je mehr Widersprüche sie in einem Text entdecken. Diese Beschränkung auf die immer reichere Interpretation einzelner Werke hat mich noch nie gereizt.“

So Moretti, der damit selbstredend auch eine völlige Ausblendung des Zwecks der Dekonstruktion vornimmt, die sich ausdrücklich und aus gutem Grund gegen die Reduktion der Welt auf allgemeine Regeln und hin zur Anerkennung bzw. der Untersuchung des Spezifischen wendet. Diesen Ansatz auf Wohlbehagen und Glücklichsein zu reduzieren, zeigt vor allem, wie tief die Gräben zwischen den Schulen in den USA sein müssen. Wer sich nämlich an einem dekonstruktiven Lesen versucht hat, weiß, wie unbehaglich und zwangsläufig unbefriedigend diese unendliche Kärrnerarbeit in der stetigen Verschiebung des Sinns sein muss. Mit einer modellorientierten Wissenschaftsauffassung, vermutlich sogar mit einer auf Erkenntnis (statt Verständnis) und Kontrolle (statt Anerkennung) gerichteten Wissenschaft lässt sich die Dekonstruktion kaum in Einklang bringen. Diese Art von Auseinandersetzung mit Text produziert kein sicheres Wissen, sondern im Gegenteil, wenn man so will, bewusst verunsicherndes. Das mag sie so unbequem und auch kaum leicht verwertbar machen.

IV

Was Moretti macht, wenn er Textmassen quantitativ und statistisch auswertet, entspricht prinzipiell den digitalökonomischen Datenanalysen, die man, wie wir mittlerweile wissen, auch zur geheimdienstlichen Terrorabwehr verwenden kann. Sein Konzept – er nennt es Quantitativen Formalismus – dient gleichfalls zur Strukturerschließung des Dokumentierten, also des Empirischen, wobei sich systematisch Abweichungen isolieren lassen, die man dann bei Bedarf qualitativ durchleuchten kann. Damit gewinnt man fraglos eine solidere Basis für die Auseinandersetzung mit Texten in ihrer Gesamtheit (so sie in ihrer Gesamtheit digitalisiert und Teil des Korpus sind). Man erfährt bei der richtigen Analyse viel über die syntaktischen, mitunter auch konzeptionellen Relationen zwischen Textprodukten bzw. Äußerungen. Man kann Querverbindungen und Referenzen isolieren und nachverfolgen. Bisweilen deckt man auch Plagiarismus auf und Doppelschöpfungen. Es lassen sich Aussagen über die Produktions- und Rezeptionsbedingungen von Texten treffen (zum Beispiel über das Mapping mit Ausleihstatistiken öffentlicher Bibliotheken). Aus vielen Perspektiven können wir zu den Gegenständen der Literaturwissenschaft so exakt wie noch nie in der Wissenschaftsgeschichte Aussagen treffen, Schlüsse und Querverbindungen ziehen und Einsichten vorbereiten. Wir sind in der Lage, aus einer Art Vogelperspektive ein riesiges Feld der Literatur zu betrachten und zugleich zu übersehen.

Allerdings, und das ist der Unterschied zwischen einem guten Close Reading und dem besten vorstellbaren Distanzlesen, bleibt die Literatur aus dem Korb dieses Heißluftballons unvermeidlich unbegreiflich. Wir können nicht gut mit unserer Wahrnehmung zugleich über den Dingen und in den Dingen sein. Im besten Fall können wir also in einer Kombination von close und distant Morettis Draufsichtverfahren als Drohne benutzen, um – je nach Erkenntnis- und Handlungsinteresse – den Zugriff zu präzisieren. In dieser Hinsicht sind statistische Zugänge eine grandiose Erweiterung des wissenschaftlichen Möglichen. Die Dekonstruktion könnte sich des Quantitativen Formalismus sogar ganz gut bedienen, wenn es darum geht, etablierte Perspektiven der Dekonstruktion zu verschieben. Als Alternative wäre das Verfahren der statistisch erschlossenen Vollempirie dagegen offensichtlich untauglich, da es schlicht etwas ganz anderes in den Blick nimmt, als die Praxis der Nähe.

V

„ ‚Persönlichkeit‘ auf wissenschaftlichem Gebiet hat nur der, der rein der Sache dient“, schreibt Max Weber, Morettis Idol, und dies reproduziert kaum verschleiert eine religiöse Bindung in die Wissenschaft, die hiermit die Sache zum Gottesersatz erhebt. Die Identität der Wissenschaftlerpersönlichkeit ergibt sich allein aus dem Dienst am Objekt. Mit Aufklärung hat die sich daraus leider bis heute oft ableitende Empiriefrömmelei jedoch wenig zu tun. Ein Dogma kämpft hier nur gegen das andere und für wirklich Intellektuelle war dieses Preisboxen um die Wahrheit noch nie ein besonders attraktives Spektakel, zumal sie meist nur von den billigen Plätzen zusehen durften. Nun wäre eine post-sachliche, also konsequent entdogmatisierte Wissenschaft nicht mehr Wissenschaft wie wir sie kennen, schätzen und als sinnvoll erachten. Sondern vielleicht systematisierte Intellektualität. Oder eben das, was man im besten Sinne meinte, als man Humanities eben nicht als Sciences konzipierte.

Die Digital Humanities und die quantitative Literaturwissenschaft sind nicht, wie man häufig vermutet, eine Weiterentwicklung der geisteswissenschaftlicher Praxen, sondern eine neuartige Annäherung an deren Bezugspunkte. Was dann durchaus sympathisch ist, wenn nicht Max-Weber-Adepten im gleichen Zug, diese weicheren Ansätze als inferior herausstellen, weil sie davon ausgehen, dass auch Literatur vor allem empirisch ist und damit in die Irre wandern. Spätestens seit dem 20. Jahrhundert sind der Literatur und der Kunst die Ansprüche der Empirie nämlich vor allem eins: gründlich suspekt. Literatur geht es – wie übrigens auch der Dekonstruktion – nicht mehr um die Spiegelung der Welt, sondern darum, sich den Spiegeln so gut es geht zu entziehen, das Bild zu biegen, um das sichtbar zu machen, was dahinter liegen könnte. Diese Art von Literatur zielt nicht auf Wahrheit und vermutlich macht sie diese für viele unheimlich und für ein paar Freunde des Close-Readings eben doch reizvoll. Wenn diese kreativ genug sind, nicht auf Wahrheitsanspruch zu lesen, gelingt es sogar, etwas Fruchtbares und Anschlussfähiges daraus abzuleiten, das keine Statistik jemals hergibt.

VI

Nun ist zu beantworten, worin dieses Fruchtbare bestehen könnte. Hinweise liefert vor allem der Blick in die Gegenwart bzw. in die etwas jüngere Vergangenheit, also in die Entfaltungszeit des Michael Krüger’schen „Digitalen Zeitalters“ (als besäße der Äonen-Bezug noch irgendeinen diskursiven Wert). Wer sich die Entfaltung der digitalen Kultur der vergangenen zwei Jahrzehnte ansieht, erkennt unschwer, dass ihr Erfolg durch die Kombination zweier Grundprinzipien begründet ist: das des Narrativen und das der Statistik. Plattformen wie Facebook sind biografischer Abbildungsraum und Sozialkartei herunteradressiert auf die kleinste kulturelle Einheit: Das Individuum. Während uns die Zahlen (Freunde, Likes, Shares, etc.) – Übernahme aus der Ökonomie – unseren Erfolg bei der sozialen Einbindung (Netzwerk) unseres Lebens präzise nachweisen, benutzen wir die Narration unserer Selbste dazu, diese Zahlen (unsere soziale Akzeptanz) zu beeinflussen. Selbstverständlich zählt im nächsten Schritt nicht nur die Quantität, sondern auch – FOAF – die Qualität unserer Kontakte.

Etwa in der Mitte dieser zwei Jahrzehnte öffentliche Netzkultur liegt eine Zäsur. Die ersten zehn Jahre etablierten den digitalen Kommunikationsraum noch weitgehend nach dem Muster der analogen Welt (massenmediale Kommunikation hier, private Kommunikation per E-Mail, Chat, P2P-Filesharing da und obendrauf noch ein paar Versandhäuser mit Online-Katalogen) wogegen mit dem sogenannten Web 2.0 die Trennwände nach und nach durchlässig wurden, so dass mittlerweile auf unseren Privatprofilen sichtbar wird, welche Zeitungsartikel wir abgerufen und welche Musiktitel wir abgespielt haben. Das Besondere als Basis der Handlungsstrukturen rückt in den Vordergrund. Wir schwanken zwischen Me-too und Me-first, letzteres mit der Chance, ganz früh im Trend zu sein und damit zu punkten (das Pyramidenspiel des Sozialprestiges) und zugleich mit dem Risiko, fehl zu gehen.

Diese relativ leicht erfass- und visualisierbare Statistik unseres Kulturverhaltens hilft uns einerseits, einen statistisch stabilisierten Überblick über unsere Nutzungsaktivitäten in äußerst komplexen Medien zu gewinnen und andererseits, dies in die Autofiktion unserer Identität einzubinden. Was wir von Max Weber also übernehmen können, ist der subjektive Sinn und das darin Eingebettete, das irreduzibel ist auch vor der Summe des einzeln Geteilten. Dieser subjektive Sinn geht, so eine Ergänzungsthese, nämlich nicht vollständig darin auf, was wir denken, was andere in unser Handeln hineinlesen sollen, sondern er wird auch permanent eigeninterpretiert und zwar vor dem Horizont unserer Selbstwahrnehmung und in Hinblick auf die Stimmigkeit unseres Eigennarrativs.

Die Explizierungsmedien für unser soziales Handeln helfen uns nun, die permanente Fortschreibung dieser Identitätserzählung so systematisch zu pflegen, wie es sonst bestenfalls mit einem penibel geführten Tagebuch möglich gewesen wäre. Das Reizvolle für die Bibliotheks- und Informationswissenschaft ist in diesem Zusammenhang die zu beobachtende Ausweitung dokumentarischer Praxen in die Selbstverwaltung der Identität. Wo wir unser Leben, die Spuren, aus denen wir Erinnerung generieren können, expliziert aufzeichnen und damit, teilweise öffentlich sichtbar, nachprüfbar machen, ist es nicht unwahrscheinlich, dass wir unsere Lebensgestaltung im Sinne eine dokumentierten Kontinuität und Stimmigkeit dieser Gesamtverläufe ausrichten. Dass der Sozialdruck, entstehend aus den geteilten Reise-, Konsum- und Aktivitätsbilanzen der Anderen, eine erhebliche Rolle spielt, ist unübersehbar.

Unser Web-Selbst wird so auf bestimmte Effekte hin manipuliert bzw. manipulierbar und unser, nennen wir es mal so, Offline-Selbst daran angepasst. Gerade bei Phänomenen wie dem Online-Dating entstehen erfahrungsgemäß häufig Differenzen aus dem geweckten Erwartungsbild (oder dem angenommen geweckten Erwartungsbild) und dem tatsächlich einlösbaren Offline-Original. Rein strukturell unterstützen die Plattformen die Verwandlung unserer sozialen Repräsentation in eine vermeintlich objektiv (Statistik) bewertbare Warenförmigkeit. Dies gilt also nicht nur in Hinblick auf unsere Adressierbarkeit für Werbung, sondern auch hinsichtlich des Repräsentationsdrucks auf unsere sozialen Kontakte, die uns jederzeit aus ihrem expliziten Netzwerk entfernen können, wenn wir ihnen als unpassend oder irrelevant erscheinen.

An der Schnittstelle zum professionellen Umfeld sind entsprechende Effekte noch deutlicher. Wo potentielle Arbeitgeber in den Besitz von Partyfotos und auf dieser Grundlage zu für uns realweltlich negativen Entscheidungen kommen können (eine große Debatte vor einigen Jahren), wirken diese Strukturen automatisch auf unser Verhalten zurück. Jedes aktuelle Mobiltelefon hat eine Kamera – wir können also überall fotografiert werden und müssen entsprechend überall adäquat wirken. Fast freut man sich, dass diese Spitze der Verhaltenslenkung noch nicht in Umsetzung ist und sich die Partytouristen in Berlin-Mitte nach wie vor benehmen als gäbe es weder Instagram noch ein Morgen. Und schließlich gibt es noch diejenigen, die keine Lust (mehr) auf die Nutzung dieser Verwaltungsmedien haben, denen die Gefahr der Fremdbeobachtung und / oder der Aufwand solcher Selbst(bild)kontrolle zu hoch ist. Offen ist allerdings, was wird, wenn eine virtuelle Repräsentation normativ wird, vielleicht sogar staatlich gesteuert. Wer das für absurd hält, der sollte sich einmal mit der Geschichte des Personalausweises befassen. Dann erscheint fast folgerichtig, dass früher oder später eindeutige digitale ID-Marker für unsere virtuellen Repräsentationen als notwendig eingeführt werden.

VII

Eine schöne Herleitung der generellen digitalkulturellen Entwicklung bis heute bietet in einer nahezu enzyklopädischen Form (immerhin nach dem Untergang der Enzyklopädien und damit der Vorstellung, man könne einen allgemeinen Kanon des Faktenwissens in einer geschlossenen Form abbilden) eine im Mai erschienene und noch erhältliche Sonderausgabe des zentralen Begleitmediums der Netzkultur – der Zeitschrift Wired: Wired. The first 20 years. (Interessanterweise wurde das mittlerweile zum popkulturellen Parallelmedium etablierte und weitaus anarchischere Vice Magazine fast zeitgleich gegründet. Wer die Jahrgänge dieser Publikationen bewahrt hat, dürfte für eine Genealogie der populärkulturellen Gegenwart mitsamt der dazugehörigen Kulturindustrie eine solide Forschungsgrundlage besitzen.)

Wired - das weiße Heft

Wired. Das weiße Heft, hier platziert auf einem Retro-Liegekissen. Auf der soeben erfundenen Moretti-Skala Close-Distant-Reading lautet die Leseempfehlung für diese Ausgabe: Mittel. Wer leichtgängigen kalifornischen Selbstbespiegelungsjournalismus mag, findet exakt was er erwartet, muss es also eigentlich nur überfliegen. Wer sich gern erinnern möchte, wie alles begann mit der Netzkultur, entdeckt die richtigen Schlüsselwörter (bzw. seine Madeleines wie Proustianer sagen würden). Wer sanftmütige Insiderscherze zur Ted-Talk-Präsentationspraxis sucht, bekommt Unterhaltung für die Länge von etwa 10 Tweets. Insgesamt ist die Ausgabe ein schmuckes Sammlerstück und wir werden in zehn Jahren sicherlich mit einigem Erstaunen und nicht wenig Freude an der Nostalgie wieder hineinblättern.

Diejenigen, die in den 1990ern mit der Netzkultur anbandelten, finden zudem im Jubiläumsheft eine Dokumentation einschlägiger Leitphänomene der eigenen Vergangenheit. Die Anknüpfungspunkte von A wie Angry Birds, Apps und Arab Spring über Friendster, Microsoft (sehr ausführlich), Napster (anderthalb Spalten), Trolling („But when skillful trolls do choose to converse with their critics, they poison the discussion with more over-the-top provocations masquerading as sincere statements.”, S. 160) und Wikileaks bis Z wie ZeuS sind jedenfalls vielfältig.

Ein schöner Trigger ist natürlich das Stichwort Blogs: 1998, als die meisten nutzergenerierten Inhalte noch bei Freespace-Anbietern wie Geocities oder tripod.com lagen, existierten, so erfährt man auf Seite 34, 23 Weblogs. Webweit. Ein Jahr später waren es ein paar zehntausend und der Schlüssel war eine vergleichsweise simple Webanwendung namens Blogger eines Zwei-Personen-Unternehmens namens Pyra Labs.

Diese Geschichte, genauso wie Google, das 2003 Blogger übernahm, zeigt den faszinierenden Kern der Digitalkultur. Die entscheidenden Entwicklungen waren immer durch das Engagement weniger Akteure (eine Porträtgalerie vom Präsidenten-Fotografen Platon präsentiert von Marissa Mayer bis Tim Cook all diese Lichtgestalten in Schwarz-Weiß), sehr simple Ideen, wenig langfristiger Planung und glücklicher Fügung geprägt. All diese Spuren sind so umfassend wie bei keiner anderen mächtigen Kulturentwicklung in der Menschheitsgeschichte dokumentiert. Die heutigen Big Player der Netzkultur begannen alle mit wenig mehr als vergleichsweise minimalem Budget und einer Idee. Wo man planvoll vorging und viel Geld investierte (kottke.com), ging es meist schief.

In die vom Ende der Geschichte erschöpften 1990er Jahre drang mit dem Internet eine frische Woge Zukunft und das Versprechen lautete, dass jeder, wenn er nur einen Computer und ein Modem und etwas Fantasie hatte, eine neue Welt nicht nur betreten, sondern sogar gestalten kann. (Und außerdem mit nur einer Idee sehr reich werden.) Für die Kulturindustrie wurden zu diesem Zeitpunkt die Karten neu gemischt, was viele Vertreter der etablierten Zweige weder verstanden noch überhaupt wahrnahmen. (sh. auch Sony, S. 136)

Das konnte natürlich auch scheitern, wie beispielsweise die Idee dank Hypertext nicht-lineare Narrationsformen durchzusetzen. „You can see this as a classic failure of futurism“, schreibt Steven Johnson zum entsprechenden Stichwort (S. 92), „Even those of us who actually have a grasp of longterm trends can’t predict the real consequences of those trends.” Wirkliche Webliteratur hat sich nirgends ein Publikum erobert und selbst wer nicht-lineare Texte liebt, liest seinen Danielewski (jedenfalls nach meiner Erfahrung) doch lieber als Blattwerk.

Die Übertragung des Vernetzungsprinzips auf die Reproduktion einer Verwaltungskartei für persönliche Kontakte wurde jedoch zum derzeitigen Zentralhabitat der Webpopulation. (sh. Facebook) Das man das Hauptgewicht tatsächlich auf Identität (das Gesicht) und nicht nur auf den Kontakt (ein Rolodex 2.0 hätte gewiss allein klanglich versagt) legte, ist Teil der Rezeptur.

Das weiße Wired-Heft selbst entspricht dem flockigen, anekdotengeschwängerten und niemals langweiligen Stil, der dem Web eigen ist, ist also auch ein gutes Zeitdokument journalistischer Standards der Netzkultur und lässt sich obendrein prima am Strand lesen. Idealerweise an einem mit Netzabdeckung, denn der Artikel zum Thema QR Code ist konsequent als QR Code-Verknüpfung eingedruckt. Mindestens so erstaunlich erscheint, dass die Firma 1&1 aus Montabaur auf Seite 193 eine Anzeige schaltet, deren Anmutung schon im Jahr 1993 in Wired altbacken gewirkt hätte. Aber vielleicht gerade deshalb.

VIII

Weiß man nach der Lektüre der Ausgabe präziser, wo wir nach 20 Jahren Wired (bzw. 20 Jahren Netzpopulärkultur) stehen? Vielleicht so viel, wie man über die Literatur einer Literaturgattung weiß, wenn man den Brockhaus-Artikel oder einen Moretti-Aufsatz zum Thema gelesen hat. Man hat einen Überblick und ein paar separate Fakten. Aber ohne unmittelbare Erfahrung bleibt es blanke Oberfläche. Die unmittelbare Gegenwartserfahrung zeigt eine gewisse Konsolidierung der Nutzungspraxen, die dafür mit dem Alltag verschmelzen. Die Wired-Ausgabe zeigt auf, was die vergangenen 20 Jahre eigentlich verschoben haben und nun sitzen wir hier vor den Macbook-Air und finden es eigentlich ganz okay, wenn es einen kleinen Sprung im Display gibt, also eine Brechung der Fassade. Im Hypertext-Eintrag heißt es: „and in the long run the web needed the poets and philosophers almost as much as it needed the coders.“ (S. 92)

Das Verhältnis scheint mir längst gekippt zu sein. Digitale Frühaufklärer wie Jewgeni Morosow und Gegenrevolutionäre wie Jaron Lanier sind längst im Metadiskurs auf Augenhöhe und in gleicher Dauerpräsenz wie die lange dominanten Futuristen und Heilsverkünder anzutreffen. Diese Vielstimmigkeit ist keine schlechte Entwicklung. Auch dahingehend geschah in den vergangenen Jahren sehr viel auch an Reifung. Alle, die über zwanzig sind, wissen, dass zwanzig Jahre überhaupt kein langer Zeitraum sind. Hält man sich vor Augen, wie grundlegend und disruptiv die Kulturverschiebung eigentlich wirkt (das Wired-Heft deutet es nur an), dann lief es – auch vor dem Horizont des geschichtlichen Wissens um kulturelle Verwerfungen) – geradezu friedlich und naiv ab, was sicher auch das Resultat einer schnellen und ziemlich umfassenden Bemächtigung, Steuerung, Moderation und Gestaltung dieser Prozesse durch einen nun digitalen Kapitalismus ist.

Die Entfaltung der Schattenseiten der Technologie, ihre Intrusivität hat sich bisher mit dem Emanzipationspotential die Waage gehalten. Ihres dystopischen Gehalt sind wir uns bewusst (und wer Nachholbedarf hat, sollte Gary Shteyngarts Super Sad True Love Story lesen).

Die Einblicke in Tempora und Prism durch Edward Snowden sind sicherlich eine nächste Zäsur und ein wichtiger Schritt zum Verständnis der Risiken eine Omnikodifizierung und Vernetzung unserer Lebenswelten. In jedem Fall zeigen sie die Notwendigkeit einer übergeordneten Gegenkontrolle zum angeordneten Monitoring unserer digitalen Handlungen. Entsprechend wichtig ist auch die Rolle der Intellektuellen und eines dekonstruierenden intellektuellen Diskurses dazu. Der muss nicht zwingend in der Wissenschaft geführt werden. Aber es würde natürlich der Wissenschaft nicht schaden, wenn sie ihn führte.

Das Fruchtbare dieses Bremsdiskurses wäre übrigens, dass die Gesellschaft beständig die gesamte Bandbreite ihrer Wertvorstellungen, Wünsche und Ängste gegenüber dem digitaltechnisch Machbaren und der Digitalkultur reflektiert, um früh und deutlich genug Einspruch erheben zu können, wenn etwas aus dem Ruder läuft und wenn neue Totalisierungstendenzen gleich welcher Art entstehen. Die Literatur schafft es, uns dafür sensibel zu halten, gerade in dem sie in der Nahlektüre berührt. Ich bin mir nicht sicher, wie die Stilanalytik des Distant Readings aus dem Stanford Literary Lab dafür einsetzbar wäre.

26.06.2013

Library Life. Ein Interview zu einem interdisziplinären Forschungsprojekt.

Posted in LIBREAS aktuell, LIBREAS.Interview by libreas on 11. April 2013

von Lars Müller

In der Bibliotheks- und Informationswissenschaft spricht man häufig und gerne über die Erforschung vom Leben in und um Bibliotheken . Bibliotheks- und informationswissenschaftliche Studien dazu sind aber erstaunlicherweise im deutschsprachigen Raum Raritäten. Ebenso überraschend greifen in wachsender Zahl andere Disziplinen dieses Themenfeld auf. Eines dieser Projekte ist die Research Area 8, Cultures of Knowledge, Research, and Education im International Graduate Centre for the Study of Culture an der Universität Giessen. Dort ist Friedolin Krentel einer der Ansprechpartner für das Forschungsprojekt „Library Life“. Ich war daher neugierig auf das Giessener Projekt und habe für das LIBREAS-Blog per E-Mail nachgefragt.
Lars Müller (LM): Aus welchen Disziplinen stammen die beteiligten Forscher/innen Eurer Arbeitsgruppe, sind Bibliotheks- und Informationswissenschaftler/innen beteiligt?

Friedolin Krentel (FK): Unsere Arbeitsgruppe zu „Library Life“ ist aus disziplinärer Hinsicht sicherlich ein bunt zusammengewürfelter Haufen. Sie setzt sich heute aus etwa 8 bis 10 Wissenschaftler*innen zusammen, die aus ganz unterschiedlichen Fachrichtungen wie Ethnologie, Germanistik, Geschichte, Informatik, Literaturwissenschaften, Medienwissenschaften und den Sozialwissenschaften kommen. Ausgewiesene Bibliotheks- und/oder Informationswissenschaftler*innen sind leider nicht dabei. Ich könnte mir aber durchaus vorstellen, dass sich die Vielfalt unserer disziplinären Hintergründe zusammengenommen im Zusammenspiel mit unserem Forschungsinteresse sicherlich in mancherlei Hinsicht mit informationswissenschaftlichen Ansätzen und Perspektiven assoziieren lässt.

LM: Worauf richtet sich Euer Erkenntnisinteresse: Alltag der Forscher/innen, Entstehung von Wissen oder Information, Bibliothek als Raum…?

FK: Unser Projekt entwickelte sich innerhalb der Research Area 8 über einen Zeitraum von beinahe zwei Jahren aus einer intensiven Beschäftigung mit Texten der Akteur-Netzwerk-Theorie (ANT) um Bruno Latour und Michel Callon. Das kann man zum Beispiel auch am Titel „Library Life“ sehen, der bewusst auf die von Bruno Latours und Steven Woolgars 1979 publizierte Untersuchung namens „Laboratory Life“ (Bruno Latour, Steve Woolgar (1986): Laboratory life. The construction of scientific facts. Beverly Hills : Sage Publ, 1979. Wikipedia-Seite zur Publikation) anspielt. Die Studie beschäftigt sich mit Praktiken der Wissensproduktion in naturwissenschaftlichen Laboren und liefert wichtige Impulse für die fortlaufende Entwicklung der ANT.

In „Library Life“ wollen wir nun in gewisser Weise mit der ANT experimentieren, um zu überprüfen, inwiefern deren analytisches Instrumentarium sich auch für sozial- und geisteswissenschaftliche Wege der Wissensproduktion nutzen lässt bzw. welche neuen Erkenntnisse und Beschreibungen sich aus dieser Perspektive ergeben. Unser Fokus liegt auf der Rekonstruktion der individuellen Praktiken der Wissensorganisation und Textproduktion von Sozial- und Geisteswissenschaftler*innen. Dabei wollen wir sowohl ideelle, praktische als auch materielle Einflussfaktoren des wissenschaftlichen Arbeitsalltags aufzeigen, um damit den Prozess der Wissensgenerierung “sichtbarer” und „(be-)greifbarer“ beschreiben zu können.

Gerade angesichts einer immens fortschreitenden Umstellung der Arbeitsumgebungen im Zuge von „Computerisierung“ und Vernetzung der verwendeten Werkzeuge und Hilfsmittel sowie der möglicherweise parallelen Verwendung von „analogen“ (Zettelkasten, Karteikarten, handschriftliches Exzerpieren) und „digitalen“ (Literaturverwaltungsprogramme, vernetzte Suchalgorithmen, relationale Datenbanken, kollaborativ-vernetztes Arbeiten) Methoden, kann hier von einer Vielfalt unterschiedlichster Vorgehensweisen und Strategien zur Erzeugung wissenschaftlicher Erkenntnisse ausgegangen werden.

LM: Wie lautet Eure forschungsleitende These?

FK: Analog zu den laboratory studies nehmen wir als heuristische Arbeitshypothese an, dass die Arbeitszimmer, Bibliotheken und Büros die Labore, respektive Werkstätten sozial- und geisteswissenschaftlicher Wissensproduktion sind. Als Arbeitsorte oder Arbeitsumwelten mit einer spezifisch gestalteten Logik, materiellen Ausstattung sowie bestimmten Eigenschaften und Eigenarten sind sie unmittelbar in die Praktiken des wissenschaftlichen Erkenntnisprozess involviert und werden zugleich durch diese Praktiken als (sozial- und/oder geistes-)wissenschaftliche Handlungsorte hervorgebracht. Der wissenschaftliche Erkenntnisprozess findet damit nicht „nur“ auf einer rein geistigen Ebene statt, sondern beinhaltet immer auch einen praktischen (und zumeist wenig reflektierten) Umgang mit in gewisser Weise auch widerspenstigen Elementen der Arbeitsumwelt. Dabei kann es sich auf der einen Seite um ganz offensichtliche Dinge wie Computer, spezielle Programme, Bücher, Notizen usw. handeln. Aber ebenso könnten auch Dinge wie Lieblingsstifte, Bilder, Skulpturen, der Blick aus dem Fenster, die Kaffeemaschine im Büro, Pflanzen usw. eine Rolle spielen. Die Liste ließe sich sicherlich nahezu unendlich fortsetzen, man muss sich nur mal überlegen was am eigenen Schreibtisch so alles herumsteht oder liegt.

Mit dem von der ANT postulierten „symmetrischen Blick“ auf Wissen schaffende Praxen, gehen wir also davon aus, dass diese materiellen Ensemble im Zusammenspiel der im Umgang mit ihnen durchgeführten Praktiken direkt in die inhaltliche und formale Gestalt wissenschaftlicher Texte einfließen. Entsprechend sieht unsere empirische Datenerhebung ausdrücklich vor, das jeweilige Arbeitsumfeld und dessen Ausstattung und Dinge einzubeziehen.

LM: Welche Methoden benutzt ihr?

FK: Die Auswahl geeigneter Methoden für unser Unterfangen war innerhalb der interdisziplinären Forschungsgruppe ein längerer Prozess. Im Kern ging es darum, die methodologischen Anforderungen des Forschungsinteresses mit dem dazu notwendigen individuellen Aufwand für die parallel an ihren jeweiligen Dissertationen arbeitenden Doktorand*innen der Arbeitsgruppe abzuwägen.
Da es uns unmöglich erschien neben der Dissertation eine ethnografische Beobachtung der häufig mehrere Monate oder gar Jahre andauernden Arbeit an wissenschaftlichen Texten in Aktion im Sinne der ANT durchzuführen, versuchen wir mittels narrativer Interviews einen Reflexionsprozess bei den Interviewpartner*innen über ihr eigenes Tun anzustoßen. Sie sollen damit sozusagen zu Ethnograf*innen ihrer Selbst werden und uns – orientiert an einem von ihnen publizierten Artikel – dessen Entstehungsgeschichte rekonstruierend erzählen. Um die dinglichen, körperlichen und praxeologischen Dimensionen der Wissenserzeugung nicht aus dem Blick zu verlieren, entschieden wir uns dazu, die Interviews an dem von den Interviewpartner*innen als ihrem textspezifisch-persönlichen Hauptarbeitsort – sei es nun in der Bibliothek, dem Büro oder auch ein privates Zimmer – benannten Ort durchzuführen. Die Interviews werden jeweils zu zweit durchgeführt, so dass immer eine Person sich auf die Beobachtung des räumlich-materiellen Ensembles sowie dessen gestische Einbeziehung in die Erläuterung konzentrieren kann. Die Beobachtungen sowie unser im Vorfeld für die materiell-praxeologischen Dimensionen sensibilisierte Blick dienen dann im späteren Verlauf des Interviews dazu, möglichst offene Fragen zu konkreten Umgangsweisen und Bedeutungen einzelner erwähnter, gezeigter oder auch unerwähnter Elemente zu stellen.

Als Vorbereitung für die Interviews identifizierten wir aus unseren eigenen Arbeitsweisen potentiell relevante Aspekte und entwickelten daraus eine Art Leitfaden, der aber bestenfalls erst dann zum Einsatz kommen soll, wenn sich aus dem Interview selbst oder den Beobachtungen keine weiteren Fragen mehr ergeben. Die freie Erzählung unserer Interviewpartner*innen soll im Vordergrund stehen! Da es innerhalb unserer Forschungsgruppe unterschiedlich ausgeprägte Erfahrungen mit Interviews (und speziell narrativen Interviews) gibt, soll der Leitfaden auch als eine Hilfestellung für die unerfahreneren Kolleg*innen dienen.
Mit Einverständnis der Interviewpartner*innen würden wir im Anschluss an das Interview auch noch versuchen einzelne wichtige Elemente und/oder den gesamten Arbeitsraum mittels Videokamera und Fotoapparat zu dokumentieren, um diese dann für die Analyse in der Gruppe nutzen zu können und den individuellen Erinnerungsprozess beim Schreiben und Auswerten der Beobachtungsprotokolle zu unterstützen.

LM: Wie ist die Gruppe der Untersuchten zusammengesetzt?

FK: Als Sample für unsere Interviewanfragen haben wir in erster Linie persönlich bekannte Wissenschaftler*innen aus unterschiedlichen geistes- und sozialwissenschaftlichen Disziplinen und in verschiedenen Karrierestadien – von Doktorand*in bis Professor*in – ins Auge gefasst. Aufgrund der teilweise in privaten Bereichen stattfindenden Interviews, erscheint uns ein gewisses bereits im Vorfeld bestehendes Vertrauensverhältnis wichtig für den Zugang und die individuelle Bereitschaft für ein Interview. Insgesamt werden wir – zumeist zu zweit und in unterschiedlichen Konstellationen – jeweils zwei Interviews führen, wodurch sich unsere Untersuchungsgruppe auf insgesamt etwa 10 Personen begrenzen lässt. Zusätzlich überlege ich derzeit, ob es nicht auch interessant wäre, unsere eigenen wissenschaftlichen Arbeitsweisen innerhalb von „Library Life“ zu beobachten. Als Ausgangspunkt könnte beispielsweise unsere Klausurtagung zur gemeinsamen Sichtung und Analyse des Datenmaterials dokumentiert werden und für eine Art Metaanalyse dienen.

LM: In welcher Phase befindet sich das Projekt „Library Life“ zur Zeit?

FK: Die Phase der Datenerhebung per Interviews läuft. Sie wird sich noch bis Ende Mai hinziehen. Soweit ich weiß, wurden bereits erste Interviews geführt und einige Zusagen sind ebenfalls eingegangen, die dann im April/Mai in Angriff genommen werden. Für Anfang Juni haben wir uns mit der bereits erwähnter Klausurtagung eine klare Deadline gesetzt, zu der die Interviews definitiv abgeschlossen sein sollten. In dieser Klausurtagung wollen wir uns dann gemeinsam über mehrere Tage den Daten und ihrer Analyse widmen, um wichtige Aspekte herauszuarbeiten, die anschließend in kleineren Gruppen vertiefend behandelt werden können. Außerdem steht auf der Klausurtagung noch an, dass wir uns angesichts der vorläufigen Ergebnisse über mögliche Publikationsformate einigen, womit wir dann ja auch gleich bei der nächsten Frage angekommen sind.

LM: Ich bin gespannt auf Eure Ergebnisse. Wann und wo werdet ihr sie publizieren?

FK: Wie gesagt, steht das wo und wie noch nicht fest. Wir haben in diversen Arbeitstreffen zwar bereits mehrere Male das Thema Publikationsformen angesprochen, konnten und wollten uns da aber noch nicht endgültig festlegen. Die Tendenz geht aber – aus meiner Sicht – dahin, dass wir uns den November diesen Jahres als Deadline setzen, zu der wir uns gegenseitig und daran anschließend sicherlich auch noch auf unterschiedlichen Tagungen die Teilergebnisse der einzelnen Arbeitsgruppen vorstellen werden. Wie diese dann abschließend fixiert werden, sei es nun als gemeinsamer Sammelband, einzelne Artikel oder auch in Form einer Ausstellung oder online-Präsenz (oder auch mehrere Formate parallel) kann ich jetzt noch nicht sagen. Ich denke aber, dass wir dann im Juni weiter sind. Wer sich also dafür interessiert, kann sich bereits jetzt oder dann im Juni hoffentlich ausführlicher auf der Homepage der Research Area 8 informieren.

Zum Abschluss möchte ich mich für die spannenden Fragen bedanken, die mir einerseits die Möglichkeit eingeräumt haben, „Library Life“ vorzustellen, die mich aber darüber hinaus auch dazu angeregt haben, unser Projekt nochmal neu zu reflektieren und zu formulieren. Vielen Dank!

LM: Ich danke Dir!

(April 2013)

It’s the frei<tag> 2013 Countdown (11): What? (Literaturverwaltung, Beispiel)

Posted in LIBREAS aktuell, LIBREAS Veranstaltungen by Karsten Schuldt on 10. März 2013

von Karsten Schuldt

I.

Letzte Woche fand in der Humboldt-Universität zu Berlin die Inetbib-Konferenz statt. Eine wichtige Veranstaltung, bei der unter anderem der Redaktionskollege Matti Stöhr einen Vortrag zu Literaturverwaltungen und Bibliotheken hielt, wo er unter anderem darauf insistierte, dass Bibliotheken nicht nur für eine oder zwei Literaturverwaltungssysteme Beratung anbieten sollten, sondern ihrem Anspruch als Einrichtungen, die einen möglichst grossen Zugang zu Wissen ermöglichen, entsprechend, auch möglichst viele Alternativen zur Literatursverwaltung nachweisen sollten. Das Bibliotheken Beratungen zur Literaturverwaltung anbieten sollen wurde in diesem Vortrag und auch der folgenden Diskussion vorausgesetzt. Niemand hat dem widersprochen.

II.

Zum Wochenende nach der Inetbib-Tagung ging ich mit einer Freundin aus, die ich sehr hoch schätze und die mich mit ihrer Intelligenz immer wieder von überzeugt. Zwei kleine charakterliche Schwächen weisst sie allerdings auf: Erstens will sie – warum auch immer – ihre jetzige Beziehung gegen alle Flirtversuche einfach beibehalten und zweitens weigert sie sich, Bibliothekswissenschaftlerin zu werden, will stattdessen einfach weiter Physikerin bleiben und demnächst in dieser Disziplin ihre Promotion beginnen. An beiden Schwächen kann ich mich seit Jahren abarbeiten.

Diese Freundin besuchte desletztens die jährliche Tagung der deutschen physikalischen Gesellschaft. Sie berichtete, dass sie dort eine Informationsveranstaltung besuchte, auf der ein Sprecher angeblich informationswissenschaftliche Themen besprechen wollte, aber eigentlich eine Software vorstellte, mit der Wissenschaftlerinnen und Wissenschaftler in der Lage sein sollen, ihre Literatur zu verzeichnen, die PDFs dazu zu speichern, diese zu durchsuchen und im Allgemeinen zu verwalten. Besagte Freundin war von diesem obskuren Programm „Mendeley“ so begeistert, dass sie die letzten Tage damit verbrachte, mit dessen Hilfe tatsächlich ihre gesamte Forschungsliteratur zu verzeichnen.

Wie gesagt: Ich traue dieser Frau vieles zu und halte ihre Intelligenz für ausserordentlich hoch. Allerdings scheint ihr, die wirklich viel von mir zu Bibliotheken, Informationsverwaltung, Informationswissenschaft etc. gehört hat und selber seit einigen Jahren im physikalischen Forschungsprozess aktiv ist, die Idee eines Literaturverwaltungsprogrammes so neu und so radikal richtig zu erscheinen, dass sie es erst zufällig jetzt entdeckt hat. Das kann nicht daran liegen, dass sie bislang ignorant durch die Welt gegangen wäre. Im Gegensatz zu vielen anderen Physikerinnen und Physikern benutzt sie sogar ihre Universitätsbibliothek. Eigentlich hat die Bibliothek ihre Chance gehabt, sie an Literatursverwaltungssoftware heranzuführen.

Wie auch immer die "anderen", die die mit Bibliotheken etwas anderes als "wir" oder gar nicht zu tun haben, ticken ist offenbar so einfach gar nicht zu verstehen. Mag sein, dass wir wissen, was für sie besser wäre (Wirklich? Denken wir nicht eher nur, wir würden es wissen? Braucht die Welt vielleicht Datenbanken gar nicht so sehr, wie wir denken?), dass heisst nicht, dass die "anderen" es auch so sehen. Es zu verstehen ist offenbar immer "nur" ein Versuche. Oder, um in der Sprache der aktuellen Ausstellung in der NGBK (hier auf dem Bild) zu bleiben, ein Versuch den state of mind zu rekonstruieren.

Wie auch immer die “anderen”, die die mit Bibliotheken etwas anderes als “wir” oder gar nicht zu tun haben, ticken ist offenbar so einfach gar nicht zu verstehen. Mag sein, dass wir wissen, was für sie besser wäre (Wirklich? Denken wir nicht eher nur, wir würden es wissen? Braucht die Welt vielleicht Datenbanken gar nicht so sehr, wie wir denken?), dass heisst nicht, dass die “anderen” es auch so sehen. Es zu verstehen ist offenbar immer “nur” ein Versuche. Oder, um in der Sprache der aktuellen Ausstellung in der NGBK (hier auf dem Bild) zu bleiben, ein Versuch den state of mind zu rekonstruieren.

III.

Ist das ein Einzelfall? Ich vermute eher nicht. Aber es ist eine erstaunliche Überraschung, die man auch nur entdeckt, wenn man sich direkt in die Realität begibt. Wir als Bibliothekswesen scheinen beispielsweise vorauszusetzen, dass Literaturverwaltungsprogramme sinnvoll sind – und deshalb hat der Kollege Stöhr auch Recht, wenn er darauf verweist, dass Bibliotheken mehr als ein Programm (und dann meist auch noch ein eher mittelmässiges, dass oft nur auf einen mittelmässigen Betriebssystem läuft) begleiten sollten. Aber die Wissenschaft funktioniert offenbar auch dufte ohne ein solches Programm. (Von der gleichen Freundin kann ich berichten, dass sie mich kurz vor ihrer Masterarbeit fragte, ob ich ihr einmal recherchieren zeigen kann, weil das Studieren und Forschen bis dato offenbar auch ohne Recherche funktioniert hatte.)

Einst, als ich in einer Öffentlichen Bibliothek ein Praktikum absolvierte, kam ein Nutzer, der dort immer war, zu mir und fragte, ob es in der Bibliothek ein Buch gäbe, in welchem steht, wie die Worte richtig geschrieben werden, damit man nachschlagen kann, wie es richtig wäre. Auch da habe ich eine Zeit gebraucht, den Fakt zu verarbeiten, dass er von etwas sprach, was ich als bekannt voraussetzen würden: den Duden halt.

Was mich in solchen Fällen immer wieder trifft ist gar nicht die Erkenntnis, dass man, wenn man nur lange genug die eigene Schicht, das eigene Bildungskapital und die eigenen Peer Groups „ignoriert“ sehr schnell Dinge als bekannt und selbstverständlich voraussetzt, die es nicht sind. Vielmehr drängt sich mir immer wieder die Frage auf: Wie kriegen wir als Bibliotheken eigentlich heraus, was wir fälschlich voraussetzen? Es kann ja keine Strategie sein, die ganze Zeit mit Forschenden aus anderen Disziplinen zu flirten oder auf erstaunliche Anfragen von Nutzerinnen und Nutzern zu warten. Aber über die Frage selber bin ich bislang nicht herausgekommen.

Überlegungen zum Verhältnis von Mensch und Technik in Wissenschaftsinfrastrukturprojekten.

Posted in LIBREAS.Referate by Ben on 7. Januar 2013

zu:

Sonja Palfner, Ulla Tschida: Grid: Technologie und soziale Praxis. In: Technikfolgenabschätzung. Theorie und Praxis. 21 / Heft 2. November 2012. S. 50-53

Unter den Projekten zur Digitalisierung der Wissenschaftspraxis in der Bundesrepublik der 2000er Jahre ragt die D-GRID-Initiative markant hervor. Das begründet sich einerseits aus ihrem Anspruch heraus, Grid-Computing in enger Kooperation mit den Fachcommunities in der Fläche zu etablieren. Und andererseits aufgrund des erheblichen Fördervolumens, das sich freilich nach dem Anspruch richtete. Die enge Verzahnung zwischen informatischer Innovation und fachwissenschaftlichen Ansprüchen prädestinierte die Initiative für eine wissenschaftssoziologische Begleitforschung. Technologie ist unzweifelhaft grundsätzlich vor allem soziales Geschehen. Auch die Entscheidung des BMBF zur massiven Förderung genau dieses Ansatzes ist Ergebnis sozialer Interaktionen. Aktuell bewegen sich diese um die Frage, wie, wo und in welcher Form die entwickelten Infrastrukturelemente und forschungsbegleitenden Werkzeuge mitsamt der für sie notwendigen Weiterentwicklung verstetigt werden können? Die technischen Möglichkeiten selbst wirken gewiss dispositiv auf das Machbare. Was aber tatsächlich umgesetzt wird, resultiert aus einer komplexen Wechselwirkung diverser Faktoren – von Budgets über die Motivation, Interessen, Konkurrenzkonstellationen und Kompetenzen von Einzelakteuren bis hin zu rechtlichen Gesichtspunkten.

Sonja Palfner und Ulla Tschida, die die D-Grid-Initiative aus einer techniksoziologischen Perspektive beforschen, rücken in ihrem kurzen Beitrag für die Zeitschrift Technikfolgenabschätzung die Frage nach dem Verhältnis zwischen den Fachgemeinschaften und den Entwicklern ins Zentrum, eine Frage also, die sich zwangsläufig auch der Bibliothekswissenschaft stellt. Denn einerseits sind wissenschaftliche Bibliotheken grundsätzlich ebenfalls Dienstleister für die Wissenschaftspraxis. Und andererseits sind Digitale Bibliotheken durch und durch informatische Ensemble. Die Entwicklung Digitaler Bibliotheksdienstleistungen, die sinnvollerweise konsequent mit dem Ziel der tatsächlichen Inanspruchnahme durch die Bibliotheksnutzer erfolgen muss, bewegt sich folglich in einem Spannungsverhältnis ähnlich dem, das die Autorinnen anhand von drei Konstellationstypen aufschlüsseln.

Beim ersten Typ dominiert die Fachwissenschaft die Informatik. Die Entwickler sollen passgenaue Dienste nach den Bedürfnissen und Ansprüchen der Wissenschaftler entwickeln. Das Problem dabei liegt jedoch in der Dynamik exakt dieser Ansprüche. Die Autorinnen betonen, dass „ein etablierter Service […] durch die Forschung selbst quasi ständig aus der bekannten Routine gerissen werden [kann].“ (S. 53)

Geht man von einer idealtypischen Wissenschaft, also einem permanenten Erkenntnisfortschritt mit sich verschiebenden Forschungshorizonten aus, dann ist das nicht einmal ein Kann-Zustand, sondern elementar: Es gibt in der Wissenschaft bestenfalls zeitweilige Stabilisierungen und Konsolidierungen in Routinen, die aber naturgemäß je nach Überarbeitung der Thesen, Forschungsfragen und Erkenntniszielen eher früher als später selbst infrage gestellt werden. Dauerhafte Routinedienste für die Wissenschaft sind hierbei bestenfalls im Sinne von Basiskonzepten und vor allem von Standards für Begleit- und Nachweisdienste (Forschungsdokumentation, Datenarchivierung), also metawissenschaftlich, denkbar. Je konkreter die Forschungspraxis und das dazu entwickelte Werkzeug (bzw. je näher an der so genannten Forschungsfront), desto zwingender wird auch eine Weiter- oder gar Neuentwicklung dazugehörender Anwendungen werden.

Was bleibt, sind Lessons-Learned- und Best-Practice-Erkenntnisse, die den jeweiligen Anpassungen zugrunde liegen. Bei einer engen Verzahnung von Bibliothek bzw. Dokumentation mit Forschungsprojekten wäre es beispielsweise ein Embedded Librarian, der mit einem diesbezüglichen Erfahrungswissen hinzugezogen wird und eine Grundsolidität der für ein Projekt notwendigen technischen Begleitdienste garantiert. Und der vielleicht entscheidet, ob auf etablierte Anwendungen zurückgegriffen werden kann/sollte oder Neu- bzw. Weiterentwicklungen unumgänglich sind. Denn ohne Zweifel gibt es trotz des oben Gesagten weite Bereiche der Wissenschaftspraxis, die methodische Nachnutzungen auch aus (wissenschafts-)ökonomischer Sicht als pragmatische Lösung zweckmäßig erscheinen lassen. Wer mit Projektwissenschaft vertraut ist, weiß, dass ein kompromissloses Streben nach neuer Erkenntnis in der Praxis eher die Ausnahme als die Wissenschaftsregel darstellt. Offen bleibt dennoch auch dann, ob bzw. wann man die Forschungsfrage den zur Verfügung stehenden Werkzeuge anpasst oder Werkzeuge zur Forschungsfrage entwickelt. Pauschal ist sie in einer hochdifferenzierten Wissenschaftswelt nicht zu beantworten.

Die zweite Konstellation bezeichnen die Autorinnen als „Service in the making“ und meinen vermutlich einen Ansatz im Einklang mit der beschriebenen Entwicklung: Eine Softwarelösung wird konkret für ein Problem oder einen Forschungsansatz entwickelt. Entwicklerkapazitäten wären unmittelbar und auf Augenhöhe mit den fachwissenschaftlichen Kapazitäten in ein Projekt einzubinden.

Für Bibliotheken könnte man analog eine permanente Interaktion mit den Bibliotheksnutzern parallel stellen. Hier wäre also direkt eine Bibliothekswissenschaft angesprochen, die die Praxen und Entwicklungen in der Wissenschaftskommunikation systematisch analysiert und zu Hinweisen und Leitlinien für die Praxen und Entwicklungen im Bibliothekswesen weiterverarbeitet. Wenn der Bibliothekswissenschaft in diesem Zusammenhang eine Aufgabe zufällt, dann die, den Akteuren der wissenschaftlichen Literatur- bzw. Informationsversorgung – vorrangig aber eben nicht nur Bibliotheken – Orientierungswissen zur Verfügung zu stellen.

Der dritte Konstellationstyp invertiert schließlich das Verhältnis des ersten. Die fachwissenschaftliche Herausforderung dient hier nur als Aufhänger für die Produkt- oder Serviceentwicklung. Die Autorinnen sprechen von der „Materialisierung des informatischen Erkenntnisgewinns.“ (S. 53) Löst man dies von der Wissenschaftspraxis ab, findet man sich schnell im Bereich kommerzieller Software-Entwicklung, zum Beispiel bei Social-Media-Anbietern, die Erkenntnisse der Sozialen Netzwerk-Analyse benutzen, um die Algorithmen hinter ihren Plattformen zu optimieren.

In der Realität finden sich die Konstellationen selten trennscharf ausgeprägt. Vielmehr dürften sie sich selbst dynamisch entwickeln. Persönliche Motivationen dürften ebenso wie Ressourcenlagen und bestimmt auch Opportunitätsüberlegungen eine wichtige Rolle bei der Ausprägung der Schwerpunkte in diesem Wechselspiel zwischen Fachwissenschaftlern und Entwicklern einnehmen. Zumal auf einer Individualebene in der Praxis häufig Doppelrollen übernommen werden. Nicht selten dominieren Akteure, die sowohl einen fachwissenschaftlichen wie auch einen informatischen Hintergrund besitzen. Kombinationsstudiengänge fördern korrespondierend solch interdisziplinäre Grundausrichtungen, wobei sich die wissenschaftssoziologische Überlegung anschließt, inwieweit sich hierdurch bestimmt wissenschaftliche Eliten gezielt etablieren (können). Angesichts der wahrscheinlichen Intensivierung von Verfahren aus den so genannten Digitalen Geisteswissenschaften (bzw. Digital Humanities) ist so beispielsweise die Kombination einer geisteswissenschaftlichen Abschlusses mit einem computerwissenschaftlichen berufsstrategisch sicher eine bessere Wahl, als sich allein beispielsweise auf die Literaturwissenschaft zu konzentrieren. Interdisziplinarität meint in der heutigen Wissenschaftslandschaft möglicherweise weniger den Spagat zwischen zwei Disziplinen und mehr den zwischen einer fachwissenschaftlichen (theoretischen) und einer wissenschaftspraktischen Qualifikation.

Welche der drei Konstellationen sich tatsächlich wie entfaltet, lässt sich naturgemäß durch die Begleitforschung erst im Nachgang eines Projektes abschließend ermitteln. Sie kann aber fraglos, analog u. a. zur Diskursanalyse, die bestimmte Trends in sich konkret vollziehenden Diskursen zu erkennen und zu konstatieren und so auf den Diskurs Einfluss zu nehmen vermag, schon während der Durchführung eines Projektes, feststellen, wie sich Verteilungen entwickeln (Dominanz der Fachwissenschaft oder Dominanz der Informatik) und auf Abweichungen von einer angestrebten Ideallinie in diesem Verhältnis mit dem Ziel einer Korrektur hinweisen. Dies setzt selbstverständlich voraus, dass entsprechende Schwerpunkte und auch Parameter zwischen den Beteiligten ausgehandelt wurden. Beziehungsweise mitunter sogar, dass zunächst einmal ein Verständnis für die soziologische Grundierung dieses Verhältnisses zwischen Wissenschaft und Service für die Wissenschaft besteht. Also eine Sensibilität für die soziale Bedingtheit der Beziehung zwischen dem forschenden Menschen und den technischen / technologischen Dispositiven (Infrastrukturen, Bibliotheksdienste, Software) seiner Forschung sowie denen, die für die Bereitstellung und Entwicklung dieser Dispositive zuständig sind (Rechenzentren, Bibliotheken, Entwickler).

( Ben Kaden / Berlin / 07.01.2013 )

(Anmerkung: Ben Kaden ist aktuell wissenschaftlicher Mitarbeiter im TextGrid-Projekt.)

Call for Papers: Forschungsdaten, Metadaten, noch mehr Daten. Forschungsdatenmanagement

Posted in LIBREAS Call for Papers by libreas on 12. Dezember 2012

Call for Papers für die LIBREAS-Ausgabe #23
Thema:
Forschungs- und andere Daten sowie ihre Organisation und Rolle in Bibliothek und Wissenschaft
Einreichungsfrist: bis 31.05.2013 14.07.2013 19.08.2013
gewünscht sind: Beiträge, die Wechselwirkungen zwischen Wissenschaft, Daten und Bibliotheken reflektieren, annotieren, dekonstruieren und/oder analysieren
disziplinäre Einschränkungen: keine
Rückfragen: redaktion@libreas.eu

„Eine Forschung, die zunehmend durch die kooperative Tätigkeit weltweit vernetzter Communities und durch den Einsatz Computerbasierter Verfahren bestimmt ist, erfordert nun einmal die kontinuierliche und vor allem langfristige Verfügbarkeit von Publikationen und Forschungsdaten über das Internet. Nicht nur die Notwendigkeit, Forschungsergebnisse durch den Rückgriff auf die diesen Ergebnissen zugrunde liegenden Daten verifizieren zu können, sondern auch die produktive Nachnutzung von Forschungsdaten in anderen Kontexten setzt voraus, dass digital kodierte Information über Jahrzehnte hinweg authentisch verfügbar bleibt.“ (Matthias Kleiner. Vorwort. In: Heike Neuroth et al. (2012), S. 9)

„Die Basis einer gesunden Ordnung ist ein großer Papierkorb.“ (Kurt Tucholsky. In: Neue Leipziger Zeitung, 19.08.1930)

 

Wissenschaft produziert heute neben Erkenntnis vor allem immense Datenmengen. Die enorme Steigerung beruht in erster Linie auf der Entwicklung und Verfügbarkeit von Technologien zur Datenproduktion und -verarbeitung. leistungsstärkere Rechner und Messgeräte produzieren und vernetzen immer mehr Daten. Wo viele Daten sind, kommen fast naturgesetzlich immer noch mehr hinzu. Die Datenmengen, eines  Large Hadron Collider (LHC) in Genf sind derart umfangreich, dass sie nicht einmal mehr an einer zentralen Stelle gespeichert werden können, sondern auf das LHC Computing Grid verteilt werden müssen. Aber auch im Alltag entstehen immer mehr Daten „nebenher“, beim Surfen im Netz, beim Chatten, beim Taggen von Dateien usw. Nahezu jeder Klick erzeugt auch neue Daten.

Die Entwicklung führt zu umfassenden Änderungen der Wissenschaft, ihrer Methoden und besonders den Anforderungen an ihre Werkzeuge sowie an die Wissenschaftsinfrastrukturen. Datenintensive Forschung braucht angemessene Hilfsmittel. Physikerinnen und Physiker, die mit Daten aus LHC-Experimenten arbeiten wollen, müssen lernen, Daten aus dem Grid zusammensammeln und auszugeben. Sozialwissenschaftlerinnen und -wissenschaftler, die theoretische Modelle zum Zusammenhang von Hochschulsystem und Städteplanung über mehrere Staaten hinweg testen wollen, können dafür auf eine umfassende Datenlage zurückgreifen. Sie müssen aber diese kennen, finden und weiterverarbeiten können.

Angesichts dieser empirischen Wende könnte das Testen theoretischer Modelle bald der Vergangenheit angehören. Jim Gray formulierte die These, dass wir in die Zeit des vierten Forschungsparadigmas eintreten würden. (Hey, Tansley & Tolle, 2009) Die Forschungsdatenbestände würden zu groß werden, um überhaupt noch anders als mit explorativer Statistik, also einer Art Datenhermeneutik, auswertbar zu sein. Ob dies für alle Wissenschaften zutrifft, ist offen.

Folgerichtig wird die Bedeutung von langfristig und offen verfügbaren Forschungsdaten für den Forschungsprozess immer stärker betont. Man entwirft Systeme, die die Reputation einer Forscherin, eines Forschers an die erstellten Daten binden sollen. Diese Diskussion überdeckt eine andere Wahrheit: Immer noch sitzen die Theologinnen und Theologen an ihren Schreibtischen und produzieren nicht viel mehr Daten als in den Jahrhunderten zuvor. Sie benutzen aber möglicherweise zunehmend digital vorliegende Quellen. So geht es vielen Disziplinen: Einige, wie die Physik oder die Klimaforschung, erzeugen permanent riesige Datenmengen. Bei anderen ist vielleicht nicht das Wachstum der eigens produzierten Datenmengen überwältigend. Wohl aber die Zahl der durch die Digitalisierung direkt abrufbaren Datenbestände. Um diese ordentlich zu nutzen, sind adäquate Erschließungs- und Vermittlungsverfahren sowie Werkzeuge notwendig.

Wie soll Forschungsdatenmanagement funktionieren? (more…)

Daten und Wolken. Über die Verortung von Rechenzentren.

Posted in LIBREAS.Referate by Ben on 8. Dezember 2012

Anmerkungen zu:

Susan Alpsancar: Cloud. In: Marquardt, Nadine; Schreiber, Verena (Hg.) (2012): Ortsregister. Ein Glossar zu Räumen der Gegenwart. 1. Aufl. Bielefeld: Transcript. S. 64-69

Sonja Palfner, Gabriele Gramelsberger: Rechenzentrum. In: Marquardt, Nadine; Schreiber, Verena (Hg.) (2012): Ortsregister. Ein Glossar zu Räumen der Gegenwart. 1. Aufl. Bielefeld: Transcript. S. 231-236

von Ben Kaden

Dass das Wort Bibliothek mit einem Ort assoziiert wird, ist unstrittig – trotz aller Versuche, sie digital aufzulösen nicht zuletzt dank diverser Neubauten aber vermutlich auch generell. Für Rechenzentren gilt das nur begrenzt. Als konkreter Ort ist die Bezeichnung näher an bestimmten Aufbruchsbildern der Wissenschaft irgendwo zwischen den 1950er und den 1980er Jahren als an gegenwärtiger Wahrnehmung und angesichts der eminenten Bedeutung dieser Einrichtung scheint die Rechenzentrumsforschung z.B. als Teil der Techniksoziologie eher wenig präsent.

Je mehr die Rechner Alltagswerkzeuge wurden, desto unspektakulärer wurde das Rechenzentrum als Ort, zumal die aufgestellte Hardware in der direkten Betrachtung wenig Fläche für emotionale Bezüge bietet. Dann doch lieber die Cloud, die, wie Susan Alpsancar schreibt, „mit dem Ungreifbaren gleichzusetzen“ ist, aber metaphorisch gerade deshalb einen ganz anderen Kosmos entfaltet. Das Cloud-Computing, auf das wir über die Displays der gewichtsoptimierten Endgeräte zugreifen, hob das Rechnen scheinbar aus dem wuchtigen Rechenboxen in eine schwerkraftlose Wolkenwelt. Von einem „neue[n] Hype unter Computervisionären“ zu sprechen ist im Jahr 2012 schon fast überholt. Dennoch lohnt der Beitrag Susan Alpsancars im Sammelband „Ortsregister“ als grundlegende Annäherung, denn dass „[b]eim Cloud-Computing […] kommerzielle Anbieter die IT-Kapazitäten [bündeln und monopolisieren]“ ist ein zweifellos beachtenswerter Nebeneffekt. Und dies sollte allen, die ihr expliziertes Leben in die Cloud schieben, bewusst sein.

Strukturell hat die Cloud mit dem aus der datenintensiven Forschung stammenden Grid-Computing das Prinzip der verteilten Verarbeitung von Prozessen gemeinsam. Zudem lagert man auch die eigenen Datenbestände weitgehend aus, so dass das Tablet oder das Smartphone mehr oder weniger zu Varianten transportabler Terminals werden. Susan Alpsancar sieht diese Praxis als doppelt nicht-örtlich: Wir legen die Daten in einem für uns räumlich unbestimmbaren „Irgendwo“ ab, um sie von einem ebenfalls unbestimmten „Überall“ abrufen zu können. Und mehr noch: Je stärker wir Soziale Netzwerke wie Facebook nutzen, um unsere Identität abzubilden, desto intensiver verlagern wir auch unsere sozialen Beziehungen in diese Strukturen. Diese entwickeln sich demnach mehr oder weniger zu einem Hybridphänomen aus virtueller Identitätskartei und digital auflösbarem Kommunikationsort werden. Ganz risikolos ist die soziale Schwerelosigkeit und die unserer Daten nicht. Die Anker (oder auch Fußketten) sind in der Abhängigkeit von den konkreten Anbietern zu finden, die im Zweifel, so ist jedenfalls zu befürchten, ihr Geschäftsmodell über die Bedürfnisse der einzelnen stellen. Es sei denn, rechtliche Rahmenbedingungen setzen hier deutliche Grenzen.

Die werden bisweilen wieder ganz klassisch vom geographischen Standort des jeweiligen Servers bestimmt. Der zweite Fall, an dem uns die nach wie vor gegebene Tatsächlichkeit des konkreten Speicherortes bewusst wird, ist der Ausfall. Susan Alpsancar bemerkt, „dass die Frage nach dem »wo« der Daten nur dann relevant wird, wenn die gewöhnliche Nutzung unterbrochen wird. Wenn etwa eine technische Störung vorliegt oder Sie Ihre Daten in andere Aufenthaltswahrscheinlichkeitsräume bringen wollen.“

Doch selbst wenn sich dann die Grenzen der Cloud bzw. des Cloud-Computing herauskonturieren, weiß der Facebook-Nutzer vor seinem ratlosen Endgerät immer noch nicht, in welchem Teil der Erde sich seine Daten eventuell nach wie vor, aber für ihn unerreichbar gespeichert befinden.

Cover: Ortsregister.

Dass das Rechenzentrum als abstrakter und meist nicht wahrgenommener, in gewisser Weise nebulöser Ort erscheint, ist heute verständlich. Aber auch relativ neu. Denn als die Datenverarbeitung noch etwas war, was nahezu automatisch mit dem Schlagwort Big Science verknüpft war, wusste jeder der in diesen Kontext aktiv Eingeweihten, welches Gewicht auch hinsichtlich des Ressourcenaufwands in den entsprechenden Rechenzentren steckte. Man kann nun entgegnen, dass die Eingeweihten bzw. mit dem Betrieb solcher Einrichtung berufsmäßig betrauten das auch heute selbstverständlich sehr genau wissen. Und es den Nicht-Eingeweihten traditionell ziemlich gleich war, wo das nächste Rechenzentrum ist. Die Verschiebung liegt nun darin, dass heute auch die meisten Nicht-Eingeweihten zutiefst von Rechenzentren abhängig sind, dies jedoch nur bedingt realisieren, wenn sie die Vorzüge der Cloud genießen, zu denen unbedingt auch gehört, dass man nichts über sie wissen muss und sie trotzdem benutzen kann.

Die Trennung der Geräte zur Datenspeicherung und -verarbeitung und zur Nutzung andererseits ist ein vergleichsweise junges Phänomen, das sich erst mit dem Internet als Medium der rückkoppelnden Datenübertragung wirklich massentauglich entfalten konnte. Dadurch aber, dass die nach wie vor vorhandene und notwendige rechnende Großmaschinerie in der Wahrnehmung hinter den graphischen Nutzeroberflächen verschwindet, fehlt uns auch ein Gefühl für diese:

„Möglicherweise greift hier auch eine Profanisierung des Rechenzentrums als Dienstleistungseinrichtung und eine damit einhergehende Unsichtbarmachung von Arbeit in der Traditionslinie des »stummen Dienens«, ein Übersehen dieses Ortes.“

Jedenfalls nutzerseitig ist diese Einschätzung von Sonja Palfner und Gabriele Gramelsberger vollauf nachvollziehbar. So wie wir in der Regel nicht genau wissen, wie andere elementare Alltagsinfrastrukturen (Strom, Warmwasser) zu den jeweiligen Schnittstellen laufen und wie die transportierten Inhalte verarbeitet, aufbereitet und transportiert werden (Wasserwerk, Leitungssystem), so merken wie auch hier erst, dass es sie gibt, wenn sie nicht mehr funktionieren, also zum Beispiel der Gehsteig aufgegraben ist, um ein gebrochenes Rohr freizulegen. Oder, wenn wir plötzlich, warum auch immer, von der Nutzung ausgeschlossen werden und so irritiert wie folgenlos am Wasserhahn drehen.

Entsprechend ist das Rechenzentrum für die Autorinnen durchaus ein Ort, „der Bestehendes herausfordert“ und zwar einfach deshalb, weil wir schlichtweg abhängig von ihnen wurden und sie daher als Verwaltungsknoten unserer Kommunikationen auch Werkzeuge der Macht sind. Um dies zu verstehen, schlagen die Autorinnen eine „Archäologie des Rechenzentrums“ vor und wer hier Foucault als Stichwortgeber liest, liest richtig. Leider fordert der Charakter des Sammelbandes als Glossar eine Kürze ein, die zwar die Etappen der Entwicklung abbildbar macht, aber offensichtlich eine Tiefenanalyse über die Sensibilisierung qua Deskription für diese unvermeidliche Bindung hinaus ausschließt.

Die Nachzeichnung des Verlaufs der Beziehung zwischen Rechenzentrum und Wissenschaft ist dennoch interessant. Zunächst (1950er Jahre) entstanden in bestimmten disziplinären Kontexten für konkrete Anwendungen so genannte Rechenstellen. Diese hatten im Prinzip den Status eines Labors, waren also fest in die Wissenschaft eingebunden. Sukzessive wurden sie jedoch zu eigenständigen Größen, die generell EDV-Dienstleistungen für die sie betreibenden Einrichtungen zu erfüllen hatten. Diese Spezialisierung führte zu einer Entkopplung von der Wissenschaftspraxis:

„Labore, Werkstätten und Forschungsbibliotheken sind Räume des Forschens, die von Wissenschaftlern und ihren Gegenständen bewohnt werden. Rechenzentren sollten dies nicht sein.“

Während die Erkenntnisproduktion an anderen Orten stattfand, blieb den Rechenzentren die Organisation der entsprechenden Infrastruktur, was bis zur Beschaffung von EDV für die einzelnen Hochschulinstitute reichte und entsprechend einiges Konfliktpotential barg. Mit Grid und Cloud jedoch wandert wenigstens die datenintensive Wissenschaftspraxis wiederum in die Rechenzentren (ab). Deren Kapazitäten dienen nicht mehr nur der Organisation eines E-Mail- oder Publikationsservers. Vielmehr stellen sie nun die direkte Basis für die Bearbeitung bestimmter Forschungsfragen. Sie übernehmen in gewisser Weise die Rolle, die man sonst wissenschaftlichen Bibliotheken zuschreibt und werden der Ort, an dem sich weite Teile der Erkenntnisproduktion vollziehen und abbilden.

Je stärker die „epistemische Praxis“ der „berechnenden Vorhersage“ zur Zentralgröße der Wissenschaft expandiert, desto größer wird die Rolle der Rechentechnik. Mittlerweile, so führen die Autorinnen aus, werden teilweise Berechnungen dem Laborexperiment vorgeschaltet. Dieses beginnt erst dann, wenn ein entsprechendes Design digital erstellt und als funktionierend ausgerechnet wurde. Es geht also nicht nur um den Einsatz von Rechentechnik für statistische bzw. quantitative Analysen. Die Technologie prägt zusätzlich in bestimmten Bereichen unmittelbar Forschungsdesign und somit auch die epistemologische Praxis. Der Vorteil ist eine zielgenauere Forschung. Der Nachteil ist womöglich eine Verengung der Sichtfelds der Wissenschaft nach den Maßstäben dieser technischen Dispositive.

Man muss heute nicht mehr betonen, dass digitale Basiskompetenzen – in disziplinär unterschiedlicher Konkretisierung – zur Wissenschaft gehören. Für aktuell im Studium befindliche Generationen ist das erfahrungsgemäß selbstverständlich. Was jedoch in diesen Lehrplan integriert gehört, ist die Praxis der kritischen Reflexion über die Reichweite und Grenzen der Technologie. Also, raummetaphorisch gesprochen, die Befähigung, das Rechenzentrum und seine Leistungen in der Wissenschaftslandschaft zweckgemäß zu verorten.

(Berlin, 06.12.2012)

It’s the frei<tag> 2012 Countdown (16): Kurt Drawert (2), Digitale Geisteswissenschaft und Bibliotheken

Posted in LIBREAS aktuell, LIBREAS.Debatte by libreas on 30. Juli 2012

Ben Kaden

Man erinnerte mich unlängst und nicht unbegründet daran, dass der LIBREAS-frei<tag>-Countdown mit Texten versehen werden sollte, die auch etwas wahlweise mit der Unkonferenz zum Stand der Bibliotheks- und Informationswissenschaft oder derr Summer School des LIBREAS Vereins zu tun haben sollte.

Immerhin meine kleine Glosse zu Kurt Drawert verfehlte diesen Anspruch recht deutlich. Er bereichert aber mein Leben wiederum um die Erfahrung, wie es ist, gelesen und nicht ganz so verstanden zu werden, wie ich es meine. So schreibt Armin Steigenberger auf lyrikzeitung.com:

„Es scheint, dass derjenige, der auch nur irgendwas gegen das Internet vorbringt, heute sofort unter Generalverdacht steht, was ich eigentlich genauso eindimensional finde. Insofern ist Ben Kadens Replik in summa eine ziemlich vorhersehbare Reaktion und an neuen Argumenten, die mich wirklich überrascht hätten, kommt gar nichts.“

Hier kollidieren natürlich Erwartungshaltungen und fast naturgemäß driften Meinen und Verstehen zielstrebig auseinander. In welcher Hinsicht ich generell verdächtige, erschließt sich mir auch nach dem Wiederlesen meines Textes nicht. Gleiches gilt für den Zweck der Pauschalisierung „das Internet“, gegen das zu opponieren freilich genauso sinnvoll wäre, wie der Kampf gegen Bahnschienen, Webstühle, Windmühlen und Schnellstraßen.

Darum geht es aber Kurt Drawert auch nicht. Sondern ihn treibt die Überlegung (oder Angst), wie (dass) sich die Rezeption verändert, wenn sich das Träger- und Abbildungsmedium ändert. Dahingehend geschieht ohne Zweifel viel und die Rezeptionsforschung stürzt sich hoffentlich begeistert auf diese Veränderungen. Und hoffentlich weniger voreingenommen als Kurt Drawert in seinem tristen Text.

Dass dieser den konkret Handelnden und die Mannigfaltigkeit der Wahrnehmungs- und Rezeptionswelten hartnäckig ausklammert, ist für mich der trübste, fast blinde Fleck seines Essays. Dass er zudem den Untergang der Literatur durch Digitaltechnologie prophezeit, ist eine so traurige wie grundlose Schlussfolgerung. Und der bebende Brustton, mit dem diese Einschätzung in den Diskurs eingeworfen wird, liegt so fernab jedenfalls meiner Lebenswirklichkeit, in der man Werkzeuge als Möglichkeiten betrachtet und nicht als auf des Herzens liebste Dinge gerichtete Dolche, dass ich mehr mit Erstaunen als mit Gegenrede reagieren kann. Neue Argumente sind zudem in dieser Urdebatte der digitalen Gesellschaft schon deshalb schwer zu finden, weil ich gar keinen Antagonismus à la „Freiheit des Netzes vs. Freiheit der Buchrezeption“ sehe.

Selbst wenn ich Technologiekritik gemeinhin hoch schätze, vermag ich weder das Problem noch den Pessimismus Kurt Drawerts nachzuvollziehen. Jedenfalls, solange unsere Kultur noch so etwas wie die Lyrikreihe des Hochroth-Verlags hervorbringt und ich die Option habe, meine Abendlyrik in einem stillen Zimmer vom Papier abzulesen. Ich wüsste nicht, welcher Techniker mir das nehmen wollte. Und daher bleibt mir die ganze Aufregung fremd – in einer unangenehmen Weise.

Nun bin ich fast schon wieder dabei, das Thema zu verfehlen. Aber man kann nicht zuletzt in Anschluss an Kurt Drawert (unter Hilfestellung von Armin Steigenberger) immerhin eine Einstiegsthese für die Unkonferenz daraus formulieren:

Digitale Medien verändern die Rezeptionspraxis, „weil das Internet als ‘Resonanzraum’ kein störungsfreier Raum ist, sondern nebenher allerhand ‘Interferenzen’ passieren, wo man auch permanent zusätzliche Infos bekommt, die man nicht bestellt hat, die aber die Rezeption, das „sich-Einlassen“ stören […]“ (vgl. http://lyrikzeitung.com/2012/07/29/119-gezwitschert-gegeigt-und-gesungen-2/)

(Die Tatsache, dass es on- und offline individuell große Unterschiede bei der Ausübung der bislang zentralen Kulturtechnik unserer Gesellschaft gibt, mag man vielleicht zunächst ausklammern.) Für die Texthermeneutik und das Close Reading ist diese Frage mindestens genauso relevant, wie für die Bibliotheken, die sich fragen, ob sie in einem Neubau lieber einen klassischen Lesesaal oder eine Kommunikationszone mit Café und Indoor-Spielplatz unterbringen sollen.

Und es wirkt auf die Frage zurück, wie wir schreiben sollen, wenn wir für das Netz schreiben. Armin Steigenberger betont beispielsweise in seiner Replik zu meiner Drawert-Lektüre, dass sich die Besprechung des Aufsatzes Kurt Drawerts in einem Weblog womöglich verbietet:

„Hinzu kommt die Tatsache, dass Drawerts NZZ-Artikel nicht im Netz verfügbar ist, was gewissermaßen gewollt ist – alles andere wäre ja wieder eine Einladung zum Entreißen, würde seine These nur belegen, dass eben alle Texte verlieren, sobald sie online sind und somit zu Verkürzung und Überlassung einladen. Denn diesen Text im Blog zu besprechen wäre vergleichbar damit, eine Blogdiskussion über die These abzuhalten, ob Blogdiskussionen nicht per se haltlos sind: eine contradictio in adiecto. Insofern wird Drawerts Artikel nun selbst „entrissener“ Text, in Ausschnitte zerbröckelt und unterlegt mit Bockwurst und Bier.“

Diese Argumentation überzeugt mich leider kaum. Denn (a) ist die Rekontextualisierung nach Gusto weder ans Web noch an Weblogs gebunden, sondern ein Leitelement schriftsprachlicher Debatten und vermutlich die Basis aller Kultur. Und (b) wäre die Verweigerung sich dem Diskurs zu stellen, indem man einen Beitrag zum Diskurs zwar trotzig präsentiert aber eben nur offline und daher um Diskursferne bemüht, diskursethisch untragbar. Und (c) ist ein Weblog einfach nur eine neutrale Publikationsfläche, die, wie ein Blatt Papier, vom Gossip bis zur Weltformel alles in Schrift fassen kann, was in Schrift zu fassen ist.

Gern gestehe ich dagegen ein, dass man meinen Text leicht als Bestätigung der These Kurt Drawerts lesen kann. Ich würde mir allerdings wünschen, dass man etwas anderes daraus mitnimmt. Nämlich den Aufruf zu mehr Gelassenheit in diesem Diskurs.

Kerstin Holm - Manfred Heidegger

Manfred auch? Die Grenzen automatischer Verfahren Digitaler Geisteswissenschaften lassen sich in fast jeder Buch anschaulich bereits durch Oberflächenlektüre abschätzen. Denn welche automatische Textanalyse würde hier korrekt schlussfolgern, dass der russische Komponist Wladimir Martynow nicht etwa einen – obendrein recht lebendigen – Ferienhausvermieter aus dem Oberallgäu zu einer zentralen Autorität seiner geistesgeschichtlichen Sozialisation zählt, sondern jemanden von der Schwäbischen Alb, der wusste, wie uns die Technik ins Gestell zwingt. Man mag das Problem als spitzfindig empfinden, aber wir benutzen die digitalen Verfahren ja gerade zum Zwecke der Spitzfindigkeit, d.h. um auch das zu entdecken, was unserem Auge sonst entginge. Hier hat das händische Blättern noch gereicht. Dem Lektorat Der Anderen Bibliothek ist der kleine Fehler auf Seite 189 vermutlich ziemlich peinlich. Abgesehen davon ist die Ausgabe von Kerstin Holms “Moskaus Macht und Musen” (Berlin: AB – Die Andere Bibliothek, 2012) jedoch ein gelungenes Beispiel dafür, warum wir von Buchkultur sprechen.

Auf einer solchen Basis könnte man sich dann nämlich den Fragestellungen wie der widmen, wie viel Verflüssigung, Bricolage und Versetzung von Textinhalten wir eigentlich für welchen Zweck zulassen wollen? Die wird nämlich nicht zuletzt akut im Umfeld dessen, was man Digital Humanities nennen.

Die Hamburger Tagung, die vermutlich als ein Schlüsselereignis der Digitalen Geisteswissenschaften in Deutschland gelten kann, brachte es immerhin zu zwei Artikeln in derselben Ausgabe der Frankfurter Allgemeinen Zeitung. Und beide Texte versuchen etwas, was die Protagonisten dieses neuen methodologischen Spektrums bisweilen etwas vernachlässigen: die Metasicht auf Sinn und Unsinn, auf die Wechselbeziehung von Machbarem und Wünschbarem.

Wolfgang Krischke (Wege und Abwege digitaler Forschung. In: FAZ, 25.07.2012, S.N3, nicht frei online) betrachtet die Entwicklung relativ nüchtern:

„Von einem neuen Paradigma kann […] kaum die Rede sein, in manchen Bereichen der Linguistik bedient man sich der elektronischen Datenverarbeitung schon seit der Lochkarten-Ära.“

Allerdings räumt er selbst ein, dass die Möglichkeiten einer statistischen Analyse von Sprache heute doch – vor allem quantitativ – ein wenig mehr zulassen, als die Lochkartenpioniere vermutlich überhaupt ahnen konnten. Und er betont an der schlichten und interessanten, rein quantitativ aber kaum greifbaren Forschungsfrage:

„Wie verändert sich beispielsweise die Bedeutung von „Freund“ durch den Gebrauch, der von diesem Wort in den sozialen Netzwerken gemacht wird?“,

dass eine Horizontlinie der Erforschung der Websprache und ihrer Folgen bereits durch urheber- und datenschutzrechtliche Regeln eingezogen wird. Immerhin: Die Notwendigkeit einer informations- und wissenschaftsethischen Diskussion der Digital Humanities lässt sich in diesem Zusammenhang – also nicht zuletzt für die Unkonferenz – exzellent veranschaulichen.

Dazu zählt zudem eine weitere Frage, nämlich die, ob es nicht geradezu geboten ist, aussterbende Sprachen als generelles Kulturgut so gut und lückenlos wie nur möglich mit den vorhandenen Technologien zu dokumentieren, selbst wenn das am Ende vielleicht mit dem konkreten „Überleben der bedrohten Idiome“ nicht mehr zu tun hat, als eine Nachzucht  einer in freier Wildbahn verschwundenen Tierart im Zoo. (Oder gar nur einem taxidermischen Präparat im Naturkundemuseum.)

Und ebenfalls wissenschaftsethisch interessant ist die Rolle von Google, das Korpus und N-Gram-Viewer als Zentralbausteine gewisser Facetten digitaler geisteswissenschaftlicher Forschung bereitstellt. Hier wirkt ein Unternehmen, wenn auch sicher ein sehr besonderes, massiv gestaltend auf eine Wissenschaftslinie ein, von der gern nicht selten betont wird, sie sei – möglicherweise analog zur Google-Suche – perspektivisch die einzige und alternativlose Option.

Thomas Thiel (Eine Wende für die Geisteswissenschaften? In: FAZ, 25.07.2012, S. N5) nimmt sich der Entwicklung aus einer wissenschaftsadministrativen bzw. -infrastrukturellen Position an und zeigt, dass Digital Humanities mehr meinen muss, als Google bietet. Er betont die für die Bibliothekswissenschaft zentrale Dreiheit von Digitalisierung, Standardisierung und Langzeitarchivierung (inklusive Qualitätssicherung). Wenn man das Fach sowie die wissenschaftlichen Bibliotheken also naheliegend auf die Rolle einer Zentralinstanz der digitalen Geisteswissenschaften orientiert, dann rutscht es automatisch in die Aufgabe, nicht nur Publikationen, sondern Korpora bzw. geisteswissenschaftliche Primärdaten zu sammeln, zu erschließen, vorzuhalten und nach Bedarf verfügbar zu machen. Die Digital Humanities (DH) könnten demzufolge der Bibliothekswissenschaft endlich eine fixe Forschungsrichtung vorgeben. Und dem wissenschaftlichen Bibliothekswesen eine Perspektive für die Zeit nach der Hegemonie der Printkultur.

Dazu muss sich das „Methodenfeld“ aus dem „Quellgebiet von Computerlinguistik, Computerphilologie und Fachinformatiken“ (Thomas Thiel) jedoch erst einmal als solches etablieren. Wobei nicht nur nicht notwendig, sondern überhaupt nicht zweckmäßig scheint, womit Jan Christoph Meister zitiert wird, nämlich der „empirische[n] Wende für die Geisteswissenschaften“ und dem Abschied vom „Paradigma der hermeneutischen Einzelforschung“. Hier wird erneut ein Ausschlussszenario ins Spiel gebracht, wo es völlig unnötig, in jedem Fall verfrüht ist. Thomas Thiel ordnet den bisherigen Stand der DHs zutreffend eher als „anwendungsorientierte Hilfswissenschaft“ als als „Speerspitze einer umfassenden Transformation der gesamten Geisteswissenschaften“ ein:

„Dass sie große Erkenntniszusammenhänge erschließen können, zeichnete sich nicht einmal schemenhaft ab.“

Ich sehe vielmehr auf lange Sicht als Ideal eine mehrschichtige Durchdringung quantitativer und metrischer Verfahren mit interpretativen, wie ich es jüngst in einem Kommentarthread, skizzierte:

 „In einem zugespitzten Szenario könnte die Entwicklung vielleicht dahin gehen, dass wir auf der einen Seite große, tiefenerschlossene Datenbestände haben, aus denen auf der anderen Seite zahllose kleine und in verschiedene Richtungen zielende temporäre Interpretationen erfolgen und permanent diskutiert werden. Publikationen fassen diese Deutungen und Argumentationen eventuell sogar in festen Zeitabständen als gesichertere Referenzpunkte zusammen, zielen aber selbst nicht mehr Innovation, sondern nur auf Kumulation und Dokumentation. (Beispielsweise in eine aktualisierten Form von Referatemedien, die nicht mehr Publikationen, sondern Argumente, Schlüsse und Diskussionen sammeln, ordnen und in dieser Ordnung verfügbar machen.)

So wie es in bestimmten Geisteswissenschaften kanonisierte Texte gab und gibt, die über zeitstabil neu gelesen werden, so könnte ich mir vorstellen, dass es auch einen Kanon von Open Data-Datensätzen gibt, mit denen alle Disziplinen ähnlich verfahren. Messende und interpretative Disziplinen verschmelzen demnach. Und zwar nicht nur in der Form, dass sich Geisteswissenschaften zunehmend quantitativer Verfahren bedienen. Sondern auch, dass eine Form von Daten-Hermeneutik (möglicherweise mehr in Anschluss an die so genannte Objektive Hermeneutik) in die anderen Disziplinen dringt. (Implizit spielt nach meiner Erfahrung Interpretation seit je fast überall die entscheidende, nämlich Schlüsse grundierende Rolle. Nur erfolgt dieser methodische Schritt oft nicht zureichend reflektiert, d.h. im Bewusstsein, dass eine Schlussfolgerung immer ein interpretatives Moment enthält, das man auch methodologisch elaborieren kann.)“

Inwieweit in diesem Szenario langfristig die rein interpretativen geisteswissenschaftlichen Publikationen es noch leicht hätten, sich zu behaupten, oder ob sie sich nicht nach und nach in Richtung einer eher literarischen Abbildungs- und Erkenntnisdisziplin emanzipierten, die selbst mehr Wert auf Originalität in Form und Darstellung als an formalwissenschaftlichen Anspruch und Strenge legt, bleibt selbstverständlich einer von zahlreichen weiteren offenen Aspekten. In jedem Fall berechtigt uns nichts, ihnen jetzt (schon) die Tür zu weisen.

29.07.2012

It’s the frei<tag> 2012-Countdown (27): Unleserlichkeit / Illegibility. Pamela M. Lee über Meyer Schapiro

Posted in LIBREAS aktuell, LIBREAS.Feuilleton, LIBREAS.Referate by Ben on 20. Juli 2012

von Ben Kaden

„Then I will be very happy: write furiously rapid notes  …” (Brief Meyer Schapiro an Lilian Schapiro, 21.Juli 1927. Zitiert nach Daniel Esterman (Hrsg.): Meyer Schapiro abroad: letters to Lillian and travel notebooks. Los Angeles: Getty Research Institute, 2009. S. 96)

Pamela M. Lee, Kunst- und Kulturwissenschaftlerin in Stanford, befasst sich in ihrem Aufsatz für die Documenta (100 Notizen – 100 Gedanken, No. 030. Ostfildern: Hatje Cantz, 2011) mit einem Thema, dass jedem nahe steht, der wild denkt und seine Notizen nach wie vor nicht nur als diszplinierten (=maschinenlesbaren) Code in Twitterfeeds und Smartphone-Apps einträgt, sondern auf Papier fixiert: Der Unleserlichkeit.

Und die Autorin setzt mit einem beneidenswerten Optimismus ein:

„[…] wenn wir auf Notizen stoßen, und vor allem, wenn diese unleserlich sind, ob nun von anderen oder von uns selbst verfasst, beginnen wir, ihre Funktion bei der Überlieferung, ihre offenkundige Rolle als Niederschrift zu hinterfragen.“ (S. 16)

Viel mehr bleibt uns mangels Zugang zum gefassten Inhalt ja auch nicht übrig. Informationstheoretisch handelt es sich bei unleserlichem Text dieser Art eigentlich nur um Rauschen. Dass die Auseinandersetzung mit diesem gesonderte intellektuelle Produktivität stimuliert, uns also eventuell gar berauscht, kann ich persönlich kaum nachvollziehen. Gerade bei meinen eigenen Notizen überfällt oft eher eine Katerstimmung und ich ärgere mich, von der Motorik anscheinend nur die groben Züge als genetische Mitgift erhalten zu haben.

Aber wenn wir im Essay weiterlesen und Pamela Lees eigentliche Perspektive zur „Semiotik der Unleserlichkeit“ erfassen, wird es ein wenig heller. Denn sie liest das Unleserliche in der Tat nicht auf den eigentlichen Inhalt, sondern als Verweis auf den dahinterstehenden Denkprozess, also auf eine Situierung vollzogener intellektueller Aktivität. Der Federstrich (oder die Ballpoint-Linie) stehen für die Verkörperung des Bemühens, einem Gedanken oder Eindruck Form zu geben. Und damit öffnet sich ein großer Analyseraum, der viel über die spezifische geistige Arbeit der jeweils analysierten Einzelakteure offenbaren kann. Oder ihre präferierten Schreibwerkzeuge. Oder über den Ort, an dem sie Notizen verfertigen (Eine Notiz, die auf einer Straßenbahnfahrt entsteht zeigt selbst in derselben Handschrift andere Züge und mitunter auch die Spur eines abrupten Bremsens.) Pamela Lee zieht für die Analyse sich selbst sowie den Kunsthistoriker (und zeitweiligen Redakteur von Semiotica) Meyer Schapiro heran:

„Die Untersuchung beginnt in meiner eigenen Bibliothek. Ich nehme ein Buch aus dem Regal […] [das] ich mir vor über zwanzig Jahren als Studentin gekauft habe. Beim Durchblättern stoße ich auf Passagen, die energisch unterstrichen und mit Sternchen markiert sind. Die wenigen leeren letzten Seiten des Buchs sind mit allen möglichen Notizen in unterschiedlichen Schriftarten gefüllt. […] Das Ganze sieht aus wie ein […] verfehltes Experiment in Konkreter Poesie.“ (S. 17/18)

Aus diesem Eindruck stellt sich ihr (zum ersten Mal) die Frage, aus der sich die Eingangsthese speist, nämlich welchen Zweck eigentlich Notizen haben (können), die sich der Leserlichkeit (zu unterscheiden von der Lesbarkeit) entziehen? Was also ihren Wert jenseits der inhaltlichen Aussage bestimmt?

Rein semiotisch gedacht betrachten wir damit die mögliche Deutbarkeit solcher Spuren als (genuin) indexikalische Zeichen. Sie referenzieren direkt auf akteurs- und kontextspezifische Eigenschaften, also eine besondere pragmatische Dimension: die Erzeugung von Spuren. Orientieren wir uns an Peirce berühmtem Beispiel des Fußabdrucks am Sandstrand bei Robinson Crusoe, dann zeigt sich natürlich auch eine verwischte Randbemerkung als „mixed sign“ mit verschiedenen Verweisebenen: Von der Tatsache der Lektüre an sich bis hin zum abstrakten Konzept der Annotation. Das alles aufzudröseln ist freilich keine Sache von wenigen Seiten und so sieht man Pamela Lee nach, dass sie es in ihrem Aufsatz unterlässt.

Lieber greift sie – mit einem kurzen Umweg über Sigmund Freud –nachvollziehbar zu Jacques Derrida und sieht in ihren Supplementen am Textrand eine Verstärkung (man könnte auch sagen: den Beweis) der Anwesenheit des Lesers. Die in der Regel immer als Code leserlichen Annotationen und Markierungen (Like-Button) der digitalen Kommunikationswelt enthalten naheliegend zahllose Anknüpfungspunkte für das Weiterdenken dieser Präsenztheorie. Dieses müssen wir ebenfalls selbst leisten, denn Pamela Lee steigt weiter ins Archiv Meyer Schapiros. Dabei formuliert sie die ebenfalls mehrschichtige Frage, was wir eigentlich erwarten, wenn wir uns mit den Nicht-Publikationen – also Notizen, Briefen, Entwürfen und Manuskripten – eines Wissenschaftlers befassen?

Sie unterscheidet zwei Ziele:
(1) Das Auffinden von Material zum Stützen einer Hypothese.
(2) Die „Hoffnung […], zu unserem Thema etwas vollkommen Neues und Merkwürdiges zu entdecken – etwas, das früheren Interpretationen den Boden entzieht und zu einem Wechsel kanonischer Paradigmen führt.“ (S. 19) Also im Prinzip ein Beleg zum gnadenlosen Wegschlagen der Stützpfeiler einer Hypothese.

Als dritte Option würde ich als Freund der Serendipity noch die Variante des Findens der Grundlage für die Ausfertigung einer Hypothese betonen. Und die vierte Variante führt Pamela Lee wieder selbst ins Feld, nämlich „über den Notizen einer historischen Figur zu grübeln und festzustellen, dass sie kaum brauchbare Informationen abwerfen“. (ebd.) Aber vielleicht stattdessen die Forschungsfrage umwerfen. In der Auseinandersetzung mit Archivmaterial langsam aber unvermeidlich in Richtung einer grundlegenden Falsifikation des eigenen Forschungsansatzes zu rutschen, ist womöglich eine der grausamsten Facetten wissenschaftlicher Alltagsarbeit.

Meyer Schapiros Nachlass zwang nun Pamela Lee ein wenig in die Knie, ist doch „die Unleserlichkeit ein wesentliches Merkmal seines Archivs“ (S. 20). Und: „Die Menge der Notizen, die sich im Lauf eines Lebens angesammelt haben, ist beängstigend, und ihre schwere Lesbarkeit ist einschüchternd.“ (S. 21) Dazu kreist über allem die immer wieder berühmte Kinderfrage Gottfried Benns: Wozu?

Pamela Lee differenziert sich diese in Fortführung der bereits anhand ihrer eigenen Notizen aufgekommenen Überlegungen und eröffnet damit ein wunderbares archivwissenschaftliches Forschungsfeld, das dabei helfen könnte, über die Kriterien des Bewahrens zu reflektieren:

(1) Worin liegt der praktische Zweck dieser „besonderen Sammlung von Notizen, deren überwältigende Mehrheit unentzifferbar ist“? (ebd.)
(2) „Welcher Art von Wissen vermitteln oder produzieren diese Notizen?“ (ebd.)
(3) „Wie sollen wir sie nutzen?“ (ebd.)
(4) „Wie hat Schapiro sie genutzt?“ (ebd.)

Doch auch die Antworten darauf bleiben eher Andeutungen von Antworten.

Das Konvolut im Archiv und seine Verfasstheit ließen sich sicher selbst als Dokument und Dokumentation sehen, die geradewegs andere Aspekte (die konkrete Arbeitsweise, die Entwicklung der Arbeitsweise) in den Mittelpunkt einer Analyse rücken. Pamela Lee betont denn auch den generellen historiografischen Wert der Sammlung. Das einzelne Element erscheint ihr jedoch als Träger von „Codes ohne Botschaft“. Also als buchstäblich sinnlos.

Möglicherweise aus dem Widerstreben, eine solche Einschätzung einfach stehen zu lassen, dehnt sie anschließend das Phänomen der Unleserlichkeit zum „faktischen Widerstand gegen ihre Unterordnung unter die Vernunft.“ (ebd.) Damit holt sie schon ziemlich weit und wird sich irgendwann auch selbst nicht mehr einholen.

Wenn sie nämlich schließlich die selbe Unleserlichkeit, dieses „Zeichen für die Irreduzibilität der Notizen, für das Scheitern des leichten Konsums“ als (implizit geäußertes) Ausleben des Widerstands gegen die Illusion einer Semiotik als Werkzeug zur „bruchlosen Interpretation“ und die „Überdeterminiertheit ikonografischer und textueller Lesarten“ anführt, dann wirkt das zwar sehr sympathisch und ich wünschte, ich könnte meine Notizbücher als Subversion (mutmaßlich auch gegen mein eigenes Denken) lesen.

Aber solch eine nachgeschobene Selbstrechtfertigung ist wenig glaubwürdig. Und in gleicher Form wirkt Pamela Lees Schlussfolgerung wenigstens in dem vorliegenden Essay eben auch als Notlösung, um aus dem Scheitern an der Handschrift noch irgendetwas Begreifbares heraus zu meißeln.

Das Lob der Widerspenstigkeit gegen die Vereinnahmung und das Postulieren eines „unbeabsichtigten Affront gegen den Druck, unter dem intellektuelle Arbeit heutzutage [sic!] stattfindet“ angesichts unleserlicher Mitschriften, die während der Second International Conference on Semiotics (12. bis 19.09.1967 in Kazimierz na Wisla) entstanden, erscheinen doch eine Drehung zu wohlwollend (bzw. psychologisierend). Denn möglicherweise hat sich Meyer Schapiro auch einfach nur ein bisschen während der Vorträge gelangweilt. Unglücklicherweise – für den Aufsatz – beginnen die Leser spätestens an dieser Stelle Funktion und Rolle dieses Aufsatzes zu hinterfragen.

Unleserlichkeit

Unleserlichkeit ist ein Anagramm von Urteilchen Silke (und vice versa) und wie diese Zeichenkette nur schwer hinsichtlich einer Bedeutung entzifferbar. Aber gerade Geistesarbeiter in den tiefen Stollen der Handschriftenarchive begeben sich, mit welcher Motivation auch immer, dennoch regelmäßig in diese ermüdende Sinnsuche in den Textspuren der Anderen. All diesen ist das nachfolgende Gedicht gewidmet, das zeigt, wie nahe Wissenschaft, Romantik und die Urgründe des Daseins einander stehen (können).

Nur zwei Dinge (Wissenschaftsremix)

Durch so viel Spuren gegraben,/durch Text und Bild.. Und nu`?/
Was uns noch bleibt, ist verzagen./Und die ewige Frage: wozu?/ Das ist eine Kinderfrage./ Dir wurde erst spät bewusst: / es gibt nur eines: ertrage /
– ob These, Gesetz, Forschungsfrage – / dein fachbestimmtes: Du musst. /
Ob Lee, Schapiro, ob Kaden, /wer etwas per Hand schreibt, verschmiert, /
es gibt nur zwei Dinge: die Lagen / und das drauf verzeichnete Hier.

Dass eine Form von Wissenschafts-Fadesse Meyer Schapiro nicht zwingend fremd gewesen sein muss, deutet immerhin auch eine Passage in dem bereits eingangs zitierten Brief an Lilian an:

„The minuteness of such work becomes ridiculous […] that I despair of its seriousness. […] I know that after 1000 monographs have exhausted a million details, their blurred image will make a fine picture for the people who are taken by those things, May they be taken by other things. The professional habit becomes so strong that vanity is reinforced each moment by simple success of its preoccupations. The humility of unpaid, unsung scholarship is a foolish tale: I am overwhelmed by the libraries of the world which surely contain 10,000,000 monographs – & the books, stores & quais […] What business man has the circulation of a poor thesis? the discussion, the review, the endless citation & recollection of his existence in footnotes & polemics?” (ebd.)

Vielleicht ist Pamela Lee also doch auf der richtigen Fährte und die Unleserlichkeit der privaten Notizen Meyer Schapiros diente als ein in die Zukunft gerichtetes Bollwerk um zu verhindern, dass irgendwann noch das kleinste Detail zum Forschungsgegenstand erhoben wird. Nun denn – der Aufsatz als Tatsache (nicht unbedingt sein Inhalt) zeigt:  Diese Schanze hielt ganz offensichtlich nicht stand.

Berlin, 17.07.2012

Folgen

Erhalte jeden neuen Beitrag in deinen Posteingang.

Schließe dich 82 Followern an