LIBREAS.Library Ideas

Wer übernimmt was? Zum Verhältnis von Digital Humanities und Geisteswissenschaften.

Posted in LIBREAS.Debatte, LIBREAS.Feuilleton by Ben on 12. September 2013

Ein Kommentar von Ben Kaden (@bkaden)

Der Beitrag ist zwar nach den Zeitrechnungsstandards des WWW schon uralt, da er aber offensichtlich in der deutschen Digital-HumanitiesCommunity für einigen Wirbel sorgt und mir, nachdem er sich scheu unter meinem ansonsten schon zuverlässig zugreifenden Radar hindurch geduckt hatte, nun noch einmal mit Nachdruck (bzw. als Ausdruck) auf den Schreibtisch gelegt wurde, will ich doch wenigstens meine Kenntnisnahme dokumentieren.

Am 19.07.2013 druckte die Frankfurter Allgemeine Zeitung auf der Themenseite Bildungswelten (S. 9) einen Beitrag des Literatur-Juniorprofessors Jan Röhnert (TU Braunschweig, Wikipedia-Seite) mit dem Titel Feindliche Übernahme? Die Geisteswissenschaften wehren sich gegen falsche Ansprüche der Informatik, aber setzen auf die „Digital Humanities“. Er berichtet vom „Gespenst einer feindlichen Übernahme [der geisteswissenschaftlichen] Fächerkultur durch die Dogmen der Informatik.“ , was offensichtlich derzeit das heißeste Eisen im Metadiskurs der Geisteswissenschaften zu sein scheint. Jedenfalls auf dem Sommerplenum 2013 des Philosophischen Fakultätentages in Chemnitz im späten Juni.

Eigentlich handelt es sich um einen Methodenstreit, denn die Geisteswissenschaften fürchten ihre Mathematisierung und damit einhergehend die Verdrängung von Interpretation bzw. Hermeneutik. Erstaunlicherweise ist die Bibliothekswissenschaft hier einen Schritt voraus, denn ähnliche Debatten wurden am Berliner Institut bereits Ende der 1990er Jahre rege ausgefochten, wobei die zweite Seele (meist die biblio- bzw. szientometrische) lange Zeit parallel irgendwo unter der Bezeichnung „wissenschaftliche Informationsversorgung“ oder auch „Dokumentation(swissenschaft)“ parallel an ihrer Entfaltung arbeitete, um schließlich mit der nahezu Volldigitalisierung bibliothekarischer Datenverarbeitungsprozesse und endlich auch mehr und mehr der Bibliotheksbestände zur bestimmenden wurde. Dass die Gegenstände der Bibliothek digitalisiert wurden ist insofern von Bedeutung, als dass diese Digitalisierungen zugleich häufig die Gegenstände der Geisteswissenschaften (nämlich Texte) digitalisierten und so erst die Digital Humanities möglich machten.

Der Paradigmenwechsel, den laut Jan Röhnert der Bremer eScience-Fachmann Manfred Wischnewsky einfordert, vollzog sich dort schon weitaus früher und mittlerweile sind alle Facetten metamedialer Auseinandersetzung mit analogen Bibliotheksbeständen (Einbandkunde, Buchgeschichte, u. ä.) längst aus den Lehrplänen des Berliner Instituts verschwunden. Das Medium Buch ist für die Bibliothekswissenschaft in Berlin weitgehend irrelevant geworden. Betrachtet man die Debatten der Digitalen Geisteswissenschaften aus einer medialen Warte, geht es dort um einen ganz ähnlichen Schritt: Die Auflösung des Einzelobjekts, also in der Regel eines Werkes, das in der Literaturwissenschaft oft klassischerweise in direkter Beziehung zum Medium Buch oder etwas ähnlich Berührbarem steht.

Es sind verschiedene Stränge, die im Diskurs zusammen- und auch aneinander vorbei laufen. Jan Röhnert berichtet von Positivismus-Vorwürfen und dem bekannten und aus irgendeinem Grund gepflegten Irrtum, bei dem man „quantitativ erzeugte technische Simulationen bereits als qualitativen Wissenszuwachs ausgibt.“

Zumal der Wissensbegriff selbst, wie heute jedem bewusst sein dürfte, mit oft myopischem Blick auf ein Simulacrum verweist. Abstrakt ist das Wort „Wissen“ auch durch seine Übernutzung in den vergangenen Jahrzehnten derart zu einem substanzarmen Textbaustein eingeschrumpft, dass eigentlich jeder mit etwas Sprachbewusstsein ausgestattete Diskursteilnehmer auf dieses Hohlwort zu verzichten bemüht sein sollte.  Dann würden vielleicht auch die aus dem mit dem Ausdruck „Wissen“ fast  verbundenen Anspruchsdenken nicht ganz unzusammenhängenden Missverständnisse reduziert.

Aus einer distanzierten Warte ist die Aufregung ohnehin unverständlich, handelt es sich bei den Digital Humanities doch ganz offensichtlich nicht um die Fortsetzung der Geisteswissenschaften mit digitalen Methoden, sondern um die Auseinandersetzung mit traditionell geisteswissenschaftlichen Gegenständen mittels digitaler Aufbereitungs- und Analysewerkzeuge. Es ist eher eine neue Form von Wissenschaft, die hier entsteht. Dass man sich einer geistigen Schöpfung nach wie vor auch hermeneutisch nähern kann (und zum Wohle der Menschheit auch zukünftig muss), sollte außer Frage stehen. Bedenklich wird es erst, wenn Förderinstitutionen Durch- und Weitblick verlieren und aus Zeitgeist-, Marketing- oder anderen Gründen denken, dass man die Unterstützung für die Geisteswissenschaften auf die Digital Humanities umschichten sollte. Diese Angst ist, wie man oft von Betroffenen hört, nicht ganz unbegründet und wahrscheinlich die eigentliche Essenz der Behauptungskämpfe.

Inhaltlich verwundert dagegen (nicht nur) aus einer semiotischen Warte, warum die traditionellen Geisteswissenschaften (eine behelfsmäßige Formulierung in Abgrenzung zum Ausdruck der „digitalen Geisteswissenschaften“) ihre hermeneutische Kompetenz nicht noch stärker auf natur- und sozialwissenschaftliche Gegenstandsbereiche ausweiten. Wer beispielsweise Franz Hessels Stadtraumlektüren kennt, weiß sofort, dass sich jedes beobachtbare soziale Gefüge genauso wie auch die Geometrie als Narrativ lesen und verstehen lässt.

Übrigens auch die Debatte um die „Feindliche Übernahme“, wobei Jan Röhnert unnötig in die – etwas wohlfeile –  Parallele zu geheimdienstlicher Datenanalyse stolpert:

„Solche Software, die  – nicht unähnlich den kürzlich aufgedeckten Spionageprogrammen „Prism“ und „Tempora“ –  unvorstellbar große Informationsmengen analysiert […]“

So naheliegend die Ähnlichkeit ist, so unglücklich ist der Vergleich. Denn dass natürlich geheimdienstliche Aufklärung seit je massiv auch auf interpretatorische, teilweise sicher auch hermeneutisch inspirierte Verfahren setzte, steht genauso außer Frage. Die Parallele ist keinesfalls neu und als kritisches Argument nur tauglich, wenn man sie auch entsprechend erläutert. In der Länge dieses Artikels ist das freilich nicht möglich. Dabei liegen mit den zitierten Positionen von Gerhard Lauer und Malte Rehbein eigentlich schon sehr konsensfähige Positionen auf dem Tisch und im Text und auch Jan Röhnert beendet seine Schilderung derart versöhnlich, dass man als außenstehender Beobachter die Aufregung gar nicht versteht. Übrigens auch nicht die, der Digital-Humanities-Community, von der mir heute berichtet wurde.

 (Berlin, 12.09.2013)

Advertisements

History Repeating. Die Geschichtswissenschaft debattiert auch 2013 über die Legitimität des Bloggens.

Posted in LIBREAS.Debatte by Ben on 8. Februar 2013

Anmerkungen zu:

– Valentin Groebner: Muss ich das lesen? Ja, das hier schon. In: FAZ, 06.02.2013, S.N5
– Klaus Graf : Vermitteln Blogs das Gefühl rastloser Masturbation? Eine Antwort auf Valentin Groebner In: redaktionsblog.hypotheses.org, 07.02.2013
Adrian Anton Tantner: Werdet BloggerInnen! Eine Replik auf Valentin Groebner. In: merkur-blog. 07.02.2013

von Ben Kaden

Es gibt offensichtlich (erneut) eine erneute kleine Zuspitzung des Konfliktes um die Frage, inwieweit wissenschaftliche Kommunikation im Digitalen möglich sein darf oder soll. Anlass ist ein Vortrag des Historikers Valentin Groebner, der als Zeitungsfassung am Mittwoch in der Frankfurter Allgemeinen Zeitung unter der Überschrift Muss ich das lesen? Ja, das hier schon – schön historisierend mit dem Gemälde eines lesenden Bauerjungen des russischen Malers Iwan Iwanowitsch Tworoschnikow aus der Zeit des zaristischen Russlands illustriert – abgedruckt wurde.

Erstaunlich an der Debatte, auf die umgehend sowohl Klaus Graf im Redaktionsblog von Hypotheses.org wie Anton Tantner im Weblog der Zeitschrift Merkur und noch einige andere blogaffine Wissenschaftler antworteten, ist besonders, dass sie überhaupt noch bzw. wiederholt so stattfindet. Während Klaus Graf zum Ausstieg noch einmal einen Pinselstrich auf den üblichen, aber halt furchtbar überzogenen und daher eher wenig souverän wirkenden Kampf- und Fronttafelbildern (aber insgesamt vergleichsweise äußerst brav) setzt:

„Die Rückzugsgefechte der Buch-Fetischisten sollten uns nicht vom Bloggen abhalten.“

(Warum auch sollten sie?) findet sich bei Anton Tantner bereits die treffende Antwort:

„Dabei sind Verifizierung und Stabilisierung von Informationen – die Groebner als Aufgabe gedruckter Medien betrachtet – selbstverständlich auch digital möglich und kein Privileg des Papierbuchs; es braucht allerdings geeignete Institutionen dafür, wie zum Beispiel die Online-Repositorien der Universitäten, die die Langzeitarchivierung der von ihnen gespeicherten Dateien – nicht zuletzt wissenschaftliche Texte – zu garantieren versprechen.“

Für die Notwendigkeit von Druckmedien wiederholt man, seit man überhaupt den Gedanken der Abbildung geisteswissenschaftlicher Inhalte in digitale Kommunikationsräume andenkt, die Argumente der Langzeiterhaltung und des Qualitätsfilters – einem Wunschwerkzeug ersehnt schon lange vor dem WWW, um die so genannte Informationsflut (oder Publikationsflut) in den Griff zu bekommen. Valentin Groebners Artikel, der dies mit dem seltsamen Wort „Überproduktionskrise“ variierend anteasert, definiert denn auch: „Denn Wissenschaft kann gar nichts anderes sein, als Verdichtung von Information. […] Man ist als Wissenschaftler selbst ein Filter, ganz persönlich.“

Die Argumente dafür präsentieren sich im Verlauf der Debatte dabei jedoch von nahezu allen Seiten nicht sonderlich verdichtet, sondern vor allem redundant. Wir erinnern uns:

„So verteidigte Uwe Jochum (Konstanz) in seinem polemischen Einführungsreferat die Bibliothek als kulturellen Gedächtnisort, als konkret sicht- und begehbares Gebäude gegen ein orientierungsloses Surfen auf weltweit rauschenden Datenströmen. Aus der antiken Mnemotechnik leitete er die Notwendigkeit einer Lokalisierung der Erinnerung ab: Bei der Lektüre eines Buches im Netz hingegen sei kein Rückschluß auf den Standort des Computers oder gar des Originals möglich. Die Anpassung der Bibliotheken an die Informationsgesellschaft sei schon deshalb problematisch, weil der Informationsbegriff völlig unklar sei. Während in einer herkömmlichen Bibliothek die einzige „Information“ der Standort eines Buches sei, gehe in der simultanen Verschaltung von Sender und Empfänger jeder Inhalt verloren – kurz: Sammlung sei gegen Zerstreuung zu verteidigen.“

So las man es ebenfalls in der Frankfurter Allgemeinen Zeitung und zwar am 09.10.1998. (Richard Kämmerlings: Lesesaal, Gedächtnisort, Datenraum Der Standort der Bücher: Auf dem Weg zur hybriden Bibliothek., S.46) Und auch das Thema der Langzeitarchivierung solcher Bestände stand damals mitten in der Auseinandersetzung.

Der Hauptunterschied zu dieser Zeit liegt vor allem darin, dass man 1998 noch nicht diskutierte, inwieweit es für Historiker zulässig ist, solche Debatten sowie andere Wissenschaftskommunikationen in Blogs und damit direkt und ohne redaktionelle Kontrolle abzubilden. Weil man Blogs und das Web als kommunikativen Partizipationsraum noch gar nicht wirklich kannte.

Ein Irrtum Valentin Groebners scheint dagegen darin zu liegen, dass er die „unerfreulichen Seiten der Gelehrtenrepublik […] nämlich […] den Kult der narzissistischen Differenz und […] Debatten, die ins endlose verlängerte werden“ grundsätzlich prinzipiell mit digitaler Kommunikation verknüpft. Genauso gut kann man sie nämlich, wenigstens in diesem Fall, beispielsweise gleichfalls mit der FAZ verbinden. Auffällig an diesem Diskurs ist zudem, dass ein paar etablierte Akteure gibt, die seit den frühen Tagen stabil dabei sind und parallel wechselnde neue Akteure, die offensichtlich jedes Argument für sich jeweils neu entdecken und ausführen. (Ich möchte übrigens nicht sagen, dass meine Texte durchgängig außerhalb dieses Prozesses stehen.) Zu vermuten ist jedoch ebenso, dass die Akteure, die tatsächlich intensiv Schlüsse ziehen, mit der Umsetzung ihrer Folgerungen so beschäftigt sind, dass sie gar keine Zeit und Lust mehr finden, sich in (De-)Legitimierungsscharmützeln aufzureiben.

Das Internet wirkt für Kommunikationen naturgemäß vor allem als Proliferationsimpuls: Es entfaltet all das, was ohnehin bereits angelegt ist. Die oft scheußlich selbstgerechten Lesekommentarhagel auf den Zeitungsportalen machen nur sichtbar, wie eben auch gedacht wird. Aus soziologischer Sicht ist das ungemein spannend. Dass das „Unfertige“, aus dem Wissenschaft per se besteht, nun direkt wahrnehmbar, referenzierbar und direkt nachnutzbar wird, verändert zwangsläufig die Wissenschaftspraxis. Das behagt vor allem denen, die dadurch etwas zu gewinnen haben (z.B. Diskurshoheit) und missfällt all denen, die sich darin überfordert bis bedroht sehen (z.B. nicht zuletzt einfach, weil ihnen in ihrer Lebensorganisation die Zeit zur Auseinandersetzung mit den Weblogdiskursen fehlt und sie nicht verstehen, warum sie nun zwangsläufig darauf einsteigen müssen. Auch das ist nachvollziehbar.)

Dass ein nach festen Bezügen strebendes Wissenschaftsbild hier seine Stabilität gefährdet sieht, ist nachvollziehbar. Aber der Zusammenbruch aller überlieferten Wissenschaftswerte ist kein unvermeidliches Szenario, sondern ein vermutlich im Ergebnis eher harmloses Schreckensbild. Es gibt keinen Grund, anzunehmen, dass Digitalität prinzipiell diskursive Verfestigung und Absicherung verhindert. Der oben zitierten Stelle aus der Replik Anton Tantners ist fast nichts hinzuzufügen. Digitale Kommunikationsräume sind Räume, die wir programmieren und gestalten. Wenn wir bestimmte Qualitätskriterien für die Wissenschaftskommunikation erhalten wollen, dann sollte sich das durchaus unter intelligenten, rationalen Akteuren, wie man sie in der Wissenschaft zu vermuten angehalten sein sollte, aushandeln und perspektivisch etablieren lassen. Nicht jeder Geisteswissenschaftler muss dafür Quellcode schreiben lernen. Auch die einfach Verständlichkeit der Schnittstellen zwischen Mensch und Technik ist Teil der Entwicklungsagenda.

Es gibt sogar eine eigene wissenschaftliche Disziplin, die sich mit Fragen auseinandersetzt (bzw. auseinandersetzen sollte), wie diese Ansprüche der Wissenschaft (Verifizierbarkeit, Nachprüfbarkeit, Verdichtung)  im Digitalen umgesetzt werden können: die Bibliothekswissenschaft (bzw. Bibliotheks- und Informationswissenschaft). Wenn man Karsten Schuldts Annahme zustimmt, es gäbe jeweils „ein Rezeptionsverhalten, dass zu bestimmten Situationen und Lesehaltungen passt“, und es gibt keinen Grund die Zustimmung zu verweigern, dann erscheint überhaupt die Idee, selbst- und fremderklärten „Buchfetischisten“ und „Masturbationsbloggern“ ihre gegenseitige Legitimation absprechen wollen, als völlig unsinniger Hemmschuh, wenn es tatsächlich um die Frage geht, wie ein zeitgemäße Wissenschaftskommunikation aussehen kann – die übrigens genauso nach wie vor Printprodukte und andere netzunabhängige Medien zulässt, wenn diese zu Situation, Lesehaltung und dem Bedürfnis nach Langzeitsicherung passen.

It’s the frei<tag> 2012 Countdown (16): Kurt Drawert (2), Digitale Geisteswissenschaft und Bibliotheken

Posted in LIBREAS aktuell, LIBREAS.Debatte by libreas on 30. Juli 2012

Ben Kaden

Man erinnerte mich unlängst und nicht unbegründet daran, dass der LIBREAS-frei<tag>-Countdown mit Texten versehen werden sollte, die auch etwas wahlweise mit der Unkonferenz zum Stand der Bibliotheks- und Informationswissenschaft oder derr Summer School des LIBREAS Vereins zu tun haben sollte.

Immerhin meine kleine Glosse zu Kurt Drawert verfehlte diesen Anspruch recht deutlich. Er bereichert aber mein Leben wiederum um die Erfahrung, wie es ist, gelesen und nicht ganz so verstanden zu werden, wie ich es meine. So schreibt Armin Steigenberger auf lyrikzeitung.com:

„Es scheint, dass derjenige, der auch nur irgendwas gegen das Internet vorbringt, heute sofort unter Generalverdacht steht, was ich eigentlich genauso eindimensional finde. Insofern ist Ben Kadens Replik in summa eine ziemlich vorhersehbare Reaktion und an neuen Argumenten, die mich wirklich überrascht hätten, kommt gar nichts.“

Hier kollidieren natürlich Erwartungshaltungen und fast naturgemäß driften Meinen und Verstehen zielstrebig auseinander. In welcher Hinsicht ich generell verdächtige, erschließt sich mir auch nach dem Wiederlesen meines Textes nicht. Gleiches gilt für den Zweck der Pauschalisierung „das Internet“, gegen das zu opponieren freilich genauso sinnvoll wäre, wie der Kampf gegen Bahnschienen, Webstühle, Windmühlen und Schnellstraßen.

Darum geht es aber Kurt Drawert auch nicht. Sondern ihn treibt die Überlegung (oder Angst), wie (dass) sich die Rezeption verändert, wenn sich das Träger- und Abbildungsmedium ändert. Dahingehend geschieht ohne Zweifel viel und die Rezeptionsforschung stürzt sich hoffentlich begeistert auf diese Veränderungen. Und hoffentlich weniger voreingenommen als Kurt Drawert in seinem tristen Text.

Dass dieser den konkret Handelnden und die Mannigfaltigkeit der Wahrnehmungs- und Rezeptionswelten hartnäckig ausklammert, ist für mich der trübste, fast blinde Fleck seines Essays. Dass er zudem den Untergang der Literatur durch Digitaltechnologie prophezeit, ist eine so traurige wie grundlose Schlussfolgerung. Und der bebende Brustton, mit dem diese Einschätzung in den Diskurs eingeworfen wird, liegt so fernab jedenfalls meiner Lebenswirklichkeit, in der man Werkzeuge als Möglichkeiten betrachtet und nicht als auf des Herzens liebste Dinge gerichtete Dolche, dass ich mehr mit Erstaunen als mit Gegenrede reagieren kann. Neue Argumente sind zudem in dieser Urdebatte der digitalen Gesellschaft schon deshalb schwer zu finden, weil ich gar keinen Antagonismus à la „Freiheit des Netzes vs. Freiheit der Buchrezeption“ sehe.

Selbst wenn ich Technologiekritik gemeinhin hoch schätze, vermag ich weder das Problem noch den Pessimismus Kurt Drawerts nachzuvollziehen. Jedenfalls, solange unsere Kultur noch so etwas wie die Lyrikreihe des Hochroth-Verlags hervorbringt und ich die Option habe, meine Abendlyrik in einem stillen Zimmer vom Papier abzulesen. Ich wüsste nicht, welcher Techniker mir das nehmen wollte. Und daher bleibt mir die ganze Aufregung fremd – in einer unangenehmen Weise.

Nun bin ich fast schon wieder dabei, das Thema zu verfehlen. Aber man kann nicht zuletzt in Anschluss an Kurt Drawert (unter Hilfestellung von Armin Steigenberger) immerhin eine Einstiegsthese für die Unkonferenz daraus formulieren:

Digitale Medien verändern die Rezeptionspraxis, „weil das Internet als ‚Resonanzraum‘ kein störungsfreier Raum ist, sondern nebenher allerhand ‚Interferenzen‘ passieren, wo man auch permanent zusätzliche Infos bekommt, die man nicht bestellt hat, die aber die Rezeption, das „sich-Einlassen“ stören […]“ (vgl. http://lyrikzeitung.com/2012/07/29/119-gezwitschert-gegeigt-und-gesungen-2/)

(Die Tatsache, dass es on- und offline individuell große Unterschiede bei der Ausübung der bislang zentralen Kulturtechnik unserer Gesellschaft gibt, mag man vielleicht zunächst ausklammern.) Für die Texthermeneutik und das Close Reading ist diese Frage mindestens genauso relevant, wie für die Bibliotheken, die sich fragen, ob sie in einem Neubau lieber einen klassischen Lesesaal oder eine Kommunikationszone mit Café und Indoor-Spielplatz unterbringen sollen.

Und es wirkt auf die Frage zurück, wie wir schreiben sollen, wenn wir für das Netz schreiben. Armin Steigenberger betont beispielsweise in seiner Replik zu meiner Drawert-Lektüre, dass sich die Besprechung des Aufsatzes Kurt Drawerts in einem Weblog womöglich verbietet:

„Hinzu kommt die Tatsache, dass Drawerts NZZ-Artikel nicht im Netz verfügbar ist, was gewissermaßen gewollt ist – alles andere wäre ja wieder eine Einladung zum Entreißen, würde seine These nur belegen, dass eben alle Texte verlieren, sobald sie online sind und somit zu Verkürzung und Überlassung einladen. Denn diesen Text im Blog zu besprechen wäre vergleichbar damit, eine Blogdiskussion über die These abzuhalten, ob Blogdiskussionen nicht per se haltlos sind: eine contradictio in adiecto. Insofern wird Drawerts Artikel nun selbst „entrissener“ Text, in Ausschnitte zerbröckelt und unterlegt mit Bockwurst und Bier.“

Diese Argumentation überzeugt mich leider kaum. Denn (a) ist die Rekontextualisierung nach Gusto weder ans Web noch an Weblogs gebunden, sondern ein Leitelement schriftsprachlicher Debatten und vermutlich die Basis aller Kultur. Und (b) wäre die Verweigerung sich dem Diskurs zu stellen, indem man einen Beitrag zum Diskurs zwar trotzig präsentiert aber eben nur offline und daher um Diskursferne bemüht, diskursethisch untragbar. Und (c) ist ein Weblog einfach nur eine neutrale Publikationsfläche, die, wie ein Blatt Papier, vom Gossip bis zur Weltformel alles in Schrift fassen kann, was in Schrift zu fassen ist.

Gern gestehe ich dagegen ein, dass man meinen Text leicht als Bestätigung der These Kurt Drawerts lesen kann. Ich würde mir allerdings wünschen, dass man etwas anderes daraus mitnimmt. Nämlich den Aufruf zu mehr Gelassenheit in diesem Diskurs.

Kerstin Holm - Manfred Heidegger

Manfred auch? Die Grenzen automatischer Verfahren Digitaler Geisteswissenschaften lassen sich in fast jeder Buch anschaulich bereits durch Oberflächenlektüre abschätzen. Denn welche automatische Textanalyse würde hier korrekt schlussfolgern, dass der russische Komponist Wladimir Martynow nicht etwa einen – obendrein recht lebendigen – Ferienhausvermieter aus dem Oberallgäu zu einer zentralen Autorität seiner geistesgeschichtlichen Sozialisation zählt, sondern jemanden von der Schwäbischen Alb, der wusste, wie uns die Technik ins Gestell zwingt. Man mag das Problem als spitzfindig empfinden, aber wir benutzen die digitalen Verfahren ja gerade zum Zwecke der Spitzfindigkeit, d.h. um auch das zu entdecken, was unserem Auge sonst entginge. Hier hat das händische Blättern noch gereicht. Dem Lektorat Der Anderen Bibliothek ist der kleine Fehler auf Seite 189 vermutlich ziemlich peinlich. Abgesehen davon ist die Ausgabe von Kerstin Holms „Moskaus Macht und Musen“ (Berlin: AB – Die Andere Bibliothek, 2012) jedoch ein gelungenes Beispiel dafür, warum wir von Buchkultur sprechen.

Auf einer solchen Basis könnte man sich dann nämlich den Fragestellungen wie der widmen, wie viel Verflüssigung, Bricolage und Versetzung von Textinhalten wir eigentlich für welchen Zweck zulassen wollen? Die wird nämlich nicht zuletzt akut im Umfeld dessen, was man Digital Humanities nennen.

Die Hamburger Tagung, die vermutlich als ein Schlüsselereignis der Digitalen Geisteswissenschaften in Deutschland gelten kann, brachte es immerhin zu zwei Artikeln in derselben Ausgabe der Frankfurter Allgemeinen Zeitung. Und beide Texte versuchen etwas, was die Protagonisten dieses neuen methodologischen Spektrums bisweilen etwas vernachlässigen: die Metasicht auf Sinn und Unsinn, auf die Wechselbeziehung von Machbarem und Wünschbarem.

Wolfgang Krischke (Wege und Abwege digitaler Forschung. In: FAZ, 25.07.2012, S.N3, nicht frei online) betrachtet die Entwicklung relativ nüchtern:

„Von einem neuen Paradigma kann […] kaum die Rede sein, in manchen Bereichen der Linguistik bedient man sich der elektronischen Datenverarbeitung schon seit der Lochkarten-Ära.“

Allerdings räumt er selbst ein, dass die Möglichkeiten einer statistischen Analyse von Sprache heute doch – vor allem quantitativ – ein wenig mehr zulassen, als die Lochkartenpioniere vermutlich überhaupt ahnen konnten. Und er betont an der schlichten und interessanten, rein quantitativ aber kaum greifbaren Forschungsfrage:

„Wie verändert sich beispielsweise die Bedeutung von „Freund“ durch den Gebrauch, der von diesem Wort in den sozialen Netzwerken gemacht wird?“,

dass eine Horizontlinie der Erforschung der Websprache und ihrer Folgen bereits durch urheber- und datenschutzrechtliche Regeln eingezogen wird. Immerhin: Die Notwendigkeit einer informations- und wissenschaftsethischen Diskussion der Digital Humanities lässt sich in diesem Zusammenhang – also nicht zuletzt für die Unkonferenz – exzellent veranschaulichen.

Dazu zählt zudem eine weitere Frage, nämlich die, ob es nicht geradezu geboten ist, aussterbende Sprachen als generelles Kulturgut so gut und lückenlos wie nur möglich mit den vorhandenen Technologien zu dokumentieren, selbst wenn das am Ende vielleicht mit dem konkreten „Überleben der bedrohten Idiome“ nicht mehr zu tun hat, als eine Nachzucht  einer in freier Wildbahn verschwundenen Tierart im Zoo. (Oder gar nur einem taxidermischen Präparat im Naturkundemuseum.)

Und ebenfalls wissenschaftsethisch interessant ist die Rolle von Google, das Korpus und N-Gram-Viewer als Zentralbausteine gewisser Facetten digitaler geisteswissenschaftlicher Forschung bereitstellt. Hier wirkt ein Unternehmen, wenn auch sicher ein sehr besonderes, massiv gestaltend auf eine Wissenschaftslinie ein, von der gern nicht selten betont wird, sie sei – möglicherweise analog zur Google-Suche – perspektivisch die einzige und alternativlose Option.

Thomas Thiel (Eine Wende für die Geisteswissenschaften? In: FAZ, 25.07.2012, S. N5) nimmt sich der Entwicklung aus einer wissenschaftsadministrativen bzw. -infrastrukturellen Position an und zeigt, dass Digital Humanities mehr meinen muss, als Google bietet. Er betont die für die Bibliothekswissenschaft zentrale Dreiheit von Digitalisierung, Standardisierung und Langzeitarchivierung (inklusive Qualitätssicherung). Wenn man das Fach sowie die wissenschaftlichen Bibliotheken also naheliegend auf die Rolle einer Zentralinstanz der digitalen Geisteswissenschaften orientiert, dann rutscht es automatisch in die Aufgabe, nicht nur Publikationen, sondern Korpora bzw. geisteswissenschaftliche Primärdaten zu sammeln, zu erschließen, vorzuhalten und nach Bedarf verfügbar zu machen. Die Digital Humanities (DH) könnten demzufolge der Bibliothekswissenschaft endlich eine fixe Forschungsrichtung vorgeben. Und dem wissenschaftlichen Bibliothekswesen eine Perspektive für die Zeit nach der Hegemonie der Printkultur.

Dazu muss sich das „Methodenfeld“ aus dem „Quellgebiet von Computerlinguistik, Computerphilologie und Fachinformatiken“ (Thomas Thiel) jedoch erst einmal als solches etablieren. Wobei nicht nur nicht notwendig, sondern überhaupt nicht zweckmäßig scheint, womit Jan Christoph Meister zitiert wird, nämlich der „empirische[n] Wende für die Geisteswissenschaften“ und dem Abschied vom „Paradigma der hermeneutischen Einzelforschung“. Hier wird erneut ein Ausschlussszenario ins Spiel gebracht, wo es völlig unnötig, in jedem Fall verfrüht ist. Thomas Thiel ordnet den bisherigen Stand der DHs zutreffend eher als „anwendungsorientierte Hilfswissenschaft“ als als „Speerspitze einer umfassenden Transformation der gesamten Geisteswissenschaften“ ein:

„Dass sie große Erkenntniszusammenhänge erschließen können, zeichnete sich nicht einmal schemenhaft ab.“

Ich sehe vielmehr auf lange Sicht als Ideal eine mehrschichtige Durchdringung quantitativer und metrischer Verfahren mit interpretativen, wie ich es jüngst in einem Kommentarthread, skizzierte:

 „In einem zugespitzten Szenario könnte die Entwicklung vielleicht dahin gehen, dass wir auf der einen Seite große, tiefenerschlossene Datenbestände haben, aus denen auf der anderen Seite zahllose kleine und in verschiedene Richtungen zielende temporäre Interpretationen erfolgen und permanent diskutiert werden. Publikationen fassen diese Deutungen und Argumentationen eventuell sogar in festen Zeitabständen als gesichertere Referenzpunkte zusammen, zielen aber selbst nicht mehr Innovation, sondern nur auf Kumulation und Dokumentation. (Beispielsweise in eine aktualisierten Form von Referatemedien, die nicht mehr Publikationen, sondern Argumente, Schlüsse und Diskussionen sammeln, ordnen und in dieser Ordnung verfügbar machen.)

So wie es in bestimmten Geisteswissenschaften kanonisierte Texte gab und gibt, die über zeitstabil neu gelesen werden, so könnte ich mir vorstellen, dass es auch einen Kanon von Open Data-Datensätzen gibt, mit denen alle Disziplinen ähnlich verfahren. Messende und interpretative Disziplinen verschmelzen demnach. Und zwar nicht nur in der Form, dass sich Geisteswissenschaften zunehmend quantitativer Verfahren bedienen. Sondern auch, dass eine Form von Daten-Hermeneutik (möglicherweise mehr in Anschluss an die so genannte Objektive Hermeneutik) in die anderen Disziplinen dringt. (Implizit spielt nach meiner Erfahrung Interpretation seit je fast überall die entscheidende, nämlich Schlüsse grundierende Rolle. Nur erfolgt dieser methodische Schritt oft nicht zureichend reflektiert, d.h. im Bewusstsein, dass eine Schlussfolgerung immer ein interpretatives Moment enthält, das man auch methodologisch elaborieren kann.)“

Inwieweit in diesem Szenario langfristig die rein interpretativen geisteswissenschaftlichen Publikationen es noch leicht hätten, sich zu behaupten, oder ob sie sich nicht nach und nach in Richtung einer eher literarischen Abbildungs- und Erkenntnisdisziplin emanzipierten, die selbst mehr Wert auf Originalität in Form und Darstellung als an formalwissenschaftlichen Anspruch und Strenge legt, bleibt selbstverständlich einer von zahlreichen weiteren offenen Aspekten. In jedem Fall berechtigt uns nichts, ihnen jetzt (schon) die Tür zu weisen.

29.07.2012

Ordnung ist das halbe Lesen. Zu Mikko Kuorinkis Variation über Foucault.

Posted in LIBREAS.Feuilleton, LIBREAS.Referate by Ben on 19. April 2012

Rezension zu: Mikko Kuorinki (2012): The Order of Things: An Archaeology of the Human Sciences. Karlsruhe: Mark Pezinger Verlag.

von Ben Kaden

Bis auf das Buch „Das Totenschiff“ segelte B. Traven an meiner Lektürebiografie fast spurlos vorbei. Aber irgendwie auch nicht. Denn eine meiner angenehmsten Tätigkeiten zur Entspannung des manchmal etwas von alltäglicher Betriebsblindheit geprägten Blicks während meiner Tätigkeit als studentischer Mitarbeiter in der Saur-Bibliothek des Berliner Instituts – damals noch nur – für Bibliothekswissenschaft, war das Herumstöbern in der teils doch sehr wunderlichen Zusammenstellung des dort vorgehaltenen Programms des Saur-Verlags. Einer meiner Lieblingstitel wurde Joachim Dietzes B. Travens Wortschatz [1]. Auch wenn ich also B. Travens Worten weitgehend fremd gegenüber stehe, so sind mir doch seine Wörter vertraut. Joachim Dietzes Arbeit ist nämlich ein so genanntes Frequenzwörterbuch, welches sämtliche von B. Traven verwendete Wörter nach Schaffensperioden auf etwas mehr als 700 Seiten listet. Das liest sich nicht mitreißender als ein Telefonbuch, aber dank Rückbezug zu einem konkreten Autor und seinem Werk doch aufregender als der Duden. Von den jeweiligen Handlungsverläufen erfährt man natürlich nichts, aber erstaunlicherweise ergibt sich aus dem aufmerksamen Durchblättern des tabellarisch nach Häufigkeit aufgeschlüsselten Wortschatzes durchaus ein grober Eindruck, worüber der Schriftsteller wie schrieb.

Sich mit Sinn und Zweck derartiger Erschließungen auseinanderzusetzen ist Gegenstand einer literaturwissenschaftlich orientierten Linguistik. Hilfreich sind Frequenzanalysen vor allem für Fragestellungen einer quantitativen Literaturwissenschaft, die sich auch mit Wortschatzauffälligkeiten und Verschiebungen im Vokabular befasst.

Einem Betrachter ohne Bezug zu solchen Erkenntnisverfahren erscheint die Vorstellung, ein Textwerk derart aufzulösen und zu -listen dagegen verständlicherweise wahlweise als spleenig, absurd oder frevelhaft.

Bibliotheks- und Informationswissenschaftler sehen schließlich darin möglicherweise wichtige Vorarbeiten einer literaturwissenschaftlichen Semiometrik, die für semantische Netze und Ontologieentwicklung nützliche Grundlagen legen kann.

Wie Joachim Dietze methodisch vorging, ist mir nicht bekannt und das Buch liegt mir auch nicht mehr vor, um in einer eventuellen Vorbemerkung entsprechend nachzulesen. Auch inwieweit Volltextkorpora wie Google-Books semiometrische Verfahren elaborieren vermag ich nicht genauer abzuschätzen und für entsprechende Hinweise bin ich immer dankbar. Der N-gram-Viewer[2] lässt jedoch vermuten, dass dort Ansätze dieser Art keine geringe Rolle spielen. Eher  darüber hinaus, wie sich derartige Verfahren als Werkzeuge auf Digitale Geisteswissenschaften appliziert denken lassen.

Eine Schwierigkeit bleibt freilich bestehen. Denn man besitzt zwar im Idealfall Korpus, Methode und Analysetechnik. Der Zweck, also das Erkenntnisziel, dieses „how (not) to read a million books“[3] bleibt aber unbestimmt.

In der Informationswissenschaft kenn man das schon länger. Denn die Formulierung relevanter Forschungsfragen und in gewisser Weise die Re-Qualifizierung quantitativer Möglichkeiten ist eine Herausforderung, die Sziento- und Bibliometrie grundlegend umtreibt. Wir können alles Mögliche messen, relationieren und visualisieren. Die Möglichkeit eines Übergangs zwischen einer Leistungsschau der Rechentechnik, dem ästhetischen Vergnügen an sauberen Kurvenverläufen und sinnvollen Aussagen mit konkreten Handlungsimplikationen wird dabei jedoch nicht immer greifbar.

Mikko Kuorinki - The Order of Things (Cover)

"Snobs who go to Bonn for bonbons know how to shop for good food." - Christian Böks nach-oulipotisches Eunonia (Edinburgh: Cannonball Books, 2001) stellt in gewisser Weise das Gegenmodell zu Mikko Kuorinkis' Ansatz dar. In fünf Kapiteln wird eine Literatur erzeugt, die der strengen Regel erfolgt, in jedem Kapitel jeweils nur einen Vokal zuzulassen, dafür aber möglichst das gesamte Repertoire an integrierbarem Vokabular zu verarbeiten. Laut Nachwort gelang dies zu 98 %. Das Vergnügen - man kann es am zitierten Satz leicht erproben - entsteht beim lauten Vortrag. Damit unterscheidet es sich übrigens grundlegend von Mikko Kuorinkis Ordnungswerk. Vor allem, weil man dort angesichts gebündelter Redundanz beim Lesen viel zu leicht in der Zeile verrutscht.

Wenn nun der finnischen Künstler Mikko Kuorinki die Methode des Frequenzwörterbuchs auf Michel Foucaults Les mots et les choses (allerdings englische Übersetzung, also: The Order of Things) anwendet, darf man sicher keinen übermäßig wissenschaftlichen Hintergrund erwarten. Zudem ist anzunehmen, dass die Übersetzung ohnehin einige Verwischungen im Sprachgebrauch enthält, was auch die Aussagekraft über den Sprachgebrauch Foucaults begrenzt. Dennoch eröffnet sich ein erfrischender Zugang.

Das Werk zur Umordnung des Textes ist selbstverständlich bewusst gewählt. Es in der Form aufzubrechen und nach Worthäufigkeiten neu aufzustellen, es also von formulierten Aussagen zu in der Wortverwendung an sich aufschimmernden impliziten Aussagen eines Subtextes zu öffnen, lässt sich unschwer als Referenz auf die Grund(in)fragestellung von Wissen durch die Idee des Diskurses lesen. Mikko Kuorinki treibt die Vorstellung, wie wir über die Dinge sprechen und wie sie Foucault gerade auch in diesem Werk unter dem Begriff der Archäologie untersuchte auf eine interessante und dekonstruktive Spitze. Und zwar, indem er sich ausschließlich des in der Vorlage benutzten Vokabulars bedient und es nach dem schlichtmöglichsten Ordnungsverfahren (=alphabetisch) arrangiert. „Discourse“ besetzt nun mehr als eine ganze der leider nicht nummerierten Seiten und geht direkt in eine halbe weitere mit „discover“ über. Inwiefern auf Schöpferseite (also bei Mikko Kuorinki) die Freude am Nonsens bei der Arbeit eine Rolle spielte, wird vom Buch her nicht deutlich. Die Werkgeschichte des Künstlers ist aber durchaus von der Auseinandersetzung mit der Verbindung zwischen Mensch und Welt via Sprache geprägt. Damit kann man ihn sicher vom L’art pour l’art-Verdacht freisprechen. Im Buch selbst findet sich keine Erklärung. Die etwas zu gequälten Blurbs auf der Buchbanderole wirken fast ein wenig den Spaß verderbend.

Der Inhalt ist wahrscheinlich tatsächlich wortidentisch mit der Vorlage, semantisch aber maximal aufgespreizt. Denn jedes Wort steht nun für sich und alle abgebildeten Kontexte sind syntaktisch motiviert. Was mitunter tatsächlich in eine eigenartig konkretisierte Poesie des Eigensinns der Sprache führt. Abgesehen davon überrascht die linguistische Visualisierung der Wortverwendungen („information“ kommt nur dreimal vor, „belief“ bzw. „believe“ in verschiedenen Beugungen 49 Mal) mit einiger Aufschlusskraft über den Foucault‘schen Diskurs, also die spezifische Rede- bzw. Schreibweise über seinen Gegenstand.

Möglicherweise ist diese rücksichtslose Form der Diskursbrechung dank eines simplen Ordnungssystems der uns verbliebene Weg einer erkennenden Distanzierung zu den unvermeidlich gebundenen Aussagesystemen der Wissenschaften. Ich glaube nicht, dass Mikko Kuorinkis Arbeit als Plädoyer für die Elaboration entsprechender semiografischer und semiometrischer Methoden angedacht ist. Aber sie lässt sich – wenn man hier von lesen sprechen möchte – vor allem so lesen. Und enthält dabei, die richtige Fragestellung vorausgesetzt, durchaus Erkenntnis stiftendes Potential.


[1] Joachim Dietze: B. Travens Wortschatz : ein Frequenzwörterbuch zu seinen drei Schaffensperioden. München : Saur, 1998

Der Twill der Tweets. Die FAZ entdeckt mit der dhiha3 das Konferenztwittern.

Posted in LIBREAS aktuell, LIBREAS.Referate by Ben on 13. Juli 2011

„Wie sinnvoll ist der wissenschaftliche Einsatz von Social Media?“

fragt diesen Mittwoch Katharina Teutsch auf der Seite zu Forschung und Lehre der Frankfurter Allgemeinen Zeitung. (Ausgabe vom 13.07.2011. Schöne virtuelle Tagungswelt. Seite N 5) Dort berichtet sie über eine Veranstaltung „Im Netz der sozialen Medien: Neue Publikations- und Kommunikationswege in den Geisteswissenschaften“ (mehr dazu hier), die Ende Juni im Deutschen Historischen Institut in Paris (DHIP) stattfand und dem Thema entsprechend eifrigst betwittert wurde. Wer die entsprechenden Feeds mitlas, kann sich die Lektüre eigentlich sparen oder sich auf das Symbolbild aus dem Grimm-Zentrum (als „Plattform traditionellen Wissens“ – FAZ) konzentrieren. Denn man  bleibt zwangsläufig ohne Antwort auf die Eingangsfrage. Dafür war das Brennglas der Journalistin viel zu sehr auf dokumentarische Nahsicht geschliffen und selbst wo sie zum Schlussfolgern übergeht, vermisst der Leser erkenntnisstiftende Distanz. (more…)