Publikationsfreiheit.de, Open Access und Geisteswissenschaften.
Eine Notiz von Ben Kaden (@bkaden)
I
Der Aufruf „Publikationsfreiheit für eine starke Bildungsrepublik“ (www.publikationsfreiheit.de) war unbestreitbar eine prägendes Ereignis der Debatten und Kontroversen vor allem aber nicht nur um das Urheberrechts-Wissensgesellschafts-Gesetz (UrhWissG). Er verfehlte allerdings, wie wir nun wissen, sein unmittelbares Ziel. Der Bundestag beschloss selbst angesichts der Unterschriften von Jürgen Habermas, Jürgen Osterhammel und Marlene Streeruwitz eine Neuregelung der Urheberrechtsschranken im deutschen Urheberrechtsgesetz, die dank eines Zugeständnisses an die Presseverlage kurz vor Beschluss die Reichweite der Schranken leicht begrenzen, punktuell ein paar Lücken schließen (Textmining) und sichert insgesamt die Situation, die sich aus den drei berühmten Körben der deutschen Urheberrechtsgeschichte ergab, in neuen Formulierungen. Dies bedeutet jedoch keinesfalls, dass der Aufruf nichts als diskursive Aquafitness war. Ganz im Gegenteil.
Das gilt in vielerlei Hinsicht. So dürfte die Vernetzung und Willensbildung im deutschen Verlagswesen und im Börsenverein des deutschen Buchhandels einen erheblichen Schub erfahren haben. Zugleich präsentiert er in hochkonzentrierter Form und im Zusammenhang mit anderen Quellen der absolvierten Urheberrechtsdebatte, wie öffentliche Auseinandersetzungen dieser Art mit welchen Narrativen unterfüttert öffentlich kommuniziert werden, wie sich welche Öffentlichkeit mobilisieren lässt und welche Akteure welche Kanäle zu aktivieren in der Lage sind. Wir wissen nun in gewisser Weise, wie vital die Beziehungen zwischen Verlagen und ihren Autorinnen und Autoren sind und wer für welche Botschaften besonders empfänglich ist.
Zugleich sind der Aufruf und seine Spuren aber auch als diskursgeschichtliche Forschungsdaten hochinteressant. Glücklicherweise ist die Seite mittlerweile auch im Internet Archive gesichert. Insbesondere die rege genutzte Möglichkeit, einen Kommentar zur Vorlage „Ich unterstütze die Publikationsfreiheit, weil…“ zu hinterlassen, kumulierte nämlich einen außerordentlichen und einzigartigen qualitativen Datenpool zu Einstellungsmustern in Verlagswesen, Wissenschaft und Kulturproduktion gegenüber aktuellen Entwicklungen im Publikationswesen und insbesondere im wissenschaftlichen Publizieren. Spätere Analysen zum Medienwandel und seinem Echo in den 2010er Jahren werden darauf dankbar zurückgreifen. Wenngleich naturgemäß nicht repräsentativ, gibt das Material doch exemplarisch Zeugnis zur Debattenkultur unserer Gegenwart. (more…)
Open Access ist „ein Geschenk an Google und Konsorten“. Meint Uwe Jochum heute in der FAZ.
Eine Anmerkung von Ben Kaden (@bkaden)
zu
Uwe Jochum:Digitale Wissenschaftskontrolle. In: Frankfurter Allgemeine Zeitung, 23.11.2016, S. N4
Peter Geimer: Jede Ähnlichkeit wäre rein zufällig. In: Frankfurter Allgemeine Zeitung, 23.11.2016, S. 9
Sowohl Feuilleton wie auch der Wissenschaftsteil der Frankfurter Allgemeinen Zeitung unterstreichen mit der aktuellen Themenwahl erneut, wie nachdrücklich sich das Blatt als Meinungsmedium für Debatten zur digitalen Wissenschaft und zum digitalen Publizieren in der Wissenschaft versteht. Das ist an sich eine gute Sache, weil es prinzipiell die Vielfalt der Stimmen und Positionen in diesen Diskursen erhöht und damit Material zur Auseinandersetzung und zum Hinterfragen eventueller und vermeintlicher Selbstverständlichkeiten führt. Ein wenig bedauerlich ist es freilich, dass gerade der Wissenschaftsteil zu diesem Thema mit einer Auswahl handverlesener Autoren (wo sind eigentlich die Frauen, die zu diesem Thema schreiben?) aufwartet, die man nun schon als Veteranen der Debatte bezeichnen muss, was, wie bei Veteranen nicht unüblich, zu gewissen Redundanzen in der Argumentation führt. Das macht es am Ende auch ermüdend, Gegenargumente zusammenzustellen und wenn man dem bewundernswert engagiert gegen die Windmühle des Open-Access-Zwangs antwitternden Stroemfeld-Verlag die Hand reichen möchte – der dieser leider zu oft mit Beißreflex und also bunt gewürfelten Unterstellungen begegnet – dann sicher in der Feststellung, dass es oft beim Austausch von Textbausteinen bleibt.
Aber vielleicht ist das eindimensionale Format des Zeitungsartikels, der in keine Synopse führt, sondern die Leserinnen und Leser der FAZ seit Jahren im Kreis um dieses eigentümliche Phänomen des Open Access herum, auch nicht das Idealmedium solcher Debatten. Andererseits kommt man so per Pressedokumentation sicher eher auf ministeriale Schreibtische und ein bisschen mutet es so an, als wären diese Ablagen der Hauptgrund, warum Roland Reuss und nun auch wieder einmal Uwe Jochum so viel Platz in diesem Forum erhalten.
Man muss Uwe Jochum in jedem Fall schon einmal zugestehen, dass er deutlich präziser und sicher auch klüger schreibt, als der berühmte Philologe aus Heidelberg. Sein aktueller Text kommt nun unter einer Überschrift „Digitale Wissenschaftskontrolle“ auf den Bildschirm und impliziert viel Gefahr für Wissenschaft. Das Mittel ist das Digitale. Nachzuweisen gilt nun noch im Text, wer sich dessen bedient. Man kann es gleich weg-spoilern: Uwe Jochum vermutet wie viele der wenigen Streiter gegen Open Access eine Art Verschwörung von „George Soros und seine[n] Open-Access-Freunden“, die mit einer Verkündungsschrift – nämlich der Budapester Erklärung – auszogen, die Reichweite des Urheberrechts zu minimieren und zwar bis auf „das Recht auf einen bibliografischen Nachweis“.
Auf die Frage nach der Motivation hat Uwe Jochum eine eindeutige Antwort:
„Jedem Internetnutzer sollte inzwischen klar sein: Es sind diese Personen- und Verkehrsdaten, mit denen im Netz das Geld verdient wird, nicht der „Content“. Klar sollte auch sein, dass mit den Gewinnen eine Politik finanziert wird, die auf einen Ausbau der nichtstaatlichen Kontrollzone zielt, in der die Daten und das Geld nur so fließen können.“
George Soros ist bekanntlich Investor und spielt daher, so Jochum, ein bisschen Philanthropie einzig und allein deshalb vor, um mit den Daten aus der Wissenschaft am Ende noch reicher zu werden als er schon ist. Wir werden also alle manipuliert und es gibt nur wenige, wie Uwe Jochum, die dieses perfide Spiel durchschauen und warnen:
„Am Ende hat der Staat seine Wissenschaft verschenkt, aber es ist in Wahrheit kein Geschenk an seine Bürger, sondern ein Geschenk an Google und Konsorten.“
Gemeinhin sollte man bei Formulierungen wie „und Konsorten“ immer vorsichtig sein, weil sie als Sammelklasse alles aufnehmen, was man in sie hinein imaginieren möchte. Warum die FAZ-Redaktion, die in jedem Jugend-Schreibt-Programm armen Lehrerinnen und Lehrern aufdrückt, dass größte Präzision bis auf die Mantelfarbe des Melkers, den ein Zwölftklässer beschreiben soll, die Essenz von Qualitätsjournalismus sei, solche Dinge durchgehen lässt, bleibt ihr Geheimnis und zwar eines, über das man angesichts der vielen Lapsus, die man im Blatt regelmäßig entdecken muss, immer wieder staunt. Aber das ist eine andere Baustelle und wäre eigentlich auch lässlich, wenn das Blatt nicht immer eine so furchtbare Arroganz zum Kern seiner Selbstvermarktung wählte.
Das zentrale Missverständnis des Missverständnisses, welches Uwe Jochum bei Open Access sieht, beruht darauf, dass er wie auch Roland Reuss hinter dem mittlerweile sehr diversifizierten Publikationsmodell eine einheitliche Ideologie vermutet, der man mit dem unnachgiebigen Einsatz für Werkherrschaft, Autorenrechte und das gedruckte Buch entgegentreten muss. Denn wahlweise führt sie eine Neo-DDR (Reuss’sche Position) oder in die totale Google-Facebook-Amazon-Apokalypse (Jochum) und in jedem Fall zur totalen Kontrolle, wobei die den totalen Staat dienenden Monopolisten „unbehelligt vom Staat und ohne demokratische Legitimation, aber unter dem Zuckerguss der Bequemlichkeit Kontrollsysteme als gesellschaftlich-technischen Normalzustand […] installieren.“ Der Staat will also alles kontrollieren – außer das Silicon Valley? Aber das soll er kontrollieren und sonst möglichst niemanden?
Diese eigenwillig postmodernen Anti-Open-Access-Argumentationen inszenieren einen aus Sicht vieler eher unnötigen Kulturkampf und stoßen, jedenfalls bei den unideologischen Nutzerinnen und Nutzern der unterschiedlichen Open-Access-Verfahren, deshalb so oft auf Verwunderung, weil diese Frequenz eigentlich schon lange zugunsten eines pragmatischeren und kritischeren Verständnisses zu den Möglichkeiten und Grenzen von Open Access abgestellt wurde. Die Idee des Open Access hat in der Tat emanzipatorische Ursprünge und zielte gegen Monopole (Stichwort: Zeitschriftenkrise). Ihr Scheitern an vielen Stellen ist etwas, was man aufarbeiten muss. Gerade deshalb ist es traurig, dass die FAZ wertvollen Debattenplatz zum Thema an eine Aufregung verschenkt, die etwa zehn Jahre zu spät kommt.
Es hat sicher auch etwas mit der Trägheit des wissenschaftlichen Schreibens selbst zu tun, dass in Programmschriften regelmäßig die Genealogie der Budapester und Berliner Erklärungen bemüht wird. Aber an sich ist heute jedem bewusst, dass Open Access in bestimmten Bereichen gut funktioniert und in anderen weniger gut. Ob man, wie die Universität Konstanz, die Nutzung des Zweitveröffentlichungsrechts mit einem dienstwerkartigen Verständnis von Wissenschaft durchsetzen möchte, ist berechtigt Gegenstand einer aktuellen Auseinandersetzung.
Bedauerlich an der zähen Debatte um Open Access ist, dass sie mit ihrem eigenartigen Fackelzug zum Strohmann eine andere und viel spannendere Entwicklung überdeckt, nämlich wie der Einfluss digitaler Medialität sowie entsprechender Werkzeuge und Kanäle das Spannungsverhältnis von Little Science und Big Science mittlerweile auf die lange davon weitgehend verschont gebliebenen Geisteswissenschaften projiziert. Es gab besonders in der Frühphase dessen, was man Digital Humanities nennt, durchaus sehr von Tech-Ideen motivierte Vorstellungen, geisteswissenschaftliche Arbeit könnte nun endlich auch zur Großforschung werden. (Die aktuelle, von wissenschafts- und kulturhistorischen Erkenntnissen völlig unbelastete, Panik/Begeisterung vor/für Künstliche/r Intelligenz wärmt das an einigen Rändern wieder auf.)
Hier würde sich unter anderem zugleich auch die Frage der Verwertbarkeit bzw. Verwertbarmachung geisteswissenschaftlichen Wissens und von Methodologien stellen und wenn Webannotation eines der großen kommenden Themen ist, dann sieht man auch, wohin man leuchten könnte. Andererseits warten die Unternehmen, die sich auf diesem Feld bewegen sicher nicht auf die digitaltechnische Aushöhlung philologischer Institute. Da ist es einfacher und schneller, ein paar Absolventinnen oder Absolventen entsprechender Studiengänge anzuwerben, für die der Universitätsbertrieb ohnehin nur noch selten attraktive akademische Karrierepfade vorhält. Die Infrastruktur wird dann bei Bedarf selbst entwickelt. Es ist also sehr unwahrscheinlich, dass irgendein Start-Up geduldig genug ist, um ein mit DFG-Geldern entwickeltes Tool abzuwarten und zu kannibalisieren. Und ein Staatsapparat, der aktuelle DH-Tools zur Massenüberwachung und „Industriespionage“ (vgl. Jochum) einsetzt, wäre fast bemitleidenswert harmlos.
Deutlicher wird, wie sich unterschiedliche Domänen – hier Geisteswissenschaft, dort Digital Humanities und irgendwo auch die Netzwirtschaft – herausbilden, die sich auf dieselben Objekte beziehen – so wie es nun mal parallel kritische Editionen, Taschenbuchausgaben und ein Kindle-E-Pub derselben Texte gibt. Nur weil etwas die gleiche Bezugsgröße hat, heißt es noch lange nicht, dass es eine Konkurrenz darstellt. Wenn etwas in der Debatte fehlt, dann ist es, diese Differenz herauszuarbeiten.
Ein selbstreflexiver(er) Umgang mit der Wechselwirkung zwischen Wissenschaft und den Einflüssen digitaler Praxen und Technologien führte im Idealfall zu einer schärferen Abgrenzung der Erkenntnis- bzw. Handlungsbereiche und würde allzukurzen und alarmistischen Einschätzungen wie der Peter Geimers im heutigen Feuilleton-Aufmacher – „Londons Tate Gallery arbeitet mit Technik-Schnickschnack an der Selbstaufgabe wissenschaftlicher Kritik.“ – entgegen wirken. Seine These ist, dass die Kunstgeschichte ihren kritischen Kern aufgibt, wenn jemand mit Mustererkennungssoftware experimentiert:
„Man müsste dieser Selbstaufgabe geisteswissenschaftlicher Kritik keine größere Beachtung schenken, wenn sie nicht einem aktuellen Trend zur Enthistorisierung und Essentialisierung der Kunstgeschichte entsprechen würde.“
Der Kunsthistoriker schüttelt damit zwangsläufig heftig das Bad mit dem Kind und verliert sich, in der Sache ganz nachvollziehbar übrigens, in einer Polemisierung, die aber ebenfalls sichtlich von einer wahrgenommenen Bedrohung getragen wird:
„Solche Skepsis an der geisteswissenschaftlichen Mimikry der Laborwissenschaften hat nichts mit Technikfeindlichkeit, mangelnder Neugierde oder dem Festhalten an etablierten Positionen zu tun. Wenn man die Studien aber nicht nach an ihrer szientistischen Rhetorik, sondern an ihren Resultaten misst, zeigt sich in der Regel, dass hier entweder mit hohem finanziellen und apparativen Aufwand experimentell ermittelt wurde, was man auch vorher schon wusste (etwa dass Experten Gemälde anders betrachten als Laien), oder aber Aussagen formuliert werden, deren wissenschaftliche Subtilität bezweifelt werden kann (etwa dass Männer in Ausstellungen Unterhaltung suchen, Frauen gerne die Begleittexte lesen und ansonsten emotional angesprochen werden möchten).“
Allein, dass er die Banalität der in der Tate gezogenen Schlüsse so entblößen kann, widerlegt ihn jedoch und demonstriert, dass die geisteswissenschaftliche Kritik nach wie vor existiert. Was außerordentlich zu begrüßen ist. Der Vorteil grundständigen wissenschaftlichen Wissens liegt darin, dass man damit um die Grenzen des Erkennbaren weiß und sich eben nicht euphorisiert in den nächsten Trend wirft, um alles bisherige aufzugeben. Man ist sehr fokussiert und oft auch aus Erfahrung bescheiden in seinen Erkenntniszielen (einige Alpha-Forscher ausgenommen), im besten Fall zugleich offen genug, um die Elemente aus nun aktuell der digitalen Wissenschaft anzunehmen, die Aspekte der eigenen Arbeit erleichtern.
Es gilt also gerade diese Kritik zu pflegen, die es ermöglicht, zu durchschauen und durchschaubar zu machen, wenn eine an ein Forschungsprogramm herangetragene vermeintliche Revolution gegen die eigenen Interessen läuft. Daher ist es vollkommen zulässig, wenn Roland Reuss, Uwe Jochum oder auch andere für ihre Sache streiten. Unzulässig wird ihr Streit, jedenfalls unter Bedingungen der Diskursethik, allerdings dann, wenn sie selbst kompromisslos und völlig überzogen mit Unterstellungen, vagen Behauptungen, falschen Tatsachen (Uwe Jochum behauptet ein „staatliches Publikationsmonopol“ und ignoriert das erstaunlich nicht-staatlich monopolisierte Gold-OA), mit Beleidigungen und der berühmten Opferkarte durch die Feuilletons marschieren und alles attackieren, was auch nur minimal von ihren Vorstellungen abweicht. Das bringt am Ende nur Unordnung und sonst nichts in die Debatte. Wo ein Zwang zu Open Access angedacht wird, muss man darauf hinweisen. Wissenschaftler, die gern Open Access publizieren, als „naive oder böswillige“ (regelmäßiger O-Ton Stroemfeld-Verlags-Twitter) Büttel einer höheren Macht (aktuelle Label, austauschbar: DFG, BMBF, BMJ, Google) zu attackieren, kehrt sich freilich in gesunden Debatten sofort gegen den Angreifer.
Um es noch einmal zu betonen: Die Geisteswissenschaften sind nachweislich und vermutlich auch nachhaltig dort von Monografien dominiert, wo eine akademische Karriere angestrebt werden und zwar mit allen wissenschaftssoziologischen Vor- und Nachteilen. Eine Open-Access-Publikation oder auch jede Form des nur digitalen Publizierens gilt in den meisten Bereichen eher als karriereschädlich. Kein Open-Access-Repositorium wird dies ändern und Bibliotheken werden damit vermutlich sogar gern leben, da Bücher wunderbar unkompliziert durch den Geschäftsgang zu schleusen ist. Dies bezüglich können Verlage und Werkschöpfer ruhig schlafen. Das Zweitveröffentlichungsrecht (Open Access als grüner Weg) berührt diesen Bereich überhaupt nicht. Eine szientifizierte Wissenschaftsmessung für Geisteswissenschaften ist erwiesenermaßen untauglich, zumal sie schon für andere Disziplinen nur sehr eingeschränkt passen. Entsprechenden Tendenzen sollte man auf jedem Fall entgegenwirken. Es gibt genügend stechende Argumente und wissenschaftliche Nachweise, so dass man das stumpfe Schwert der Polemik dafür gar nicht bemühen muss. Ein konstruktiver Diskurs – und es ist schlimm, dies betonen zu müssen – funktioniert nur mit einer grundlegenden wechselseitigen Anerkennung und einer Rückbindung an das Nachvollziehbare. Die Strategie von Roland Reuss und nun auch Uwe Jochum ist leider hauptsächlich die der Skandalisierung, die, wie oben bereits angedeutet, über die Köpfe ihrer Peers hinweg zielt und offensichtlich – Stichwort, leider, #fakenews – eine allgemeine Stimmung zu forcieren versucht, welche auf wissenschafts- und urheberrechtspolitische Entscheidungen einwirken soll. Ob diese Rechnung aufgeht, wird man sehen. Unergründbar bleibt nach wie vor, woher die erstaunliche Affinität von hochgebildeten und -reflektierten Akteuren für Untergangsszenarien und die Lust an der Rolle als einsamer Kämpfer für das Gute und (Selbst)Gerechte kommt. Ich hoffe sehr, dass wir eines Tages das Vergnügen haben werden, dazu eine ganz nüchterne und gründliche Diskursanalyse lesen können. Bis dahin bleibt uns immerhin die FAZ am Mittwoch.
(Berlin, 23.11.2016)
Wo beginnt die Vorgeschichte der Digital Humanities und was kann man aus ihr lernen?
Eine Notiz zu
Marcus Twellmann: »Gedankenstatistik« Vorschlag zur Archäologie der Digital Humanities. In: Merkur, 797 (Vol.69, Oktober 2015). S. 19-30
von Ben Kaden (@bkaden)
I.
Vermutlich ist es das Zeichen einer Reifung, wenn für ein junges Forschungsfeld, zum Beispiel die Digital Humanities, einerseits eine Art Geschichtsschreibung einsetzt und dies andererseits in Publikumszeitschriften geschieht. Der Merkur – Subtitel „Deutsche Zeitschrift für europäisches Denken“ – gehört traditionell zu diesen leider in der Zahl eher geringen Titeln, die den Überschlag von einer geistes- und kulturwissenschaftlichen Fachöffentlichkeit hin zu einer an intellektuellen Themen interessierten allgemeinen Öffentlichkeit regelmäßig schaffen. Es handelt sich buchstäblich um eine Zeitschrift, denn es werden die Themen der Zeit be- und aufgeschrieben und wenn man beispielsweise Jürgen Habermas‘ Artikel zu Moral und Sittlichkeit aus der Dezemberausgabe 1985 nachliest, staunt man, wie trotz aller beschworenen Verkürzung von Halbwertszeiten des Wissens bestimmte ideengeschichtliche Phänomene erstaunlich geltungsstabil bleiben können.
Ob dies ähnlich auch für Marcus Twellmanns Text zur Archäologie der Digital Humanities aus der Oktoberausgabe des Jahres 2015 gelten wird, werden wir erst 2045 beantworten können. Die Chancen stehen aber nicht schlecht, denn der Konstanzer Kulturwissenschaftler nähert sich dem Phänomen bereits historisch und zwar aus einer methodengeschichtlichen Perspektive. Ist Pater Roberto Busa mit seiner computergestützten Aquin-Erschließung der Nukleus der Digital Humanities bzw. des Humanities Computing? Nicht unbedingt, meint Twellmann. Und schlägt vor:
„Betrachten wir solche humanwissenschaftlichen Formationen als protodigital, die auf einer mathematischen Verarbeitung numerischen Daten basierten und Verfahren hervorbrachten, die später computertechnisch implementiert werden konnten.“
Perspektiven für die Digital Humanities (z.B. als Post-Snowden-Scholarship).
Eine Notiz von Ben Kaden (@bkaden)
I
In der letztwöchigen Ausgabe der New York Review of Books (LXII, 11) bespricht der Literaturkritiker Christopher Benfey Mark Greifs Buch The Age of the Crisis of Man: Thought and Fiction in America, 1933-1973 (Princeton : Princeton University Press, 2015). Besonders überzeugend findet er die Ausführungen Mark Greifs zum Aufkommen der Theory, die mit den Arbeiten von Autoren wie Claude Leví-Strauss oder Roman Jakobson und Jacques Derrida erst dem Strukturalismus und dann Folgetheorien zu einer Popularität in den Geistes- und Sozialwissenschaften in den USA verhalfen. Greif, so Benfey, sieht beispielsweise in der Dekonstruktion eine Wiederbelebung von Ideen des New Criticism, also streng formalistischer Annäherungen an literarische Texte. Benfey zieht nun die Verbindungslinie von den New Critics zu den Digital Humanists. Ähnlich, so schreibt er, wie einst die Neue Kritik von den traditionell orientierten Wissenschaftlern als ein zu klinischer Ansatz und daher als Gefahr gesehen wurde, sehen sich neue Formen des Lesens („new ways of reading“) heute mit dem Vorwurf, sie seien „antihumanistic“ konfrontiert. Diese neuen Formen des Lesens entsprechend nun dem, was hier unter Digital Humanities verstanden wird: (more…)
Nach Feyerabend. Wieder ein Methodenzwang? Eine Skizze zum Diskurs um Digitale Bibliothek, Digitalkultur und Digital Humanities.
von Ben Kaden (@bkaden)
I. Digital Humanities als Begleitforschung zur Gegenwart
Noch relativ neu, aber bereits alt genug, um im gutsortierten Berliner Remittentenfachhandel zum halben Preis angeboten zu werden, ist der Sammelband Digital Humanities aus der Reihe Nach Feierabend, also dem Zürcher Jahrbuch für Wissensgeschichte. Die Halbwertzeit derartiger Printpublikationen nähert sich offenbar der von Publikationen im Web. Bei der DNB ist der Titel dagegen offenbar noch nicht einmal im Haus (Stand: 07.04.2014). So schnell also rotiert die Buchhandels- und Diskursmaschinerie. Aber vielleicht ist doch alles anders und es handelt sich nur um Messeexemplare.
Es ist ein faszinierendes Symptom der digitalen Gegenwart, dass sich Wissensgeschichtsschreibung nicht zuletzt anhand der sozialen Begleitmedien für alle Ereignisse und Phänomene, die sich in der Reichweite entsprechend aktiver Akteure (beispielsweise einer vitalen Twitter-Community) befinden, in Echtzeit und teilweise sogar bewusst mit dieser Rolle vollzieht.
Das Buch zur Debatte ist dann eigentlich vor allem ein fixierter Zwischenmarker, der nach herkömmlichen Mustern die Dynamik eines ununterbrochenen Gesprächs bündelt und greifbar macht. So ein Sammelband hascht in gewisser Weise nach all den Diskursfäden und -topoi, die im Sozialen Netz der Tagungen und Symposien und im Social Web des digitalen Austauschs herumschwirren, fängt einige davon ein und setzt sie fest. Er schlägt damit die Brücke zwischen einer unsteten, weitgehend informellen Diskurssphäre und der Wissenschaftskultur, die eine klare Referenz zu einem in einer Bibliothek dokumentierten Text nach „externer Begutachtung, gründlicher Überarbeitung, redaktioneller Bearbeitung und nochmaliger Überarbeitung“ (Hagner, Hirschi, 2013, S. 10) als Beweis dafür braucht, dass es sich um legitim adressierbare Positionen handelt.
Daran zeigt sich eine ganz besondere Kluft in der Wissenschaftskultur der Gegenwart. Denn die beiden Sphären der Kommunikation über geisteswissenschaftliche Themen und Gegenstände – informell und digital, formalisiert und als ISSN- oder ISBNisierte Publikation – verwässern die Stabilität der möglichen Forschungsmaterialien. Die disziplinären Gemeinschaften müssen eigentlich genauso neu aushandeln, was für sie eine legitime Material- und Referenzbasis darstellt, wie die Bibliotheken entscheiden müssen, welches digitale Objekt eine Publikation darstellt, die in ihr Sammelraster passt.
Wenn man wollte, könnte man Digital Humanities auch als geisteswissenschaftliche Auseinandersetzung mit rein digitalen Forschungsgegenständen betrachten. Das wäre eine ganz einfache Abgrenzung. Wahrscheinlich zugleich aber eine viel zu enge. Dennoch müssen sich die Geisteswissenschaften, die ihre Gegenstände auf der Höhe der Zeit suchen, überlegen, wie sie die digitalen Kulturspuren greifbar bekommen, die sich von denen, mit denen sich Geisteswissenschaften traditionell beschäftigen, erheblich unterscheiden und zwar nicht nur hinsichtlich ihrer Intention und Vergänglichkeit. Sondern auch in ihrer Kodifizierung, die andere, automatische Verarbeitungsmethoden ermöglicht. Und auch eine andere Geschwindigkeit.
Digital Humanities, so kann man in diesem Schema argumentieren, wären eine geisteswissenschaftliche Begleitforschung zum kulturellen Geschehen. Ob sich perspektivisch in der Zeitdimension zwei Linien, idealerweise komplementärer Natur, herausarbeiten, nämlich eine zeitlich sehr ereignisnahe (Mikro-)Geisteswissenschaft und eine in längeren Zeitrahmen betrachtetende, verortende und reflektierende (Makro-)Geisteswissenschaft, ist schwer abzusehen, wäre aber wünschenswert. Eine auf den Aspekt der Temporalität gerichtete Auseinandersetzung mit dem Phänomen der Digital Humanities scheint jedoch generell noch nicht allzu intensiv geführt zu werden.
II. Amateure und Professionals
Ein wenig deutet der Beitrag von Philipp Wampfler (»online first«. Geisteswissenschaften als Social Media, S. 79-102) in diese Richtung, der anhand der Transformation des Journalismus durch Social Media mutmaßt:
„Können Geisteswissenschaften nicht wie der Printjournalismus einen von außen vorgegebenen Wandel durchleben, dann sind sie vielleicht nicht als Social Media denkbar, sondern werden als diskursives System durch Social Media abgelöst.“ (S. 99)
Es ist nicht nur ein Wandel bei den für den Diskurs zur Verfügung stehenden Kommunikationsmitteln zu beobachten, sondern auch ein Aufbrechen des Zugangs zum Diskurs, was es für etablierte Akteure durchaus schwieriger werden lässt, ihre Position zu festigen. Denn die Aufmerksamkeitsökonomie des WWWs läuft ja auch kurzschleifiger und setzt mehr auf Popularität (altmetrisch erfassbar) und weniger auf Prestige und Renommee.
Inwieweit dies mit den „Egalitätsidealen“ vereinbar ist, von denen Michael Hagner und Caspar Hirschi schreiben und die neben Effizienzüberlegungen und den unvermeidbaren Anpassungsdruck an die digitale Gegenwart (und Zukunft) zu den drei Säulen des Transformationsdiskurses gehören, ist eine ungelöste Frage in den Netzdebatten. Immerhin bekommt man den Eindruck, als würden die Karten (öfter) neu gemischt, was dazu führt, dass die Positionen bisweilen weiter ins Extreme und in einer Kampf- und Untergangsrethorik abdriften, als der Sache gut tut.
Wo die einen endlich die Möglichkeit auf Teilhabe sehen, fürchten die anderen um ihre Legitimation. Dieser Prozess dürfte überall zu beobachten sein, wo sich die klaren Abgrenzungen zwischen Dilettant und Meister, zwischen Amateur und Profi auflösen, beispielsweise weil es eine bestimmte vorher notwendige Fertigkeiten tatsächlich egalisierende Technologie gibt.
Am vergangenen Sonntag gab es auf einer Veranstaltung der Berliner Gazette mit dem Titel Komplizen. Woran wollen wir zusammen arbeiten? In dieser Post-Snowden-Welt… die Gelegenheit, im Rahmen der Diskussion um die Bibliothek der Zukunft, das Verhältnis von professionellen und nicht-professionellen „Bibliothekaren“ zu erörtern.
Die Frage war dort, welche Rolle in digitalen Informationswirklichkeiten eigentlich Bibliothekare spielen können bzw. ob man sie überhaupt noch braucht? Jeder, so eine Position, kann Bibliothekar sein, wenn man ihm nur ein wenig Technologie und Grundwissen zur Verfügung stellt. Tatsächlich rekurriert auch jeder, der seine Literaturverwaltungssoftware, mehr oder weniger bewusst, auf die alte bibliothekarische Tätigkeit der Titelaufnahme.
In der Spezifizierung der Debatte ging es darum, herauszuarbeiten, was die Profession des Bibliothekars herausstellt. Wenig verblüffend sind es bestimmte Kompetenzen, die es ihm ermöglichen, nicht etwa etwas zu tun, was nicht auch ein engagierter Laie tun könnte, dies aber am Ende im Idealfall doch schneller, präziser und gründlicher. Man wird nicht Bibliothekar, weil man etwas tun möchte, was sonst niemand kann. Sondern, weil man es aufgrund eines gewissen Trainings besser kann. Spezialisierung hat den Vorteil, dass man eine komplexe Lebenswirklichkeit bewältigen kann, ohne alle in dieser auftretenden Aufgaben selbst lösen (können) zu müssen. Es überrascht schon ein wenig , warum ausgerechnet vom Bibliothekar derart vehement eine Legitimation eingefordert wird, während nie jemand die Rolle beispielsweise des professionellen Klempners oder Dachdeckers hinterfragt. Es zeigt aber auch, dass die Kernkompetenzen des Berufs entweder nicht deutlich genug in die breite Öffentlichkeit (und in die der Netzaktivisten) vermittelt werden oder tatsächlich als obsolet angesehen werden.

Die Arbeit an der Bibliothek der / mit Zukunft. Auf dem Workshop KOMPLIZEN am 06.04.2014 im SUPERMARKT in der Berliner Brunnenstraße.
III. Was jeder kann und keiner braucht.
Ähnliches lässt sich vermutlich für den Geisteswissenschaftler festhalten. Michael Hagner und Caspar Hirschi fragen konkret nach dem Sinn der Behauptung, „dass die Geisteswissenschaften ihre angeblich verlorene gesellschaftliche Relevanz im Netz wiederfinden können“ und knüpfen damit an den schon etwas älteren Diskurs zur vermeintlich Obsoleszenz bzw. wenigstens Unterlegenheit der dieser interpretierenden und verstehensgerichteten Disziplinen gegenüber dem produktiven und normierten Potential der STEM-Fächer.
Es ist auch beim Geisteswissenschaftler nicht so, dass er über exklusive Kenntnisse und einzigartige Ideen verfügt, die nur von einem vergleichsweise kleinen Club von Eingeweihten (also der Fachcommunity) wertgeschätzt und erörtert werden können. Wenn man aber eine „angeblich verlorene gesellschaftliche Relevanz“ beklagt, dann heißt dies auch, dass eine allgemeine Einschätzung dessen, was diese Fächer forschen, zwischen „kann ja jeder“ und „braucht kein Mensch“ pendelt, meist mit Ausschlag zum zweiten, was gerade bei Nischenthemen schwerer zu entkräften ist, sofern das Gegenüber die Prämisse nicht akzeptiert, dass sofort offensichtliche Nützlichkeit keinesfalls die einzige Leitgröße menschlichen Handelns sein sollte. (Eine nützliche Gegenwartsanthropologie könnte vermutlich nachweisen, weshalb dieser Anspruch derzeit so populär und durchsetzungsstark ist.)
Für das „kann ja jeder“ bleibt der offensichtliche Unterschied zwischen demjenigen, der sich lange Zeit sehr intensiv und systematisch mit einem Gegenstandsbereich befasst hat und dem, der sich flugs ein paar Quellen durchsieht, um sich ein Urteil bilden zu können. Es heißt allerdings nicht, dass nicht auch das Tiefenwissen zuweilen in die Irre leitet. Es bedeutet zudem oft, dass Tiefenwissen zu einer Vorsicht gegenüber allzu schnellen Deutungen und Festlegungen führt. Diskussionen mit Aktivisten enden dann häufig in einem apodiktischen Lob der Tat und einem Vorwurf des feigen Zauderns und Zagens. Was manchmal zutrifft. Was öfters auch daneben schlägt.
Gleiches gilt, sehr bekanntermaßen, auch für die bibliothekarische Praxis, bei der eine allzu grundierte Position eventuell tatsächlich sinnvolle Anpassungen häufig ausbremst. (Dass im Bereich der öffentlichen Bibliotheken von den drei Säulen – Egalität, Anpassungsdruck, Effizienz – der Effizienzgedanke das eigentliche Triebmittel ist, wegen des G’schmäckles, aber gern hinter den anderen beiden Säulen versteckt wird, ist mittlerweile wahrscheinlich auch jedem bekannt.
Trotzdem ist die gestern geäußerte These des Aktivisten Marcell Mars (der sein sehr ehrenwertes Projekt Memory of the World explizit mit der Idee der Public Libraries grundiert), jeder könne heute in 15 Minuten Bibliothekar werden, aus professioneller Sicht auch bei großer Sympathie nicht konsensfähig. Aus der pragmatischen Sicht eines auf die subversive Tat fixierten Aktivisten wäre sie es vielleicht schon:
„It’s hard to get the “real” libraries/librarians loud and active. Part of the establishment of that dream, of public library, is that people working in the public libraries are public sector workers. They are not known to be particularly brave kind of people. In the time of crisis.“ (Garcia, Mars, 2014)
Der Aktivist blendet jedoch aus, wie er vor allem einfordert, dass die BibliothekarInnen laut und aktiv in einem Sinne sein sollten, den er der Public Library zuschreibt. Genaugenommen handelt es sich aber um diverse Konzepte von Public Library und während Marcell Mars ein digitales globales und offenes Wissensnetz imaginiert, das so beschrieben wird:
„The vision of the Memory of the World is that the world’s documentary heritage belongs to all, should be fully preserved and protected for all and, with due recognition of cultural mores and practicalities, should be permanently accessible to all without hindrance.“ (ebd,)
und dabei erstaunlich zugangsfixiert, also hinter den Ideen beispielsweise der Berlin Declaration on Open Access, bleibt, sehen sich die professionellen Bibliothekare häufiger im Auftrag einer konkreten Gemeinschaft oder Nutzergruppe und unter dem Druck, ihre Angebote entsprechend gestalten zu wollen und zwar im Rahmen dessen, was ihnen die Ressourcenlage zulässt.
Memory of the World ist fraglos ein hoch interessantes Konzept, eine Art anarchisches Publikations(nachweis)system, eine Graswurzel-Europeana und das aus ebenfalls im Interview erwähnte Monoskop wirkt teilweise wie eine zeitgemäßere Fortsetzung von Beats Biblionetz.
Das Betrübliche an der Diskussion mit vielen Aktivisten ist selten das Ziel, sondern die Vehemenz mit der sie für ihre Ideen streiten und zwar bisweilen dort, wo man sie nur auf die Unterschiede, die man zwischen der Public Library als Metapher im Web und der öffentlichen Bibliothek im Stadtraum Berlins hinweist. Über allem schwingt dann eben immer dieser Säbel der Ideologisierung.
Ähnliches lässt sich hin und wieder auch für den Diskurs der / über die Digital Humanities festhalten, die als Idee noch einen Tick weniger spezifiziert erscheinen, als die immerhin auf den Dreischritt Sammlung, Erschließung und Verfügbarmachung (Vermittlung) von Publikationen reduzierbare Rolle der Bibliothek.
Fragt man freilich weiter, was denn eigentlich eine Publikation im Netz sei und wo die Grenzen eines digitalen Dokuments und die der Autorschaft liegen (Roger T. Pédauque kann von beidem berichten, Pédauque, 2003), dann sieht man auch hier vor allem Unschärfen in Relation. (Im erwähnten Sammelband befasst sich übrigens Niels-Oliver Walkowski in seinem Beitrag „Text, Denken und E-Science. Eine intermediale Annäherung an eine Konstellation“ (S. 37-54) mit dem Phänomen von Enhanced Publications und der Frage der Textualität.)
IV. Berührungspunkte
Im Editorial des Nach-Feierabend-Bandes, gegen den ich mich in der Buchhandlung, dies als spätes Geständnis, zugunsten einer schönen Ausgabe mit Architekturskizzen von Leonid Lavrov entschied, wird das Diskursfeld „Digital Humanities“ von den Herausgebern dankenswerterweise etwas aufgefächert.
So benennen sie drei, wenn man so will, Digitalisierungsdimensionen der Geisteswissenschaften:
1. digitale Recherche (Digitalisierung der Inhaltsbeschaffung)
2. Digitalisierung von Papierbeständen (Digitalisierung der Inhalte)
3. Neue Forschungs- und Publikationsformen (Digitalisierung der Inhaltserzeugung und -verbreitung)
Aus der bibliothekswissenschaftlichen Warte fällt unvermeidlich auf, dass es sich bei den Schritten eins und zwei um Aktivitäten handelt, in die Bibliotheken spätestens seit den 1970er Jahren aktiv sind. Hier kommen digitale Basisprozesse der Fachinformation im geisteswissenschaftlichen Bereich an, was sich erwartbar aber eigentlich erstaunlich spät vollzieht.
Parallel ist die Rolle der Computerlinguistik zu berücksichtigen, die ebenfalls sehr viel von dem, was heute in den Digital-Humanities-Bereich dringt, schon sehr lange benutzt.
So liegen die digitalen Geisteswissenschaften tatsächlich ein bisschen in der Zange der Erfahrungshorizonte des Bibliothekswesens (Infrastruktur und Technologie zur digitalen Verarbeitung von Inhalten) und der Linguistik (Methodologie und Technologie zur digitalen Verarbeitung von Inhalten).
Ergänzt man beim dritten Aspekt eine eingeklammerte Silbe, so wird deutlich dass „Neue Forschungs- und Publikations(platt)formen“ gleichfalls etwas sind, bei denen Bibliotheken, und sei es nur mit ihrer Expertise auf dem Gebiet der Publikationsformenlehre, eine Rolle spielen können und nicht selten tun sie es in Projektrahmen auch. In einem höflichen Gutachten zu meinem Abstract für die DHd-Konferenz 2014 fand sich übrigens der Kritikpunkt benannt:
„Warum z. B. in der editionsphilologischen Forschung die Bibliothekswissenschaft eine wichtige Rolle spielt, ist für mich nicht nachvollziehbar.“ (unveröffentlichtes Gutachten zur DHd-2014)
Da die Nachfrage leider nicht im Auditorium wiederholt wurde, muss ich die Antwort hier andeuten: zum Beispiel im Wissen über die Entwicklung von Medialität und zwar sowohl im historischen Verlauf wie auch in der Breite. Selbstverständlich kann ein Editionswissenschaftler auch eine diesbezüglich tiefe Kenntnis besitzen, die in seinem Feld auch tiefer reicht, als die des Bibliothekswissenschaftlers. Der jedoch weiß im Idealfall zusätzlich, wie man in anderen Kontexten publiziert und wie man diese Publikationen auch langfristig verfügbar hält und was, wenn man etwas wie eine digitale Edition erfinden muss, in diesem Bereich technisch alles möglich und sinnvoll ist. Man kann auch anders antworten, aber das muss auch an anderer Stelle geschehen.
Die Schnittstelle zur Welt der digitalen Hacktivisten findet sich dort, wo Digital Humanities mit dem Impetus auftreten, ein „Werkzeug zur Neuorganisation des gesellschaftlichen Wissens und damit letztlich zur Reform des menschlichen Zusammenlebens“ zu sein (Hagner, Hirschi, S. 7). Hier weisen sie in Richtung Sozialutopie, wobei aus der präziseren Beobachtung offen bleibt, wie sehr hinter derartigen Aussagen auch wirkliche Überzeugungen stecken oder einfaches Taktieren, wenn es darum geht, den Anspruch auf Förderung entsprechender Projekte zu legitimieren.
Der Topos von der Verbesserung der Welt durch Zugang und Technologie begleitete ähnlich lange Zeit die Open-Access-Bewegung und ist als Motivationselement sicher häufig wichtig. Auf der anderen Seite steht der Druck, diese Verbesserung auch nachweisen zu müssen, was dann sehr schwer fällt, wenn Heilsversprechen besonders euphorisch ausfallen. In der Open-Access-Bewegung scheint man derweil auf pragmatischere bzw. niedriger zielende Argumentationen zu bauen, wobei nicht selten an das Argument der Erhöhung der Zugangsgerechtigkeit das Argument des volkswirtschaftlichen Nutzens tritt. In den Digital Humanities spielt dieses meist nur dann eine Rolle, wenn auf die Bedeutung verteilter und nachnutzbarer Ressourcen verwiesen wird.
Michael Hagner und Caspar Hirschi stellen vier andere Aspekte als zentral für die Diskussion heraus und eine diskursanalytische Annäherung an den sehr spannenden Ablauf der Debatte darüber, was Digitale Geisteswissenschaften sein können, findet darin wenigstens auf den ersten Blick ganz passende Basiskategorien:
- Autorschaft (Gegensatzpaar: adressierbarer [Einzel]Autor < > soziale Netzgemeinschaft)
- Forschungspraktiken (qualitativ, wenige Quellen < > quanitativ, Big Data)
- epistemische Tugenden (Argumentation, Narration < > Bereitstellung, Verlinkung, [eventuall auch Visualisierung])
- Publikationsformen (abgeschlossene Monografie / Artikel < > „liquide Netzpublikation“)
Die interessante Frage, die die Autoren, die sich als Nicht-Utopisten erklären, daraus ableiten ist, „ob [bei einer Durchsetzung der „neuen Ideale“] der Begriff Wissenschaft dann überhaupt noch tauglich und die Universität noch der richtige Ort wären, solche Kulturtechniken zu vermitteln“? (ebd., S. 8) Was auch wieder eine Zuspitzung ist. Ganz ohne Polemisieren geht es wohl nirgends und so rutscht ihnen eine weitere Frage in den Text, nämlich, „wie viel Distant Reading die Geisteswissenschaften vertragen, ohne am Ende in digitaler Adipositas zu erstarren“? (S. 9) So bekommt Franco Moretti doch noch sein Fett weg. Somit implizieren sie weiterhin gleich selbst eine erste Antwort auf ihre Frage:
„Was bedeuten digital gesteuerte Erkenntnisverfahren wie etwa das Distant Reading – das eigentlich kein Lesen mehr ist, weil zahlreiche Texte nur noch mit einem bestimmten Algorithmus gescannt werden – für die traditionellen geisteswissenschaftlichen Herangehensweisen?“ (S. 9)
Wobei Franco Moretti mit der Benennung des Distant Reading gar nichts Wortwörtliches, sondern eine sprachspielerische Stichelei gegen die Kultur des Close Reading im Sinn hatte und in seinem zentralen Artikel (Moretti, 2000) verdeutlicht, dass es ihm um morphologische Analysen geht, die als Gegenkonzept zu der Tatsache dienen sollen, dass die literaturwissenschaftliche Tradition der Tiefenlektüre notwendig nur einen bestimmten Kanon berücksichtigt, die Welt der Literatur (bzw.: die Weltliteratur) aber weitaus reichhaltiger ist. Das auf Algorithmen setzende Distant Reading ist derzeit wahrscheinlich die beste Option, um dieses Korpus überhaupt in die Literaturwissenschaft hereinzuholen. Es besteht auch kein Anlass, hier eine Konkurrenz oder gar einen Nachfolger zum Close Reading zu sehen. Sinnvoller wäre, das Distant Reading als Erweiterung zu sehen. Denn wo sich das Close Reading konzeptionell auf die Lektüre des Einzigartigen, des Besonderen und Ungewöhnlichen ausrichtet, kann das Distant Reading mit seiner Musteranalyse durchaus helfen, exakt die Werke zu identifizieren, die es wirklich verdienen, sehr nah und gründlich studiert zu werden.
Insofern könnte man die Frage
„Inwiefern basieren die Digital Humanities auf neuen Forschungsfragen und inwiefern können sie solche generieren?“
möglicherweise besser so stellen:
„Inwiefern basieren Digital Humanities auf etablierten geisteswissenschaftlichen Forschungsfragen und wie können sie deren Bearbeitung unterstützen?“ (ebd.)
Man kann sich die Entwicklung der Digital Humanities nämlich auch problemlos als Erweiterung des Bestehenden vorstellen. So wie die Digitale Bibliothek erstaunlicherweise und trotz aller entsprechenden Beschwörungen nicht dazu geführt hat, dass die Bibliothek als Ort an Bedeutung verlor. Eher im Gegenteil.
Berlin, 07.04.2014
Literatur
Garcia, David; Mars, Marcell (2014) Book Sharing as a „gateway drug“: Public Library. In: new tactical research. Feb. 14, 2014 http://new-tactical-research.co.uk/blog/1012/
Hagner, Michael; Hirschi, Casper (2013) Editorial. In: Gugerli, David [Hrsg.] ; Hagner, Michael [Hrsg.] ; Hirschi, Caspar [Hrsg.] ; Kilcher, Andreas B. [Hrsg.] ; Purtschert, Patricia [Hrsg.] ; Sarasin, Philipp [Hrsg.] ; Tanner, Jakob [Hrsg.]: Nach Feierabend 2013. Zürich: diaphanes. S. 7-11 (PDF-Download des Editorials)
Moretti, Franco (2000) Conjectures on World Literature. In: New Left Review. 1 (Jan/Feb 2000) http://newleftreview.org/II/1/franco-moretti-conjectures-on-world-literature
Pédauque, Roger T. (2003): Document : forme, signe et médium, les re-formulations du numérique. In: Archive Ouverte en Sciences de l’Information et de la Communication. http://archivesic.ccsd.cnrs.fr/sic_00000511
Walkowski, Niels-Oliver (2013) Text, Denken und E-Science. Eine intermediale Annäherung an eine Konstellation. In: Gugerli, David [Hrsg.] ; Hagner, Michael [Hrsg.] ; Hirschi, Caspar [Hrsg.] ; Kilcher, Andreas B. [Hrsg.] ; Purtschert, Patricia [Hrsg.] ; Sarasin, Philipp [Hrsg.] ; Tanner, Jakob [Hrsg.]: Nach Feierabend 2013. Zürich: diaphanes. S. 37-54
Wampfler, Philippe (2013) »online first«. Geisteswissenschaften als Social Media. In: Gugerli, David [Hrsg.] ; Hagner, Michael [Hrsg.] ; Hirschi, Caspar [Hrsg.] ; Kilcher, Andreas B. [Hrsg.] ; Purtschert, Patricia [Hrsg.] ; Sarasin, Philipp [Hrsg.] ; Tanner, Jakob [Hrsg.]: Nach Feierabend 2013. Zürich: diaphanes. S. 79-102
Wer übernimmt was? Zum Verhältnis von Digital Humanities und Geisteswissenschaften.
Ein Kommentar von Ben Kaden (@bkaden)
Der Beitrag ist zwar nach den Zeitrechnungsstandards des WWW schon uralt, da er aber offensichtlich in der deutschen Digital-Humanities–Community für einigen Wirbel sorgt und mir, nachdem er sich scheu unter meinem ansonsten schon zuverlässig zugreifenden Radar hindurch geduckt hatte, nun noch einmal mit Nachdruck (bzw. als Ausdruck) auf den Schreibtisch gelegt wurde, will ich doch wenigstens meine Kenntnisnahme dokumentieren.
Am 19.07.2013 druckte die Frankfurter Allgemeine Zeitung auf der Themenseite Bildungswelten (S. 9) einen Beitrag des Literatur-Juniorprofessors Jan Röhnert (TU Braunschweig, Wikipedia-Seite) mit dem Titel Feindliche Übernahme? Die Geisteswissenschaften wehren sich gegen falsche Ansprüche der Informatik, aber setzen auf die „Digital Humanities“. Er berichtet vom „Gespenst einer feindlichen Übernahme [der geisteswissenschaftlichen] Fächerkultur durch die Dogmen der Informatik.“ , was offensichtlich derzeit das heißeste Eisen im Metadiskurs der Geisteswissenschaften zu sein scheint. Jedenfalls auf dem Sommerplenum 2013 des Philosophischen Fakultätentages in Chemnitz im späten Juni.
Eigentlich handelt es sich um einen Methodenstreit, denn die Geisteswissenschaften fürchten ihre Mathematisierung und damit einhergehend die Verdrängung von Interpretation bzw. Hermeneutik. Erstaunlicherweise ist die Bibliothekswissenschaft hier einen Schritt voraus, denn ähnliche Debatten wurden am Berliner Institut bereits Ende der 1990er Jahre rege ausgefochten, wobei die zweite Seele (meist die biblio- bzw. szientometrische) lange Zeit parallel irgendwo unter der Bezeichnung „wissenschaftliche Informationsversorgung“ oder auch „Dokumentation(swissenschaft)“ parallel an ihrer Entfaltung arbeitete, um schließlich mit der nahezu Volldigitalisierung bibliothekarischer Datenverarbeitungsprozesse und endlich auch mehr und mehr der Bibliotheksbestände zur bestimmenden wurde. Dass die Gegenstände der Bibliothek digitalisiert wurden ist insofern von Bedeutung, als dass diese Digitalisierungen zugleich häufig die Gegenstände der Geisteswissenschaften (nämlich Texte) digitalisierten und so erst die Digital Humanities möglich machten.
Der Paradigmenwechsel, den laut Jan Röhnert der Bremer eScience-Fachmann Manfred Wischnewsky einfordert, vollzog sich dort schon weitaus früher und mittlerweile sind alle Facetten metamedialer Auseinandersetzung mit analogen Bibliotheksbeständen (Einbandkunde, Buchgeschichte, u. ä.) längst aus den Lehrplänen des Berliner Instituts verschwunden. Das Medium Buch ist für die Bibliothekswissenschaft in Berlin weitgehend irrelevant geworden. Betrachtet man die Debatten der Digitalen Geisteswissenschaften aus einer medialen Warte, geht es dort um einen ganz ähnlichen Schritt: Die Auflösung des Einzelobjekts, also in der Regel eines Werkes, das in der Literaturwissenschaft oft klassischerweise in direkter Beziehung zum Medium Buch oder etwas ähnlich Berührbarem steht.
Es sind verschiedene Stränge, die im Diskurs zusammen- und auch aneinander vorbei laufen. Jan Röhnert berichtet von Positivismus-Vorwürfen und dem bekannten und aus irgendeinem Grund gepflegten Irrtum, bei dem man „quantitativ erzeugte technische Simulationen bereits als qualitativen Wissenszuwachs ausgibt.“
Zumal der Wissensbegriff selbst, wie heute jedem bewusst sein dürfte, mit oft myopischem Blick auf ein Simulacrum verweist. Abstrakt ist das Wort „Wissen“ auch durch seine Übernutzung in den vergangenen Jahrzehnten derart zu einem substanzarmen Textbaustein eingeschrumpft, dass eigentlich jeder mit etwas Sprachbewusstsein ausgestattete Diskursteilnehmer auf dieses Hohlwort zu verzichten bemüht sein sollte. Dann würden vielleicht auch die aus dem mit dem Ausdruck „Wissen“ fast verbundenen Anspruchsdenken nicht ganz unzusammenhängenden Missverständnisse reduziert.
Aus einer distanzierten Warte ist die Aufregung ohnehin unverständlich, handelt es sich bei den Digital Humanities doch ganz offensichtlich nicht um die Fortsetzung der Geisteswissenschaften mit digitalen Methoden, sondern um die Auseinandersetzung mit traditionell geisteswissenschaftlichen Gegenständen mittels digitaler Aufbereitungs- und Analysewerkzeuge. Es ist eher eine neue Form von Wissenschaft, die hier entsteht. Dass man sich einer geistigen Schöpfung nach wie vor auch hermeneutisch nähern kann (und zum Wohle der Menschheit auch zukünftig muss), sollte außer Frage stehen. Bedenklich wird es erst, wenn Förderinstitutionen Durch- und Weitblick verlieren und aus Zeitgeist-, Marketing- oder anderen Gründen denken, dass man die Unterstützung für die Geisteswissenschaften auf die Digital Humanities umschichten sollte. Diese Angst ist, wie man oft von Betroffenen hört, nicht ganz unbegründet und wahrscheinlich die eigentliche Essenz der Behauptungskämpfe.
Inhaltlich verwundert dagegen (nicht nur) aus einer semiotischen Warte, warum die traditionellen Geisteswissenschaften (eine behelfsmäßige Formulierung in Abgrenzung zum Ausdruck der „digitalen Geisteswissenschaften“) ihre hermeneutische Kompetenz nicht noch stärker auf natur- und sozialwissenschaftliche Gegenstandsbereiche ausweiten. Wer beispielsweise Franz Hessels Stadtraumlektüren kennt, weiß sofort, dass sich jedes beobachtbare soziale Gefüge genauso wie auch die Geometrie als Narrativ lesen und verstehen lässt.
Übrigens auch die Debatte um die „Feindliche Übernahme“, wobei Jan Röhnert unnötig in die – etwas wohlfeile – Parallele zu geheimdienstlicher Datenanalyse stolpert:
„Solche Software, die – nicht unähnlich den kürzlich aufgedeckten Spionageprogrammen „Prism“ und „Tempora“ – unvorstellbar große Informationsmengen analysiert […]“
So naheliegend die Ähnlichkeit ist, so unglücklich ist der Vergleich. Denn dass natürlich geheimdienstliche Aufklärung seit je massiv auch auf interpretatorische, teilweise sicher auch hermeneutisch inspirierte Verfahren setzte, steht genauso außer Frage. Die Parallele ist keinesfalls neu und als kritisches Argument nur tauglich, wenn man sie auch entsprechend erläutert. In der Länge dieses Artikels ist das freilich nicht möglich. Dabei liegen mit den zitierten Positionen von Gerhard Lauer und Malte Rehbein eigentlich schon sehr konsensfähige Positionen auf dem Tisch und im Text und auch Jan Röhnert beendet seine Schilderung derart versöhnlich, dass man als außenstehender Beobachter die Aufregung gar nicht versteht. Übrigens auch nicht die, der Digital-Humanities-Community, von der mir heute berichtet wurde.
(Berlin, 12.09.2013)
Library Life. Ein Interview zu einem interdisziplinären Forschungsprojekt.
von Lars Müller
In der Bibliotheks- und Informationswissenschaft spricht man häufig und gerne über die Erforschung vom Leben in und um Bibliotheken . Bibliotheks- und informationswissenschaftliche Studien dazu sind aber erstaunlicherweise im deutschsprachigen Raum Raritäten. Ebenso überraschend greifen in wachsender Zahl andere Disziplinen dieses Themenfeld auf. Eines dieser Projekte ist die Research Area 8, Cultures of Knowledge, Research, and Education im International Graduate Centre for the Study of Culture an der Universität Giessen. Dort ist Friedolin Krentel einer der Ansprechpartner für das Forschungsprojekt „Library Life“. Ich war daher neugierig auf das Giessener Projekt und habe für das LIBREAS-Blog per E-Mail nachgefragt.
Lars Müller (LM): Aus welchen Disziplinen stammen die beteiligten Forscher/innen Eurer Arbeitsgruppe, sind Bibliotheks- und Informationswissenschaftler/innen beteiligt?
Friedolin Krentel (FK): Unsere Arbeitsgruppe zu „Library Life“ ist aus disziplinärer Hinsicht sicherlich ein bunt zusammengewürfelter Haufen. Sie setzt sich heute aus etwa 8 bis 10 Wissenschaftler*innen zusammen, die aus ganz unterschiedlichen Fachrichtungen wie Ethnologie, Germanistik, Geschichte, Informatik, Literaturwissenschaften, Medienwissenschaften und den Sozialwissenschaften kommen. Ausgewiesene Bibliotheks- und/oder Informationswissenschaftler*innen sind leider nicht dabei. Ich könnte mir aber durchaus vorstellen, dass sich die Vielfalt unserer disziplinären Hintergründe zusammengenommen im Zusammenspiel mit unserem Forschungsinteresse sicherlich in mancherlei Hinsicht mit informationswissenschaftlichen Ansätzen und Perspektiven assoziieren lässt.
LM: Worauf richtet sich Euer Erkenntnisinteresse: Alltag der Forscher/innen, Entstehung von Wissen oder Information, Bibliothek als Raum…?
FK: Unser Projekt entwickelte sich innerhalb der Research Area 8 über einen Zeitraum von beinahe zwei Jahren aus einer intensiven Beschäftigung mit Texten der Akteur-Netzwerk-Theorie (ANT) um Bruno Latour und Michel Callon. Das kann man zum Beispiel auch am Titel „Library Life“ sehen, der bewusst auf die von Bruno Latours und Steven Woolgars 1979 publizierte Untersuchung namens „Laboratory Life“ (Bruno Latour, Steve Woolgar (1986): Laboratory life. The construction of scientific facts. Beverly Hills : Sage Publ, 1979. Wikipedia-Seite zur Publikation) anspielt. Die Studie beschäftigt sich mit Praktiken der Wissensproduktion in naturwissenschaftlichen Laboren und liefert wichtige Impulse für die fortlaufende Entwicklung der ANT.
In „Library Life“ wollen wir nun in gewisser Weise mit der ANT experimentieren, um zu überprüfen, inwiefern deren analytisches Instrumentarium sich auch für sozial- und geisteswissenschaftliche Wege der Wissensproduktion nutzen lässt bzw. welche neuen Erkenntnisse und Beschreibungen sich aus dieser Perspektive ergeben. Unser Fokus liegt auf der Rekonstruktion der individuellen Praktiken der Wissensorganisation und Textproduktion von Sozial- und Geisteswissenschaftler*innen. Dabei wollen wir sowohl ideelle, praktische als auch materielle Einflussfaktoren des wissenschaftlichen Arbeitsalltags aufzeigen, um damit den Prozess der Wissensgenerierung “sichtbarer” und „(be-)greifbarer“ beschreiben zu können.
Gerade angesichts einer immens fortschreitenden Umstellung der Arbeitsumgebungen im Zuge von „Computerisierung“ und Vernetzung der verwendeten Werkzeuge und Hilfsmittel sowie der möglicherweise parallelen Verwendung von „analogen“ (Zettelkasten, Karteikarten, handschriftliches Exzerpieren) und „digitalen“ (Literaturverwaltungsprogramme, vernetzte Suchalgorithmen, relationale Datenbanken, kollaborativ-vernetztes Arbeiten) Methoden, kann hier von einer Vielfalt unterschiedlichster Vorgehensweisen und Strategien zur Erzeugung wissenschaftlicher Erkenntnisse ausgegangen werden.
LM: Wie lautet Eure forschungsleitende These?
FK: Analog zu den laboratory studies nehmen wir als heuristische Arbeitshypothese an, dass die Arbeitszimmer, Bibliotheken und Büros die Labore, respektive Werkstätten sozial- und geisteswissenschaftlicher Wissensproduktion sind. Als Arbeitsorte oder Arbeitsumwelten mit einer spezifisch gestalteten Logik, materiellen Ausstattung sowie bestimmten Eigenschaften und Eigenarten sind sie unmittelbar in die Praktiken des wissenschaftlichen Erkenntnisprozess involviert und werden zugleich durch diese Praktiken als (sozial- und/oder geistes-)wissenschaftliche Handlungsorte hervorgebracht. Der wissenschaftliche Erkenntnisprozess findet damit nicht „nur“ auf einer rein geistigen Ebene statt, sondern beinhaltet immer auch einen praktischen (und zumeist wenig reflektierten) Umgang mit in gewisser Weise auch widerspenstigen Elementen der Arbeitsumwelt. Dabei kann es sich auf der einen Seite um ganz offensichtliche Dinge wie Computer, spezielle Programme, Bücher, Notizen usw. handeln. Aber ebenso könnten auch Dinge wie Lieblingsstifte, Bilder, Skulpturen, der Blick aus dem Fenster, die Kaffeemaschine im Büro, Pflanzen usw. eine Rolle spielen. Die Liste ließe sich sicherlich nahezu unendlich fortsetzen, man muss sich nur mal überlegen was am eigenen Schreibtisch so alles herumsteht oder liegt.
Mit dem von der ANT postulierten „symmetrischen Blick“ auf Wissen schaffende Praxen, gehen wir also davon aus, dass diese materiellen Ensemble im Zusammenspiel der im Umgang mit ihnen durchgeführten Praktiken direkt in die inhaltliche und formale Gestalt wissenschaftlicher Texte einfließen. Entsprechend sieht unsere empirische Datenerhebung ausdrücklich vor, das jeweilige Arbeitsumfeld und dessen Ausstattung und Dinge einzubeziehen.
LM: Welche Methoden benutzt ihr?
FK: Die Auswahl geeigneter Methoden für unser Unterfangen war innerhalb der interdisziplinären Forschungsgruppe ein längerer Prozess. Im Kern ging es darum, die methodologischen Anforderungen des Forschungsinteresses mit dem dazu notwendigen individuellen Aufwand für die parallel an ihren jeweiligen Dissertationen arbeitenden Doktorand*innen der Arbeitsgruppe abzuwägen.
Da es uns unmöglich erschien neben der Dissertation eine ethnografische Beobachtung der häufig mehrere Monate oder gar Jahre andauernden Arbeit an wissenschaftlichen Texten in Aktion im Sinne der ANT durchzuführen, versuchen wir mittels narrativer Interviews einen Reflexionsprozess bei den Interviewpartner*innen über ihr eigenes Tun anzustoßen. Sie sollen damit sozusagen zu Ethnograf*innen ihrer Selbst werden und uns – orientiert an einem von ihnen publizierten Artikel – dessen Entstehungsgeschichte rekonstruierend erzählen. Um die dinglichen, körperlichen und praxeologischen Dimensionen der Wissenserzeugung nicht aus dem Blick zu verlieren, entschieden wir uns dazu, die Interviews an dem von den Interviewpartner*innen als ihrem textspezifisch-persönlichen Hauptarbeitsort – sei es nun in der Bibliothek, dem Büro oder auch ein privates Zimmer – benannten Ort durchzuführen. Die Interviews werden jeweils zu zweit durchgeführt, so dass immer eine Person sich auf die Beobachtung des räumlich-materiellen Ensembles sowie dessen gestische Einbeziehung in die Erläuterung konzentrieren kann. Die Beobachtungen sowie unser im Vorfeld für die materiell-praxeologischen Dimensionen sensibilisierte Blick dienen dann im späteren Verlauf des Interviews dazu, möglichst offene Fragen zu konkreten Umgangsweisen und Bedeutungen einzelner erwähnter, gezeigter oder auch unerwähnter Elemente zu stellen.
Als Vorbereitung für die Interviews identifizierten wir aus unseren eigenen Arbeitsweisen potentiell relevante Aspekte und entwickelten daraus eine Art Leitfaden, der aber bestenfalls erst dann zum Einsatz kommen soll, wenn sich aus dem Interview selbst oder den Beobachtungen keine weiteren Fragen mehr ergeben. Die freie Erzählung unserer Interviewpartner*innen soll im Vordergrund stehen! Da es innerhalb unserer Forschungsgruppe unterschiedlich ausgeprägte Erfahrungen mit Interviews (und speziell narrativen Interviews) gibt, soll der Leitfaden auch als eine Hilfestellung für die unerfahreneren Kolleg*innen dienen.
Mit Einverständnis der Interviewpartner*innen würden wir im Anschluss an das Interview auch noch versuchen einzelne wichtige Elemente und/oder den gesamten Arbeitsraum mittels Videokamera und Fotoapparat zu dokumentieren, um diese dann für die Analyse in der Gruppe nutzen zu können und den individuellen Erinnerungsprozess beim Schreiben und Auswerten der Beobachtungsprotokolle zu unterstützen.
LM: Wie ist die Gruppe der Untersuchten zusammengesetzt?
FK: Als Sample für unsere Interviewanfragen haben wir in erster Linie persönlich bekannte Wissenschaftler*innen aus unterschiedlichen geistes- und sozialwissenschaftlichen Disziplinen und in verschiedenen Karrierestadien – von Doktorand*in bis Professor*in – ins Auge gefasst. Aufgrund der teilweise in privaten Bereichen stattfindenden Interviews, erscheint uns ein gewisses bereits im Vorfeld bestehendes Vertrauensverhältnis wichtig für den Zugang und die individuelle Bereitschaft für ein Interview. Insgesamt werden wir – zumeist zu zweit und in unterschiedlichen Konstellationen – jeweils zwei Interviews führen, wodurch sich unsere Untersuchungsgruppe auf insgesamt etwa 10 Personen begrenzen lässt. Zusätzlich überlege ich derzeit, ob es nicht auch interessant wäre, unsere eigenen wissenschaftlichen Arbeitsweisen innerhalb von „Library Life“ zu beobachten. Als Ausgangspunkt könnte beispielsweise unsere Klausurtagung zur gemeinsamen Sichtung und Analyse des Datenmaterials dokumentiert werden und für eine Art Metaanalyse dienen.
LM: In welcher Phase befindet sich das Projekt „Library Life“ zur Zeit?
FK: Die Phase der Datenerhebung per Interviews läuft. Sie wird sich noch bis Ende Mai hinziehen. Soweit ich weiß, wurden bereits erste Interviews geführt und einige Zusagen sind ebenfalls eingegangen, die dann im April/Mai in Angriff genommen werden. Für Anfang Juni haben wir uns mit der bereits erwähnter Klausurtagung eine klare Deadline gesetzt, zu der die Interviews definitiv abgeschlossen sein sollten. In dieser Klausurtagung wollen wir uns dann gemeinsam über mehrere Tage den Daten und ihrer Analyse widmen, um wichtige Aspekte herauszuarbeiten, die anschließend in kleineren Gruppen vertiefend behandelt werden können. Außerdem steht auf der Klausurtagung noch an, dass wir uns angesichts der vorläufigen Ergebnisse über mögliche Publikationsformate einigen, womit wir dann ja auch gleich bei der nächsten Frage angekommen sind.
LM: Ich bin gespannt auf Eure Ergebnisse. Wann und wo werdet ihr sie publizieren?
FK: Wie gesagt, steht das wo und wie noch nicht fest. Wir haben in diversen Arbeitstreffen zwar bereits mehrere Male das Thema Publikationsformen angesprochen, konnten und wollten uns da aber noch nicht endgültig festlegen. Die Tendenz geht aber – aus meiner Sicht – dahin, dass wir uns den November diesen Jahres als Deadline setzen, zu der wir uns gegenseitig und daran anschließend sicherlich auch noch auf unterschiedlichen Tagungen die Teilergebnisse der einzelnen Arbeitsgruppen vorstellen werden. Wie diese dann abschließend fixiert werden, sei es nun als gemeinsamer Sammelband, einzelne Artikel oder auch in Form einer Ausstellung oder online-Präsenz (oder auch mehrere Formate parallel) kann ich jetzt noch nicht sagen. Ich denke aber, dass wir dann im Juni weiter sind. Wer sich also dafür interessiert, kann sich bereits jetzt oder dann im Juni hoffentlich ausführlicher auf der Homepage der Research Area 8 informieren.
Zum Abschluss möchte ich mich für die spannenden Fragen bedanken, die mir einerseits die Möglichkeit eingeräumt haben, „Library Life“ vorzustellen, die mich aber darüber hinaus auch dazu angeregt haben, unser Projekt nochmal neu zu reflektieren und zu formulieren. Vielen Dank!
LM: Ich danke Dir!
(April 2013)
History Repeating. Die Geschichtswissenschaft debattiert auch 2013 über die Legitimität des Bloggens.
Anmerkungen zu:
– Valentin Groebner: Muss ich das lesen? Ja, das hier schon. In: FAZ, 06.02.2013, S.N5
– Klaus Graf : Vermitteln Blogs das Gefühl rastloser Masturbation? Eine Antwort auf Valentin Groebner In: redaktionsblog.hypotheses.org, 07.02.2013
– Adrian Anton Tantner: Werdet BloggerInnen! Eine Replik auf Valentin Groebner. In: merkur-blog. 07.02.2013
von Ben Kaden
Es gibt offensichtlich (erneut) eine erneute kleine Zuspitzung des Konfliktes um die Frage, inwieweit wissenschaftliche Kommunikation im Digitalen möglich sein darf oder soll. Anlass ist ein Vortrag des Historikers Valentin Groebner, der als Zeitungsfassung am Mittwoch in der Frankfurter Allgemeinen Zeitung unter der Überschrift Muss ich das lesen? Ja, das hier schon – schön historisierend mit dem Gemälde eines lesenden Bauerjungen des russischen Malers Iwan Iwanowitsch Tworoschnikow aus der Zeit des zaristischen Russlands illustriert – abgedruckt wurde.
Erstaunlich an der Debatte, auf die umgehend sowohl Klaus Graf im Redaktionsblog von Hypotheses.org wie Anton Tantner im Weblog der Zeitschrift Merkur und noch einige andere blogaffine Wissenschaftler antworteten, ist besonders, dass sie überhaupt noch bzw. wiederholt so stattfindet. Während Klaus Graf zum Ausstieg noch einmal einen Pinselstrich auf den üblichen, aber halt furchtbar überzogenen und daher eher wenig souverän wirkenden Kampf- und Fronttafelbildern (aber insgesamt vergleichsweise äußerst brav) setzt:
„Die Rückzugsgefechte der Buch-Fetischisten sollten uns nicht vom Bloggen abhalten.“
(Warum auch sollten sie?) findet sich bei Anton Tantner bereits die treffende Antwort:
„Dabei sind Verifizierung und Stabilisierung von Informationen – die Groebner als Aufgabe gedruckter Medien betrachtet – selbstverständlich auch digital möglich und kein Privileg des Papierbuchs; es braucht allerdings geeignete Institutionen dafür, wie zum Beispiel die Online-Repositorien der Universitäten, die die Langzeitarchivierung der von ihnen gespeicherten Dateien – nicht zuletzt wissenschaftliche Texte – zu garantieren versprechen.“
Für die Notwendigkeit von Druckmedien wiederholt man, seit man überhaupt den Gedanken der Abbildung geisteswissenschaftlicher Inhalte in digitale Kommunikationsräume andenkt, die Argumente der Langzeiterhaltung und des Qualitätsfilters – einem Wunschwerkzeug ersehnt schon lange vor dem WWW, um die so genannte Informationsflut (oder Publikationsflut) in den Griff zu bekommen. Valentin Groebners Artikel, der dies mit dem seltsamen Wort „Überproduktionskrise“ variierend anteasert, definiert denn auch: „Denn Wissenschaft kann gar nichts anderes sein, als Verdichtung von Information. […] Man ist als Wissenschaftler selbst ein Filter, ganz persönlich.“
Die Argumente dafür präsentieren sich im Verlauf der Debatte dabei jedoch von nahezu allen Seiten nicht sonderlich verdichtet, sondern vor allem redundant. Wir erinnern uns:
„So verteidigte Uwe Jochum (Konstanz) in seinem polemischen Einführungsreferat die Bibliothek als kulturellen Gedächtnisort, als konkret sicht- und begehbares Gebäude gegen ein orientierungsloses Surfen auf weltweit rauschenden Datenströmen. Aus der antiken Mnemotechnik leitete er die Notwendigkeit einer Lokalisierung der Erinnerung ab: Bei der Lektüre eines Buches im Netz hingegen sei kein Rückschluß auf den Standort des Computers oder gar des Originals möglich. Die Anpassung der Bibliotheken an die Informationsgesellschaft sei schon deshalb problematisch, weil der Informationsbegriff völlig unklar sei. Während in einer herkömmlichen Bibliothek die einzige „Information“ der Standort eines Buches sei, gehe in der simultanen Verschaltung von Sender und Empfänger jeder Inhalt verloren – kurz: Sammlung sei gegen Zerstreuung zu verteidigen.“
So las man es ebenfalls in der Frankfurter Allgemeinen Zeitung und zwar am 09.10.1998. (Richard Kämmerlings: Lesesaal, Gedächtnisort, Datenraum Der Standort der Bücher: Auf dem Weg zur hybriden Bibliothek., S.46) Und auch das Thema der Langzeitarchivierung solcher Bestände stand damals mitten in der Auseinandersetzung.
Der Hauptunterschied zu dieser Zeit liegt vor allem darin, dass man 1998 noch nicht diskutierte, inwieweit es für Historiker zulässig ist, solche Debatten sowie andere Wissenschaftskommunikationen in Blogs und damit direkt und ohne redaktionelle Kontrolle abzubilden. Weil man Blogs und das Web als kommunikativen Partizipationsraum noch gar nicht wirklich kannte.
Ein Irrtum Valentin Groebners scheint dagegen darin zu liegen, dass er die „unerfreulichen Seiten der Gelehrtenrepublik […] nämlich […] den Kult der narzissistischen Differenz und […] Debatten, die ins endlose verlängerte werden“ grundsätzlich prinzipiell mit digitaler Kommunikation verknüpft. Genauso gut kann man sie nämlich, wenigstens in diesem Fall, beispielsweise gleichfalls mit der FAZ verbinden. Auffällig an diesem Diskurs ist zudem, dass ein paar etablierte Akteure gibt, die seit den frühen Tagen stabil dabei sind und parallel wechselnde neue Akteure, die offensichtlich jedes Argument für sich jeweils neu entdecken und ausführen. (Ich möchte übrigens nicht sagen, dass meine Texte durchgängig außerhalb dieses Prozesses stehen.) Zu vermuten ist jedoch ebenso, dass die Akteure, die tatsächlich intensiv Schlüsse ziehen, mit der Umsetzung ihrer Folgerungen so beschäftigt sind, dass sie gar keine Zeit und Lust mehr finden, sich in (De-)Legitimierungsscharmützeln aufzureiben.
Das Internet wirkt für Kommunikationen naturgemäß vor allem als Proliferationsimpuls: Es entfaltet all das, was ohnehin bereits angelegt ist. Die oft scheußlich selbstgerechten Lesekommentarhagel auf den Zeitungsportalen machen nur sichtbar, wie eben auch gedacht wird. Aus soziologischer Sicht ist das ungemein spannend. Dass das „Unfertige“, aus dem Wissenschaft per se besteht, nun direkt wahrnehmbar, referenzierbar und direkt nachnutzbar wird, verändert zwangsläufig die Wissenschaftspraxis. Das behagt vor allem denen, die dadurch etwas zu gewinnen haben (z.B. Diskurshoheit) und missfällt all denen, die sich darin überfordert bis bedroht sehen (z.B. nicht zuletzt einfach, weil ihnen in ihrer Lebensorganisation die Zeit zur Auseinandersetzung mit den Weblogdiskursen fehlt und sie nicht verstehen, warum sie nun zwangsläufig darauf einsteigen müssen. Auch das ist nachvollziehbar.)
Dass ein nach festen Bezügen strebendes Wissenschaftsbild hier seine Stabilität gefährdet sieht, ist nachvollziehbar. Aber der Zusammenbruch aller überlieferten Wissenschaftswerte ist kein unvermeidliches Szenario, sondern ein vermutlich im Ergebnis eher harmloses Schreckensbild. Es gibt keinen Grund, anzunehmen, dass Digitalität prinzipiell diskursive Verfestigung und Absicherung verhindert. Der oben zitierten Stelle aus der Replik Anton Tantners ist fast nichts hinzuzufügen. Digitale Kommunikationsräume sind Räume, die wir programmieren und gestalten. Wenn wir bestimmte Qualitätskriterien für die Wissenschaftskommunikation erhalten wollen, dann sollte sich das durchaus unter intelligenten, rationalen Akteuren, wie man sie in der Wissenschaft zu vermuten angehalten sein sollte, aushandeln und perspektivisch etablieren lassen. Nicht jeder Geisteswissenschaftler muss dafür Quellcode schreiben lernen. Auch die einfach Verständlichkeit der Schnittstellen zwischen Mensch und Technik ist Teil der Entwicklungsagenda.
Es gibt sogar eine eigene wissenschaftliche Disziplin, die sich mit Fragen auseinandersetzt (bzw. auseinandersetzen sollte), wie diese Ansprüche der Wissenschaft (Verifizierbarkeit, Nachprüfbarkeit, Verdichtung) im Digitalen umgesetzt werden können: die Bibliothekswissenschaft (bzw. Bibliotheks- und Informationswissenschaft). Wenn man Karsten Schuldts Annahme zustimmt, es gäbe jeweils „ein Rezeptionsverhalten, dass zu bestimmten Situationen und Lesehaltungen passt“, und es gibt keinen Grund die Zustimmung zu verweigern, dann erscheint überhaupt die Idee, selbst- und fremderklärten „Buchfetischisten“ und „Masturbationsbloggern“ ihre gegenseitige Legitimation absprechen wollen, als völlig unsinniger Hemmschuh, wenn es tatsächlich um die Frage geht, wie ein zeitgemäße Wissenschaftskommunikation aussehen kann – die übrigens genauso nach wie vor Printprodukte und andere netzunabhängige Medien zulässt, wenn diese zu Situation, Lesehaltung und dem Bedürfnis nach Langzeitsicherung passen.
Einspruch Eurer Zeiten. Arlette Farges archivarische Reverie gibt es endlich auch in deutscher Übersetzung.
Während in der LIBREAS-Redaktion die Vorbereitungen für die Ausgabe 20 laufen, gibt es vorab zur Überbrückung der Wartezeit schon einmal eine Rezension.
Rezension zu: Arlette Farge: Der Geschmack des Archivs. Göttingen: Wallstein, 2011. ISBN: 978-3-8353-0598-4, € 14,90 – Informationen zum Titel beim Verlag
von Ben Kaden
„Wie soll man also eine Sprache erfinden, die sich an jene Bewegung des Suchens annähert, die sich im Archiv anhand unendlich vieler Spuren von Herausforderungen, Rückschlägen und Erfolgen vollzieht?“ (S. 94)
Zweifellos: Das Archiv ist ein Bremsklotz im Fortstürmen und Drängen der Kultur durch die Zeit. Und auch des eigenen. Mehr noch als der Lesesaal einer Bibliothek ist die Vergessenheit des Archivs buchstäblich eine Zeitkapsel und wer selbst einmal Stunden in dieser verbrachte, weiß sicher um den seltsamen Zustand, wenn man nach einem intensiven Quellenstudientag mit der frisch in vielfältigen Vergangenheiten verschobenen Selbstwahrnehmung zurück in den Hauptstrom des Gegenwartsgeschehen tritt.
Das Archiv schnappt etwas aus dem Geschehen der jeweiligen vergangenen Gegenwarten auf und entführt zugleich den, der sich mit diesen Gegenwarten befasst. Das Archiv sichert das Geschehen dieser Zeiten nicht selbst. Aber es legt einen Hinweis auf das, was geschah, an und konserviert ihn, so gut es kann. Es erzeugt Spuren.
Über die Spuren (oder auch Zeugnisse) kann der, der sucht dem Geschehenen (bzw. dem Bezeugten) nachspüren. Möglicherweise stimuliert das Archiv eine unbewusst angelegte sehr ursprüngliche (archaische?) Begabung des Fährtenlesens, die uns ständig auf der Suche nach einem Sinn in eine mehr oder weniger strukturierte semiotische Aufzeichnungsumwelt treibt. Die Archive repräsentieren eine solche Umwelt. In ihnen hoffen wir, über die Repräsentanten vergangener Gegenwarten Erkenntnisse für unsere gegenwärtigen Gegenwarten aufzufinden. (Museen erfüllen als in die Öffentlichkeit gestülpte Archive eine ähnliche Funktion.)
Die Nutzung eines Archivs ist also nicht zuletzt eine Distanzierungserfahrung und zwar nicht nur intellektuell, sondern spürbar gesamtsinnlich. Möglicherweise schwächt sich diese Sensation mit der Zeit ab. Bei Arlette Farge ist dies aber mutmaßlich nicht der Fall, denn ansonsten wäre das archivphilosophische Kleinod Le goût de l’archive (Paris: Le Seuil, 1989) sicher nicht entstanden. (more…)
Abnahmefreie Industrieforschung. Jürgen Kaube über Mark Bauerleins Geisteswissenschaftsberechnung.
Ein Kommentar von Ben Kaden
Wenn man schon einmal offen für ein Thema ist, dann holt es einen auch beständig ein. Diese Grundeinsicht des Alltags bewahrheitet sich derzeit im Anschluss an eine etwas nebenbei dahingeschriebene Kennzahl zu Lese- und Publikationsaktivität von Wissenschaftlern, die Walther Umstätter freundlicherweise gestern in einem Kommentar korrigierte:
„B. Kaden hat gut daran getan, die „klassische Kennzahl“ mit dem Einschub „hoffentlich richtig“ zu versehen, denn worauf er sich bezieht ist: „Wissenschaftler überfliegen jährlich größenordnungsmäßig Zehntausend Publikationen, sie lesen davon etwa hundert, und falsifizieren beziehungsweise verbessern eine, über die sie selbst veröffentlichen.“ (Zwischen Informationsflut und Wissenswachstum, S. 286).“
Nun liegt die Frankfurter Allgemeine Zeitung vom Mittwoch auf dem Schreibtisch und in dieser findet sich im Wissenschaftsteil eine Zusammenstellung Jürgen Kaubes zu Mark Bauerleins Erhebung (bzw. ausführlicher als PDF) zum Rezeptions- und Publikationsverhalten in der Literaturwissenschaft. (Kaube 2012) Die Grunderkenntnis: In der Literaturwissenschaft wird viel zu viel geschrieben und viel zu wenig gelesen. Was auch volkswirtschaftlich zum Problem wird. Denn Mark Bauerlein ermittelte: (more…)
leave a comment