LIBREAS.Library Ideas

Open Access ist „ein Geschenk an Google und Konsorten“. Meint Uwe Jochum heute in der FAZ.

Posted in LIBREAS aktuell, LIBREAS.Debatte by Ben on 23. November 2016

Eine Anmerkung von Ben Kaden (@bkaden)

zu

Uwe Jochum:Digitale Wissenschaftskontrolle. In: Frankfurter Allgemeine Zeitung, 23.11.2016, S. N4
Peter Geimer: Jede Ähnlichkeit wäre rein zufällig. In: Frankfurter Allgemeine Zeitung, 23.11.2016, S. 9

Sowohl Feuilleton wie auch der Wissenschaftsteil der Frankfurter Allgemeinen Zeitung unterstreichen mit der aktuellen Themenwahl erneut, wie nachdrücklich sich das Blatt als Meinungsmedium für Debatten zur digitalen Wissenschaft und zum digitalen Publizieren in der Wissenschaft versteht. Das ist an sich eine gute Sache, weil es prinzipiell die Vielfalt der Stimmen und Positionen in diesen Diskursen erhöht und damit Material zur Auseinandersetzung und zum Hinterfragen eventueller und vermeintlicher Selbstverständlichkeiten führt. Ein wenig bedauerlich ist es freilich, dass gerade der Wissenschaftsteil zu diesem Thema mit einer Auswahl handverlesener Autoren (wo sind eigentlich die Frauen, die zu diesem Thema schreiben?) aufwartet, die man nun schon als Veteranen der Debatte bezeichnen muss, was, wie bei Veteranen nicht unüblich, zu gewissen Redundanzen in der Argumentation führt. Das macht es am Ende auch ermüdend, Gegenargumente zusammenzustellen und wenn man dem bewundernswert engagiert gegen die Windmühle des Open-Access-Zwangs antwitternden Stroemfeld-Verlag die Hand reichen möchte – der dieser leider zu oft mit Beißreflex und also bunt gewürfelten Unterstellungen begegnet – dann sicher in der Feststellung, dass es oft beim Austausch von Textbausteinen bleibt.

Aber vielleicht ist das eindimensionale Format des Zeitungsartikels, der in keine Synopse führt, sondern die Leserinnen und Leser der FAZ seit Jahren im Kreis um dieses eigentümliche Phänomen des Open Access herum, auch nicht das Idealmedium solcher Debatten. Andererseits kommt man so per Pressedokumentation sicher eher auf ministeriale Schreibtische und ein bisschen mutet es so an, als wären diese Ablagen der Hauptgrund, warum Roland Reuss und nun auch wieder einmal Uwe Jochum so viel Platz in diesem Forum erhalten.

Man muss Uwe Jochum in jedem Fall schon einmal zugestehen, dass er deutlich präziser und sicher auch klüger schreibt, als der berühmte Philologe aus Heidelberg. Sein aktueller Text kommt nun unter einer Überschrift „Digitale Wissenschaftskontrolle“ auf den Bildschirm und impliziert viel Gefahr für Wissenschaft. Das Mittel ist das Digitale. Nachzuweisen gilt nun noch im Text, wer sich dessen bedient. Man kann es gleich weg-spoilern: Uwe Jochum vermutet wie viele der wenigen Streiter gegen Open Access eine Art Verschwörung von „George Soros und seine[n] Open-Access-Freunden“, die mit einer Verkündungsschrift – nämlich der Budapester Erklärung – auszogen, die Reichweite des Urheberrechts zu minimieren und zwar bis auf „das Recht auf einen bibliografischen Nachweis“.

Auf die Frage nach der Motivation hat Uwe Jochum eine eindeutige Antwort:

„Jedem Internetnutzer sollte inzwischen klar sein: Es sind diese Personen- und Verkehrsdaten, mit denen im Netz das Geld verdient wird, nicht der „Content“. Klar sollte auch sein, dass mit den Gewinnen eine Politik finanziert wird, die auf einen Ausbau der nichtstaatlichen Kontrollzone zielt, in der die Daten und das Geld nur so fließen können.“

George Soros ist bekanntlich Investor und spielt daher, so Jochum, ein bisschen Philanthropie einzig und allein deshalb vor, um mit den Daten aus der Wissenschaft am Ende noch reicher zu werden als er schon ist. Wir werden also alle manipuliert und es gibt nur wenige, wie Uwe Jochum, die dieses perfide Spiel durchschauen und warnen:

„Am Ende hat der Staat seine Wissenschaft verschenkt, aber es ist in Wahrheit kein Geschenk an seine Bürger, sondern ein Geschenk an Google und Konsorten.“

Gemeinhin sollte man bei Formulierungen wie „und Konsorten“ immer vorsichtig sein, weil sie als Sammelklasse alles aufnehmen, was man in sie hinein imaginieren möchte. Warum die FAZ-Redaktion, die in jedem Jugend-Schreibt-Programm armen Lehrerinnen und Lehrern aufdrückt, dass größte Präzision bis auf die Mantelfarbe des Melkers, den ein Zwölftklässer beschreiben soll, die Essenz von Qualitätsjournalismus sei, solche Dinge durchgehen lässt, bleibt ihr Geheimnis und zwar eines, über das man angesichts der vielen Lapsus, die man im Blatt regelmäßig entdecken muss, immer wieder staunt. Aber das ist eine andere Baustelle und wäre eigentlich auch lässlich, wenn das Blatt nicht immer eine so furchtbare Arroganz zum Kern seiner Selbstvermarktung wählte.

Das zentrale Missverständnis des Missverständnisses, welches Uwe Jochum bei Open Access sieht, beruht darauf, dass er wie auch Roland Reuss hinter dem mittlerweile sehr diversifizierten Publikationsmodell eine einheitliche Ideologie vermutet, der man mit dem unnachgiebigen Einsatz für Werkherrschaft, Autorenrechte und das gedruckte Buch entgegentreten muss. Denn wahlweise führt sie eine Neo-DDR (Reuss’sche Position) oder in die totale Google-Facebook-Amazon-Apokalypse (Jochum) und in jedem Fall zur totalen Kontrolle, wobei die den totalen Staat dienenden Monopolisten „unbehelligt vom Staat und ohne demokratische Legitimation, aber unter dem Zuckerguss der Bequemlichkeit Kontrollsysteme als gesellschaftlich-technischen Normalzustand […] installieren.“ Der Staat will also alles kontrollieren – außer das Silicon Valley? Aber das soll er kontrollieren und sonst möglichst niemanden?

Diese eigenwillig postmodernen Anti-Open-Access-Argumentationen inszenieren einen aus Sicht vieler eher unnötigen Kulturkampf und stoßen, jedenfalls bei den unideologischen Nutzerinnen und Nutzern der unterschiedlichen Open-Access-Verfahren, deshalb so oft auf Verwunderung, weil diese Frequenz eigentlich schon lange zugunsten eines pragmatischeren und kritischeren Verständnisses zu den Möglichkeiten und Grenzen von Open Access abgestellt wurde. Die Idee des Open Access hat in der Tat emanzipatorische Ursprünge und zielte gegen Monopole (Stichwort: Zeitschriftenkrise). Ihr Scheitern an vielen Stellen ist etwas, was man aufarbeiten muss. Gerade deshalb ist es traurig, dass die FAZ wertvollen Debattenplatz zum Thema an eine Aufregung verschenkt, die etwa zehn Jahre zu spät kommt.

Es hat sicher auch etwas mit der Trägheit des wissenschaftlichen Schreibens selbst zu tun, dass in Programmschriften regelmäßig die Genealogie der Budapester und Berliner Erklärungen bemüht wird. Aber an sich ist heute jedem bewusst, dass Open Access in bestimmten Bereichen gut funktioniert und in anderen weniger gut. Ob man, wie die Universität Konstanz, die Nutzung des Zweitveröffentlichungsrechts mit einem dienstwerkartigen Verständnis von Wissenschaft durchsetzen möchte, ist berechtigt Gegenstand einer aktuellen Auseinandersetzung.

Bedauerlich an der zähen Debatte um Open Access ist, dass sie mit ihrem eigenartigen Fackelzug zum Strohmann eine andere und viel spannendere Entwicklung überdeckt, nämlich wie der Einfluss digitaler Medialität sowie entsprechender Werkzeuge und Kanäle das Spannungsverhältnis von Little Science und Big Science mittlerweile auf die lange davon weitgehend verschont gebliebenen Geisteswissenschaften projiziert. Es gab besonders in der Frühphase dessen, was man Digital Humanities nennt, durchaus sehr von Tech-Ideen motivierte Vorstellungen, geisteswissenschaftliche Arbeit könnte nun endlich auch zur Großforschung werden. (Die aktuelle, von wissenschafts- und kulturhistorischen Erkenntnissen völlig unbelastete, Panik/Begeisterung vor/für Künstliche/r Intelligenz wärmt das an einigen Rändern wieder auf.)

Hier würde sich unter anderem zugleich auch die Frage der Verwertbarkeit bzw. Verwertbarmachung geisteswissenschaftlichen Wissens und von Methodologien stellen und wenn Webannotation eines der großen kommenden Themen ist, dann sieht man auch, wohin man leuchten könnte. Andererseits warten die Unternehmen, die sich auf diesem Feld bewegen sicher nicht auf die digitaltechnische Aushöhlung philologischer Institute. Da ist es einfacher und schneller, ein paar Absolventinnen oder Absolventen entsprechender Studiengänge anzuwerben, für die der Universitätsbertrieb ohnehin nur noch selten attraktive akademische Karrierepfade vorhält. Die Infrastruktur wird dann bei Bedarf selbst entwickelt. Es ist also sehr unwahrscheinlich, dass irgendein Start-Up geduldig genug ist, um ein mit DFG-Geldern entwickeltes Tool abzuwarten und zu kannibalisieren. Und ein Staatsapparat, der aktuelle DH-Tools zur Massenüberwachung und „Industriespionage“ (vgl. Jochum) einsetzt, wäre fast bemitleidenswert harmlos.

Deutlicher wird, wie sich unterschiedliche Domänen – hier Geisteswissenschaft, dort Digital Humanities und irgendwo auch die Netzwirtschaft – herausbilden, die sich auf dieselben Objekte beziehen – so wie es nun mal parallel kritische Editionen, Taschenbuchausgaben und ein Kindle-E-Pub derselben Texte gibt. Nur weil etwas die gleiche Bezugsgröße hat, heißt es noch lange nicht, dass es eine Konkurrenz darstellt. Wenn etwas in der Debatte fehlt, dann ist es, diese Differenz herauszuarbeiten.

Ein selbstreflexiver(er) Umgang mit der Wechselwirkung zwischen Wissenschaft und den Einflüssen digitaler Praxen und Technologien führte im Idealfall zu einer schärferen Abgrenzung der Erkenntnis- bzw. Handlungsbereiche und würde allzukurzen und alarmistischen Einschätzungen wie der Peter Geimers im heutigen Feuilleton-Aufmacher – „Londons Tate Gallery arbeitet mit Technik-Schnickschnack an der Selbstaufgabe wissenschaftlicher Kritik.“ – entgegen wirken. Seine These ist, dass die Kunstgeschichte ihren kritischen Kern aufgibt, wenn jemand mit Mustererkennungssoftware experimentiert:

„Man müsste dieser Selbstaufgabe geisteswissenschaftlicher Kritik keine größere Beachtung schenken, wenn sie nicht einem aktuellen Trend zur Enthistorisierung und Essentialisierung der Kunstgeschichte entsprechen würde.“

Der Kunsthistoriker schüttelt damit zwangsläufig heftig das Bad mit dem Kind und verliert sich, in der Sache ganz nachvollziehbar übrigens, in einer Polemisierung, die aber ebenfalls sichtlich von einer wahrgenommenen Bedrohung getragen wird:

„Solche Skepsis an der geisteswissenschaftlichen Mimikry der Laborwissenschaften hat nichts mit Technikfeindlichkeit, mangelnder Neugierde oder dem Festhalten an etablierten Positionen zu tun. Wenn man die Studien aber nicht nach an ihrer szientistischen Rhetorik, sondern an ihren Resultaten misst, zeigt sich in der Regel, dass hier entweder mit hohem finanziellen und apparativen Aufwand experimentell ermittelt wurde, was man auch vorher schon wusste (etwa dass Experten Gemälde anders betrachten als Laien), oder aber Aussagen formuliert werden, deren wissenschaftliche Subtilität bezweifelt werden kann (etwa dass Männer in Ausstellungen Unterhaltung suchen, Frauen gerne die Begleittexte lesen und ansonsten emotional angesprochen werden möchten).“

Allein, dass er die Banalität der in der Tate gezogenen Schlüsse so entblößen kann, widerlegt ihn jedoch und demonstriert, dass die geisteswissenschaftliche Kritik nach wie vor existiert. Was außerordentlich zu begrüßen ist. Der Vorteil grundständigen wissenschaftlichen Wissens liegt darin, dass man damit um die Grenzen des Erkennbaren weiß und sich eben nicht euphorisiert in den nächsten Trend wirft, um alles bisherige aufzugeben. Man ist sehr fokussiert und oft auch aus Erfahrung bescheiden in seinen Erkenntniszielen (einige Alpha-Forscher ausgenommen), im besten Fall zugleich offen genug, um die Elemente aus nun aktuell der digitalen Wissenschaft anzunehmen, die Aspekte der eigenen Arbeit erleichtern.

Es gilt also gerade diese Kritik zu pflegen, die es ermöglicht, zu durchschauen und durchschaubar zu machen, wenn eine an ein Forschungsprogramm herangetragene vermeintliche Revolution gegen die eigenen Interessen läuft. Daher ist es vollkommen zulässig, wenn Roland Reuss, Uwe Jochum oder auch andere für ihre Sache streiten. Unzulässig wird ihr Streit, jedenfalls unter Bedingungen der Diskursethik, allerdings dann, wenn sie selbst kompromisslos und völlig überzogen mit Unterstellungen, vagen Behauptungen, falschen Tatsachen (Uwe Jochum behauptet ein „staatliches Publikationsmonopol“ und ignoriert das erstaunlich nicht-staatlich monopolisierte Gold-OA), mit Beleidigungen und der berühmten Opferkarte durch die Feuilletons marschieren und alles attackieren, was auch nur minimal von ihren Vorstellungen abweicht. Das bringt am Ende nur Unordnung und sonst nichts in die Debatte. Wo ein Zwang zu Open Access angedacht wird, muss man darauf hinweisen. Wissenschaftler, die gern Open Access publizieren, als „naive oder böswillige“ (regelmäßiger O-Ton Stroemfeld-Verlags-Twitter) Büttel einer höheren Macht (aktuelle Label, austauschbar: DFG, BMBF, BMJ, Google) zu attackieren, kehrt sich freilich in gesunden Debatten sofort gegen den Angreifer.

Um es noch einmal zu betonen: Die Geisteswissenschaften sind nachweislich und vermutlich auch nachhaltig dort von Monografien dominiert, wo eine akademische Karriere angestrebt werden und zwar mit allen wissenschaftssoziologischen Vor- und Nachteilen. Eine Open-Access-Publikation oder auch jede Form des nur digitalen Publizierens gilt in den meisten Bereichen eher als karriereschädlich. Kein Open-Access-Repositorium wird dies ändern und Bibliotheken werden damit vermutlich sogar gern leben, da Bücher wunderbar unkompliziert durch den Geschäftsgang zu schleusen ist. Dies bezüglich können Verlage und Werkschöpfer ruhig schlafen. Das Zweitveröffentlichungsrecht (Open Access als grüner Weg) berührt diesen Bereich überhaupt nicht. Eine szientifizierte Wissenschaftsmessung für Geisteswissenschaften ist erwiesenermaßen untauglich, zumal sie schon für andere Disziplinen nur sehr eingeschränkt passen. Entsprechenden Tendenzen sollte man auf jedem Fall entgegenwirken. Es gibt genügend stechende Argumente und wissenschaftliche Nachweise, so dass man das stumpfe Schwert der Polemik dafür gar nicht bemühen muss. Ein konstruktiver Diskurs – und es ist schlimm, dies betonen zu müssen – funktioniert nur mit einer grundlegenden wechselseitigen Anerkennung und einer Rückbindung an das Nachvollziehbare. Die Strategie von Roland Reuss und nun auch Uwe Jochum ist leider hauptsächlich die der Skandalisierung, die, wie oben bereits angedeutet, über die Köpfe ihrer Peers hinweg zielt und offensichtlich – Stichwort, leider, #fakenews – eine allgemeine Stimmung zu forcieren versucht, welche auf wissenschafts- und urheberrechtspolitische Entscheidungen einwirken soll. Ob diese Rechnung aufgeht, wird man sehen. Unergründbar bleibt nach wie vor, woher die erstaunliche Affinität von hochgebildeten und -reflektierten Akteuren für Untergangsszenarien und die Lust an der Rolle als einsamer Kämpfer für das Gute und (Selbst)Gerechte kommt. Ich hoffe sehr, dass wir eines Tages das Vergnügen haben werden, dazu eine ganz nüchterne und gründliche Diskursanalyse lesen können. Bis dahin bleibt uns immerhin die FAZ am Mittwoch.

(Berlin, 23.11.2016)

Wissenschaftskommunikation auf Gut Siggen. Und zehn Thesen als Ergebnis

Posted in LIBREAS aktuell, LIBREAS on tour by Ben on 24. Oktober 2016

Ein Kurzbericht von Ben Kaden (@bkaden).

Gut Siggen / digitale Wissenschaft

Zwölf Ansichten (zu Digitalisierung und Wissenschaft): Ein Teil der Diskursgruppe auf Gut Siggen.

Den Berliner erinnert Ostholstein ohne große Umschweife irgendwie an Ostbrandenburg, allerdings immer mit einem erheblichen Unterschied im Detail. Der Bahnhof in Oldenburg wirkt wie so viele Provinzbahnhöfe mehr aufgelassen als betrieben. Aber auf seinem einzigen Gleis hält zweimal pro Stunde ein ICE (einmal nach Hamburg, einmal nach Kopenhagen). Beide Ecken Deutschlands enden im Osten an einem Wasser, das mit O beginnt: Oder und Ostsee. Beide Regionen setzen, wo es eben geht, auf Tourismus, aber die eine, sofern die Infrastruktur der Maßstab ist, mit deutlichem größeren Zustrom als die andere, was der Oktober mit seinem Nieselregen aber gründlich überdeckt.  Und sowohl dort wie auch dort ist es für alle ohne eigenes Fahrzeug gar nicht so leicht von A nach B zu gelangen. In Ostholstein zum Beispiel von Oldenburg nach Siggen / Heringsdorf.

Der öffentliche Nahverkehr besteht aus einem Kleintransporter namens Rufbus, den man freilich sehr frühzeitig rufen muss. Ansonsten steht man an einem grauen Montagabend auf einem Parkplatz und bemüht sich vergeblich am Telefon, denn der Anruf erfolgt außerhalb der Geschäftszeiten und da kann der Fahrer auch nichts machen. Beruhigt sind die, die dieses Telefonat nicht als Protagonisten sondern als Zeugen erleben, im besagten weißen Transporter sitzend und über schmale Straßen durchs Wagerland zum Gut der Wahl schwankend. Also wir. Bei der Gelegenheit erzählt der Fahrer von einem Herzenswunsch, der die Ostbrandenburger und die Ostholsteiner Abgeschiedenheit, nun ja, verbindet: Der Anschluss an ein schnelles Internet. Oder überhaupt ein Anschluss. Kathrin Passig, so wird später berichtet, sei hier erstmalig seit fast Jahrzehnten für zwei zusammenhängende Tage offline gewesen. Und wenngleich die meisten der diesmal in Siggen Anwesenden nicht ganz so radikaldigital orientiert sind, ging es ihnen genaugenommen ähnlich. Digitalität ist in unseren Feldern – Wissenschaft, Bibliotheken, Publikationsmärkte – das Adernetz, durch das die Kommunikationen rasant fließen. Auf den Feldern von Siggen aber immer noch eher Ausnahme als Regel.

Das allerdings ist gut so. Denn wo die Stille und bei Bedarf Ostseewellenrauschen ist, findet sich vielleicht auch ein neuer Weg, über das „Konzepte des wissenschaftlichen Publizieren im digitalen Zeitalter“ zu reflektieren. Zumal die schmale Leitung, die das Gut mit der digitalen Sphäre verbindet, immer noch stabil genug steht, um das entsprechende Twitter-Hashtag (#Siggen) über zwei Tage in den Twitter-Deutschland-Trends zu verankern (Dokumentation zu #Siggen). Das allerdings sagt auch viel über die Twitter-Nutzung in Deutschland aus. Für die Klausur zum digitalen Publizieren in der Wissenschaft erweist sich die Einbindung von Twitter in den Vor-Ort-Diskurs zugleich als digitale Wissenschaftspraxis und Outreach-Medium, mit dem es bald u.a. die Sorge zu zerstreuen gilt, hier entstände eine Art Bilderberg-Club für die Wissenschaftskommunikation. [Update 26.10.2016: Der hier verlinkte Ulrich Herb distanziert sich ausdrücklich von der Verknüpfung mit der Zuspitzung Bilderberg und weist ausdrücklich darauf hin, dass diese Zuspitzung ihre Ersturheberschaft in diesem Tweet von Eric Steinhauer hat.]

Diese Gefahr bestand freilich nie, auch wenn das Gut Siggen in seiner Geschichte schon manchen aus heutiger Sicht fragwürdigen Besuch beherbergte. Mittlerweile ist das von der Alfred Toepfer Stiftung betriebene Gut ein ganz normales Anwesen mit üppiger Hausbibliothek, Cembalo im Kaminzimmer und gutsgeschossenem Hirschbraten auf der Abendtafel, für dessen Nutzung sich jeder bewerben kann. Die Motivation hinter dem „Think Tank“ war keinesfalls, wie mehrfach versichert wurde, das Erzeugen von Exklusivität. Sondern der Wunsch, in größtmöglicher Konzentration neue Gesichtspunkte in einer Debatte freizulegen, in der eigentlich schon alles gesagt wurde, nur vielleicht noch nicht von jedem.

Wer einschlägige Konferenzdiskussionen kennt, weiß, dass in den fünf Minuten Fragezeit im Anschluss an dreißig Minuten Powerpointillismus meist die gleichen Akteure ihre bekannten Standpunkte in den Raum werfen und man sobald es wirklich spannend werden könnte, zur Postersession und dem Standgespräch in kleiner Gruppe weitergereicht wird. Selbiges ist oft inspirierend, bleibt aber meistens ohne weitere Aufzeichnung und wird daher spätestens mit dem Poster zusammengerollt und weggestellt.

Das Oktobertreffen zu Siggen folgte daher einem Modus, der das beste beider Welten kombiniert: kurze Impulsreferate in einem eher intimen Zirkel werden verbunden mit kaum begrenzter Diskussionszeit und dem Ziel, die in der Zwischenwelt aus Vortrag und Gespräch zum Thema entstehenden Ideen zu bündeln und zu veröffentlichen.

Das Siggener Themenspektrum war zu diesem Zweck breit aber erwartungsgemäß nicht allumfassend gestaltet: Es reichte von der Frage nach der Autorschaft im Digitalen speziell unter dem Einfluss genuin digitaler Publikationsformen (Wissenschaftsblogs, Soziale Netzwerke, Webannotation; Anne Baillot, Michael Kaiser, Alexander Nebrig), zu denen auch Forschungsdaten und Enhanced Publications (Ben Kaden) gehören über die Wissenschaftssprache und ihre Lektorierbarkeit (Friederike Moldenhauer) sowie Fragen der Qualitätssicherung und Reputationsmessung (insbesondere transparenten (Peer-)Review-Ansätzen; Thomas Ernst, Mareike König) im Digitalen bis hin, natürlich, zu Publikations- und Verlagsmodellen (Constanze Baum, Alexander Grossmann, Ekkehard Knörrer, Klaus Mickus, Volker Oppmann, Christina Riesenweber) und schließlich dem Urheberrecht (Eric Steinhauer).

Die konkreten Diskussionen zeigten nicht selten, dass bereits dieser geclusterte Ansatz möglicherweise zu weitläufig gewählt war, denn an vielen Stellen mussten Detailfragen doch aus dem Seminarzentrum heraus- und per Zwiegespräch auf den Weg zum Strand mitgenommen werden. Atmosphärisch ist das allerdings ungemein schöner als der Fachaustausch am Poster…

Im Ergebnis steht mit den Thesen naturgemäß wieder ein Kompromiss, der das wissenschaftliche Publikationssystem nicht aus der Bahn werfen wird, aber zehn komprimierte und Twitter-taugliche Thesen vorlegt, die nun offen diskutiert werden können und sollen. Zu diesem Zweck und in Zusammenarbeit mit der Zeitschrift Merkur werden sie an verschiedenen Stellen, unter anderem an dieser Stelle im LIBREAS-Blog publiziert.

 


#Siggenthesen

Siggener Thesen zum wissenschaftlichen Publizieren im digitalen Zeitalter

Das digitale Publizieren ermöglicht bessere Arbeits- und Erkenntnisprozesse in der Wissenschaft. Diese Potenziale werden aus strukturellen Gründen gegenwärtig noch viel zu sehr blockiert. Wir möchten, dass sich das ändert, und stellen deswegen die folgenden Thesen zur Diskussion:

1

Digitales Publizieren braucht verlässliche Strukturen statt befristeter Projekte. #Siggenthesen #1

Innovationen im Bereich digitaler Publikationsformate in der Wissenschaft, die in Pilot- und Inselprojekten entwickelt werden, bedürfen einer gesicherten Überführung in dauerhaft angelegte, institutionen- und disziplinenübergreifende Infrastrukturen, um im Sinne der Wissenschaftsgemeinschaft nachhaltige und wettbewerbsfähige Angebote liefern zu können. Wir rufen sowohl Fördereinrichtungen und politische Instanzen als auch Verlage und Bibliotheken auf, sich dieser Verantwortung zu stellen und entsprechende Förder- und Integrationskonzepte im bestehenden Wissenschaftsbetrieb konkret und umgehend umzusetzen. Eine systemische Veränderung hin zum digitalen Publizieren kann nur durch ein verlässliches Angebot exzellenter Dienstleistungen erreicht werden.

2

Die traditionellen Großverlage behindern strukturell unsere offene Wissenschaftskommunikation. #Siggenthesen #2

Wissenschaftliche Publikationen sind Teil eines ökonomischen Wertschöpfungsprozesses, den vor allem große Verlage zur Kapitalsteigerung nutzen. Wir sehen allerdings, dass eine digitale Publikationskultur jenseits einer reinen Orientierung an Gewinnspannen aufgebaut werden kann, denn der Wissenschaftsbetrieb schafft selbst durch offene Lizenzierungen Räume für eine freie Zirkulation von Forschungsergebnissen. Die Zuschreibung von Reputation über Publikationsorte und Verlagsnamen, die Einschränkung von Sichtbarkeit durch Adressierung von kleinsten Expertenkreisen und das Beharren auf gewinnorientierten Verwertungsmechanismen, in denen wissenschaftliche Kommunikation sowie wissenschaftlicher Fortschritt zur Ware wird, stehen zur Disposition. Sie müssen, wenn sie den Zielen einer freien und offenen Wissenschaftskultur im Wege stehen, neu ausgehandelt werden – auch wenn dafür ökonomische oder statusbezogene Risiken für die beteiligten Akteure entstehen.

3

Wir publizieren Open Access, um zu kommunizieren. Langzeitverfügbarkeit ist ein nachrangiges (weitgehend gelöstes) Problem. #Siggenthesen #3

Ein oft geäußerter Einwand gegen Open Access ist die angebliche Flüchtigkeit des digitalen Mediums im Vergleich zu gedruckten Büchern. Dabei wird übersehen, dass auch für Druckschriften das Problem der Langzeitverfügbarkeit virulent ist. Diese Frage darf daher nicht überbetont werden. Vielmehr weisen wir auf die Vorteile digitaler Inhalte als Kommunikationsmittel hin: Digitale Veröffentlichungen, die anerkannte und standardisierte Formate nutzen, haben ebenso eine Überlebenschance wie eine beispielsweise nur noch von wenigen Bibliotheken abonnierte Subskriptionszeitschrift; die Sichtbarkeitschancen sind im digitalen Format indes ungleich höher. Außerdem sind die Methoden der digitalen Archivierung wie Emulation, Remediation und Format-Migration bereits weit entwickelt – und werden kontinuierlich eingesetzt und weiterentwickelt, da ein immer größerer Teil der Ergebnisse wissenschaftlicher Forschung primär oder sogar ausschließlich digital vorliegt. Schließlich erleichtern digitale Netze erheblich die Archivierung digitaler Medien durch redundantes Speichern an mehreren physischen Lokationen.

4

Der Streit um Open Access ist kein Streit um technische Formate, sondern um Status und verschwindende Disziplinengrenzen. #Siggenthesen #4

Die öffentliche Diskussion um Open Access braucht eine neue Zielgerichtetheit, die Vor- und Nachteile transparent darstellt und statt polemischer Maschinenstürmerei kompetente Akzente setzt. Zeitschriftenkrise, Zukunft der Monographie, unklar werdende Fächergrenzen, bessere Wissenschaftskommunikation etc. dürfen nicht weiter in einen Topf geworfen werden, auch wenn der digitale Medienwandel diese unterschiedlichen Felder affiziert. Wir rufen alle Beteiligten – Befürworter wie Gegner des Open Access – auf, bewusster und sachgerechter zu reflektieren und zu diskutieren. Eine sinnvolle und gestaltende Veränderung gelingt nur, wenn wir anerkennen, dass digitales Publizieren bestehende Hierarchien hinterfragt und eine Umverteilung von symbolischem und ökonomischem Kapital mit sich bringen wird.

5

Webmedien wie Blogs, Wikis und andere soziale Medien sind zentral für einen offenen und freien Wissenschaftsdiskurs. #Siggenthesen #5

Digitale Publikationsmöglichkeiten bieten durch ihre bequeme und leicht erlernbare Handhabbarkeit sowie ihren unmittelbar vernetzenden Charakter die Möglichkeit, den Austausch von Informationen im Wissenschaftsdiskurs deutlich zu dynamisieren. So eignen sich beispielsweise Blogs für eine formal strengere Anbindung an bereits bestehende Genres des Wissenschaftsbetriebs, und ergänzen diese zugleich, indem sie (neuen) kleinen Formen, kommentierenden Texten und Konversationen einen Raum bieten. Der unaufwendige Betrieb dieser Medien macht sie zu weniger hierarchiebelasteten Kommunikationsformaten, wobei gleichzeitig auch redaktionelle Schranken zur Qualitätsoptimierung eingezogen werden können. Die prinzipielle Offenheit der Technik schafft einen kommunikativen Freiraum, der sich als Schreibschule im Prozess des wissenschaftlichen Arbeitens anbietet und die bestehende Wissenschaftskommunikation um neue Dimensionen erweitert.

6

Transparente Daten und ihre Bewertung ermöglichen andere und neue Formen der Qualitätsmessung in der Wissenschaft. #Siggenthesen #6

Bei der Auswahl von Artikeln für Fachzeitschriften oder bei der Bewertung von Publikationsleistungen beispielsweise in Berufungsverfahren werden meist unterkomplexe Formen der Qualitätsmessung eingesetzt bzw. einfachen Metriken und Kennzahlen zu viel Gewicht beigemessen (wie etwa dem Journal Impact Factor). Auf digitalen Plattformen stehen vielfältige Daten transparent zur Verfügung, die die Qualitäten von Artikeln besser quantifizierbar machen: etwa Aufruf- und Downloadzahlen, Lesedauer, Zahl der Reviews und Kommentare, Bewertungen in Reviews und Kommentaren, Zitationen in wissenschaftlicher Literatur und in Sozialen Medien. Wir schlagen vor, dass solche Nutzungsdaten ebenso öffentlich zugänglich gemacht und genutzt werden können wie die zugrundeliegenden Inhalte. Diese Daten können in spezifischen Bewertungsverfahren zielgerichtet kombiniert und müssen um qualitative Elemente ergänzt werden, um die aus den bisherigen quantitativen Messverfahren bekannte Manipulationsanfälligkeit weitestgehend auszuschließen.

7

In digitalen Publikationen und ihren Versionen können Autorschafts- und Beiträgerrollen genauer differenziert werden. #Siggenthesen #7

In gedruckten wissenschaftlichen Veröffentlichungen wurden verschiedene Autorschafts- und Beiträgerrollen nur ungenau bestimmt: Die Naturwissenschaften kennen die hierarchische Reihung der beteiligten Autorinnen und Autoren, die Geisteswissenschaften trennen im Regelfall zwischen der einen Autorperson und verschiedenen Beitragenden, die in der Danksagung genannt werden. Digitale Publikationen ermöglichen die abschnitts- und versionsgenaue Attribuierung von (Haupt-/Co-) Autorschaften sowie von Beiträgerrollen. Auf diese Weise kann wissenschaftliche Reputation zielgenauer und auf Basis einer Attribuierung auch kleinerer Beiträge, wie zum Beispiel von Kommentaren, transparenter ausgewiesen werden.

8

Entscheidungen über die digitale Agenda und ihre Infrastrukturen in der Wissenschaft setzen digitale Expertise voraus. #Siggenthesen #8

In vielen Gremien, die wichtige wissenschaftspolitische Infrastrukturentscheidungen treffen, sitzen unserer Einschätzung nach Akteure, die keine ausreichende medienpraktische und -theoretische Expertise zu Fragen des digitalen Publizierens besitzen. Hochschulen brauchen daher den Mut, Entscheidungen über ihre zukünftigen Infrastrukturen in die Hände digitalaffiner und entsprechend ausgebildeter Personen zu legen. Den digitalen Stillstand in vielen Bereichen unseres Hochschulsystems können und wollen wir uns nicht mehr leisten.

9

Der Erwerb und Einsatz digitaler Kompetenzen ist für die Ausbildung, Lehre und Forschung fundamental. #Siggenthesen #9

Um die Potenziale der digitalen Medien für Arbeits- und Erkenntnisprozesse in der Wissenschaft voll ausschöpfen zu können, ist es wichtig, digitale Kompetenzen auszubilden. Dazu gehören einerseits technische (Code lesen, Programmieren, Algorithmen verstehen) und handwerkliche Aspekte (kollaboratives und vernetztes Arbeiten, Social Reading, Multimedialität), die andererseits aber auch einschlägige analytische und soziale Fertigkeiten (Diskussionskompetenz, Medienkritik, kreatives Denken) grundlegend fördern. Der aktuelle Zustand in der Vermittlung digitaler Grundkenntnisse ist unserer Einschätzung nach an Schulen und Hochschulen – gerade auch im internationalen Vergleich – vollkommen unzureichend. Um das umgehend zu ändern, braucht es eine verbindliche und verpflichtende Ausbildung in allen Bereichen der Wissenschaft und über alle Ausbildungsstufen hinweg – hier müssen gerade auch die Lehrenden lernen.

10

Medienkonvergenzprognosen sind immer unsinnig. #Siggenthesen #10

Jede Disziplin hat einzelne zentrale Zeitschriften, die voraussichtlich auch demnächst noch nicht im Open Access veröffentlicht werden. Das ist aber kein Argument gegen den aktuell beobachtbaren Wandel – es werden auch noch Musikkassetten und Schallplattenspieler verkauft. Die Zukunft wird durch die Beteiligten gestaltet, somit beeinflussen wir die Gültigkeit unserer eigenen Prognosen. Da der Gestaltungsprozess grundsätzlich in einem Interessenwiderspruch stattfindet und der Diskurs dazu über weite Strecken von durchsetzungsgetriebener Rhetorik geprägt wird, ist es erforderlich, die eigenen Ziele und Interessen eindeutig und verständlich benennen zu können.

 

Sie können die #Siggenthesen auf dem Blog von Merkur. Deutsche Zeitschrift für europäisches Denken unterzeichnen und kommentieren.

Diese Thesen stehen unter der Lizenz CC BY 4.0. Sie entstanden im Rahmen des Programms „Eine Woche Zeit“ zum Thema „Konzepte wissenschaftlichen Publizierens im digitalen Zeitalter“. Die Veranstaltung fand vom 10.-16. Oktober 2016 im Seminarzentrum Gut Siggen statt, wurde organisiert von Klaus Mickus, Dr. Constanze Baum und Dr. Thomas Ernst in Kooperation mit der Alfred Toepfer Stiftung und dem Merkur. Deutsche Zeitschrift für europäisches Denken. An der Veranstaltung haben Vertreterinnen und Vertreter der folgenden Bereiche teilgenommen: Forschung, Lehre, Bibliotheken und wissenschaftliche Infrastrukturen, Wissenschaftsverlage, Lektorat, Übersetzung, Verlagsberatung, Wissenschaftsblogs, Online-Publikationsplattformen und Online-Zeitschriften.

 

Die Teilnehmerinnen und Teilnehmer waren u.a.:

  • Dr. Anne Baillot (Centre Marc Bloch, Berlin)
  • Dr. Constanze Baum (Forschungsverbund Marbach Weimar Wolfenbüttel; Redakteurin der Zeitschrift für digitale Geisteswissenschaften)
  • Dr. Thomas Ernst (Universität Duisburg-Essen, Literatur- und Medienwissenschaft)
  • Mirus Fitzner (Universität der Künste Berlin, Gesellschafts- und Wirtschaftskommunikationswissenschaft)
  • Prof. Dr. Alexander Grossmann (HWTK Leipzig, Professor für Verlagsmanagement und Projektmanagement in Medienunternehmen)
  • Lambert Heller (Leiter des Open Science Lab der Technischen Informationsbibliothek Hannover)
  • Ben Kaden, M.A. (HU Berlin, DFG-Projekt Future Publications in den Humanities)
  • Dr. Michael Kaiser (Leitung von perspectivia.net, dem Publikationsportal der Max Weber Stiftung – Deutsche Geisteswissenschaftliche Institute im Ausland, Bonn; Lehrbeauftragter für Geschichte der Frühen Neuzeit an der Universität zu Köln)
  • Dr. Ekkehard Knörer (Redakteur der Zeitschrift Merkur. Deutsche Zeitschrift für europäisches Denken)
  • Dr. Mareike König (Abteilungsleiterin 19. Jahrhundert, Digital Humanities und Bibliotheksleiterin am Deutschen Historischen Institut Paris, Redaktionsleiterin de.hypotheses.org)
  • Klaus Mickus (Berlin/Berkeley, juris GmbH)
  • Friederike Moldenhauer (Dipl. Soz., Lektorin und Übersetzerin, Hamburg)
  • Volker Oppmann (Geschäftsführer und Cultural Entrepreneur von log.os, Berlin)
  • Christina Riesenweber, M.A. (Freie Universität Berlin, Center für Digitale Systeme)
  • Prof. Dr. Eric Steinhauer (Bibliothekar an der FernUniversität in Hagen; Honorarprofessor am Institut für Bibliotheks- und Informationswissenschaft der HU Berlin)

 

 

Berlin, 24.10.2016

Die Zukunft von gestern. Ein Beitrag zur Open-Access-Debatte aus dem Jahr 1996.

Posted in LIBREAS.Referate, Sonstiges by Ben on 20. Juni 2011

Es fehlt mir jetzt gerade die Zeit für eine umfassende Kontextualisierung, aber da mir die Quelle sonst wahrscheinlich wieder aus dem Blick schwindet, möchte ich sie wenigstens kurz vermerken.

In der Ausgabe September-Ausgabe 1996 der Computerwoche findet sich nämlich ein Kommentar von Manuel Kiper (Wikipedia), seinerzeit Mitglied des Deutschen Bundestages zu einem forschungsinfrastrukturellen Förderansatz des damaligen „Zukunftsministers“ Jürgen Rüttgers. In diese aufbruchsfreudige Epoche fällt in etwa der Zeitpunkt, zu dem die deutsche Politik das Medium Internet entdeckte. Aufgeschlüsselt umfasste die Zukunftsbetreuung im damaligen Kabinett von Helmut Kohl ein ministeriales Dasein für Bildung, Wissenschaft, Forschung und Technologie.

Der Kommentar des Sprechers der damaligen Fraktion Bündnis 90/Die GRÜNEN bezieht sich auf die finanzielle Unterfütterung des Programms Fachinformation, die ihm zu mager erscheint, nicht zuletzt da ein Großteil der langsam zwischen 1996 bis 1999 auf jährlich 1,9 Milliarden D-Mark wachsenden Förderprogramms in “ in Um- und Neubau der Frankfurter Zentralbibliothek und der Staatsbibliothek Kulturbesitz Berlin“ fliesst.

Interessanter als diese pekuniären Debatten sind jedoch die konzeptionellen Aussagen, die sich auch 15 Jahre später nicht ganz überholt haben. So betont Kiper:

„Wissenschaft wie Unternehmen nutzen schon elektronische Publikationsverfahren. Im Internet veröffentlichen sie ihre Ergebnisse – ohne die Verlage. Wissensproduzenten mischen die Karten für Verlage, Bibliotheken und Archive neu. Das Problem ist zudem, dass elektronische Publikationen heute kostenlos sind.“

Damit die Verlage in diesen elektronischen Zug einsteigen, versuchte Rüttgers Zukunftsministerium offensichtlich, entsprechende Anreize zu schaffen. Man darf dabei nicht vernachlässigen, dass das Maß der Dinge im elektronischen Publizieren noch in der CD-Rom gesehen wurde und Rüttgers auf der CeBIT betonte: „Ich habe den Eindruck, dass im Multimediabereich Goldgräberstimmung herrscht.“ (Peter Monadjemi (1995) Von der Kuriositaet zum Wachstumsfaktor. In: Horizont. 31.05.1995, S. 100) Damals ging man übrigens auch davon aus, dass „im Jahre 2000 rund 20 Prozent aller Titel des Buchhandels auf CDRom erscheinen werden.“ (ebd.)

Der Hintergrund für Kipers Kritik erschließt sich schnell, wenn man nachliest, welches die Kernpunkte von Rüttgers Zukunftsprogramm waren. In der taz vom 19. August 1996, also kurz vor Kipers Artikel, referierte sie diese in einem Artikel mit dem immergrünen Titel: „Die Informationsflut kanalisieren“:

„Rüttgers benennt vier Ziele: Es sollen neue Informationssysteme und Suchverfahren entwickelt werden, die deutschen Wissenschaftlern und Technikern von ihren Arbeitsplatzrechnern aus den effizienten Zugang zu den weltweit vorhandenen Informationen ermöglichen. Der Strukturwandel von der gedruckten zur elektronischen Publikation soll gefördert werden. Die elektronisch verfügbare Information soll verstärkt in der Industrie nutzbar gemacht werden – schneller Transfer von Forschungsergebnissen in die Anwendung heisst das Stichwort. Als letzter Punkt ist die Privatisierung der bisher noch staatlich finanzierten Informationsprodukte und -dienstleistungen aufgeführt, sie sollen künftig mit kostendeckenden Preisen arbeiten.“

Politisch war der staatliche gestützte Ausbau des Internets und der entsprechenden Infrastrukturen immer vor allem mit Hoffnungen auf einen wirtschaftlichen Aufschwung verbunden. Vorbild waren natürlich die USA. Gerade der letzte der vier Rüttger’schen Programmpunkte dürfte in der öffentlich geförderten Wissenschaft nicht ohne Grimmen registriert worden sein. Daneben zeichnet sich in der Programmatik deutlich die Bahn hin zu einer stärkeren Förderung anwendungs-, produkt- bzw. innovations orientierter Disziplinen ab. Dass die Geisteswissenschaften, die hier aus ihrer Wissenschaftsstruktur kaum punkten können, eher zurückhaltend auf die folgenreiche Transformation in Digital Humanities reagierten (und reagieren) wird bei der Gelegenheit ein stückweit verständlich.

Rüttgers kniff – meinte Kiper – gerade dort, wo es an die entscheidende Frage geht, nämlich bei der Dauerfinanzierung. Er wollte einfach die elektronischenInformationsinfrastrukturen dem Markt überlassen in der Hoffnung, dieser regele, was zu regeln wäre und die Wirtschaft erlebte zum Ende des Jahrtausends einen schönen Frühling. Wiebke Rögener bringt in ihrem taz-Beitrag die Sache auf einen Punkt:

„Wissenschaft wird hier – ganz ohne alle Verbrämung – als Zulieferer gesehen, als Produzent des Rohstoffs Information eben.“

Kiper dagegen argumentiert stärker noch aus der Position des Wissenschaftlers und eindeutig für Open Access:

„Die Wissenschaftler allerdings wollen kostenfreien Zugang. Sie produzieren die Informationen und wollen sie auch umfassend nutzen. Ihnen und den wissenschaftlichen Bibliotheken ist nicht damit geholfen, wenn sie keine Bücher und Zeitschriften mehr bestellen können und jedesmal für den Abruf einzelner Artikel im künftig elektronischen Bibliothekssystem bezahlen müssen. Vernetzte Bibliotheken sind Unsinn, wenn ihnen vorher die wissenschaftliche Substanz zusammengestrichen wurde. Den Widerspruch zwischen Wissenschaft und Markt löst Rüttgers nicht auf – er verstärkt ihn. Wer sich in die Wissensgesellschaft aufmacht, muss sich schon etwas mehr einfallen lassen.“

Die Rückschau in die jüngere Geschichte der deutschen Wissenschaftspolitik ist freilich nicht immer notwendig, um zu erkennen, dass die Grundfrage eine gesellschaftliche ist: Wem soll Wissenschaft vor allem dienen? Der Gesellschaft, der Wirtschaft oder sich selbst? Oder allen dreien und wenn ja, in welchem Verhältnis?

Aber der Blick zurück hilft mitunter, den in die Gegenwart wieder zu fokussieren. Die jüngeren Debatten um die Wissenschaftsförderung im Vereinigten Königreich zeigen, dass der eigentliche Evergreen dieser Debatte wirklich das widersprüchliche Gegensatzpaar Wissenschaft/Markt zum Refrain hat.

P.S. Übrigens klingt noch ein weiterer Oldie auf Heavy Rotation im Kommentartext zur elektronischen Zukunft des Jahres 1996: „Auch die Copyright-Probleme sind ungelöst.“

(bk)