LIBREAS.Library Ideas

[Preprint] Angriff von unten: Tiefgreifende Veränderungen durch elektronische Literatur

Posted in LIBREAS preprints by libreas on 21. Februar 2012

von Johanna Mauermann & Oliver Bendel

Abstract: Der Artikel »Angriff von unten« von Johanna Mauermann und Oliver Bendel befasst sich mit den tiefgreifenden Veränderungen auf dem Literaturmarkt durch die voranschreitende Verbreitung von elektronischer Literatur. Er zeigt auf, dass die Impulse vor allem »von unten« kommen, vorbei am traditionellen Literaturbetrieb. Dieser befasst sich erst allmählich mit den neuen Formaten, Plattformen und Vertriebswegen. Die Autoren erstellen das Portfolio der elektronischen Literatur zweier Länder, Japans und Deutschlands (und am Rande der deutschsprachigen Schweiz). Japan deshalb, weil elektronische Literatur dort inzwischen einen hohen Stellenwert hat, auch für den Buchmarkt. Deutschland und Schweiz, weil sich hier ähnliche Strukturen entwickelt haben, deren Erforschung in den Händen der hiesigen Wissenschaftler und des Literaturbetriebs liegt. Die Autoren gelangen zu dem Schluss, dass im »Schreiben 2.0« insgesamt viel Potenzial steckt. Es gilt daher, die aktuellen Entwicklungen zu erfassen, zu bewerten und zum gegenseitigen Austausch aufzufordern. (more…)

Nützlichkeit kennt klare Grenzen. Eine Position zu Dissens, Kritik und Wissenschaftsfreiheit (nach Judith Butler)

Posted in LIBREAS preprints by Ben on 14. August 2011

von Ben Kaden

Abstract:

Der Aufsatz untersucht ausgehend von der Argumentation Judith Butlers zur Wissenschaftsautonomie (Butler, 2011) das Konzept der Kritik als möglichen meta-analytischen und meta-methodologischen Grundbaustein von Wissenschaft. Diese Kritik zweiter Ordnung wird dabei nicht nur, Judith Butler folgend, als Option für die Selbstlegitimation von Wissenschaft vor dem Hintergrund gesellschaftlicher Ansprüche an eine Nutzbar- und Verwertbarkeit wissenschaftlicher Arbeit angesehen, sondern darüber hinausgehend verstanden als erforderliches Verfahren, aus dem heraus sich Aktualisierungs- und Übersetzungsprozesse inner- und interdisziplinär organisieren lassen.

Freiheit der Wissenschaft wird dabei als Verpflichtung zum Entscheiden verstanden, der nur mit einer elaborierten kritischen Kompetenz entsprochen werden kann. Die Integration dieser Kompetenz erfordert gleichermaßen das Anerkennen der sozialen Dimension von Wissenschaft, das produktive Zulassen von Dissenz und ein Verständnis der Rolle von Kontingenz im Prozess der Erkenntnisproduktion. Der Forderung nach Nützlichkeit wird einerseits die Notwendigkeit der Kontextualisierung (=nützlich für wen in welcher Hinsicht?) und andererseits das Konzept der Möglichkeit als Zweck der Wissenschaft entgegen gestellt.

(Der hier wiedergegebene Text ist die Vorversion eines Beitrags für die kommende Ausgabe (No. 19) der Zeitschrift LIBREAS. Library Ideas. ) (more…)

50 Days of Lulz: Welche informationsethischen Fragen warf die Hackergruppe LulzSec mit ihren Aktivitäten auf? [Preprint]

Posted in LIBREAS preprints by Karsten Schuldt on 13. Juli 2011

von Karsten Schuldt

[PDF des Artikels „50 Days of Lulz“]

Im Mai und Juni 2011 operierte eine Gruppe von Hackern unter dem Namen LulzSec relativ offensiv und mit starker medialer Begleitung. Die Gruppe verkündete, sich vor allem über die schwache Sicherheit von Servern und Homepages lustig zu machen und hauptsächlich nach dem Prinzip zu operieren, selber Spaß zu haben. Als Methoden ihrer Angriffe benutzte die Gruppe vor allem DDoS-Attacken, offenbar ausgeführt von einem eigens aufgebauten Bot-Netz, sowie das Auslesen von Daten mittels SQL Injections. Beide Methoden wurden von anderen Hackern als relativ simpel bezeichnet, obgleich LulzSec immer wieder betonte, weitere Methoden zu benutzen. Dennoch erregt die Gruppe großes Aufsehen, zum einen da sie relativ viele Daten, zu denen sie Zugang gefunden hatte, veröffentlichte und sehr großen Organisationen – unter anderem das FBI – als Ziel ihrer Attacken aussuchte, zum anderen durch die Angewohnheit, die Öffentlichkeit beständig über ihre Attacken zu informieren.

Die Gruppe wurde von einigen auf Internetthemen spezialisierten Medien als „Grey Hat Hackers“ bezeichnet, da sie Elemente des Hackens, welches sich moralisch oder politisch motiviert und des Crackens, welches explizit Zerstörung in Daten und Servern anrichten oder einen finanziellen Gewinn aus den Onlineaktivitäten ziehen will, in sich vereinte.

Am 26.06.2011 Mitteleuropäische Zeit, beziehungsweise kurz vor dem Ende des 25.06.2011 in den nordamerikanischen Zeitzonen, verkündete LulzSec, sich nach 50 Tagen Aktivität selber aufzulösen. Über die Gründe für diese Auflösung wurde sofort spekuliert, wobei mehrere Stimmen davon ausgingen, dass die bislang anonym agierende Gruppe befürchten musste, kurz vor der Ent-Anonymisierung durch andere Hackergruppen oder aber durch Strafverfolgungsbehörden zu stehen. LulzSec selber verkündete, dass sie ihre Aktivitäten von vornherein auf diese 50 Tage angelegt hätte.

Die Existenz und die Aktivitäten dieser Gruppe sowie die Reaktionen auf diese von Seiten anderer Hackergruppen, spezialisierter Medien, der unterschiedlichen Internet- und Spiele-Communities und der von den Angriffen betroffen Firmen und Organisationen werfen eine Reihe von ethischen Fragen im Bezug auf Informationsnutzung, Datenschutz, Verantwortung, Hackerethik und Netzaktivismus auf. Es ist leicht ersichtlich, dass sich diese ethischen Fragen nicht nur für die Subkultur des Hackens, sondern für alle Einrichtungen und Individuen stellen, die sich mit den Internet befassen, insbesondere aber für Initiativen, die sich dem Netzaktivismus verschrieben haben. Angesichts dessen, dass diese Gruppe mit ihrem – unter Umständen auch vorläufigen – Ende eine klare Zäsur gesetzt hat, bietet sich dieses Beispiel für eine Übersicht zu den ethischen Fragen des Internetzeitalters an.[1] Im Folgenden sollen anhand von LulzSec diese Fragen kruz diskutiert werden.

(more…)

Stand der Informationswissenschaft 2011

Posted in LIBREAS aktuell, LIBREAS preprints by Ben on 20. Juni 2011

von Ben Kaden, Maxi Kindling und Heinz Pampel

Diesen Text als PDF-Download: Stand_der_Informationswissenschaft-2011

Abstract

Wandelnde Rahmenbedingungen stellen die Informationswissenschaft vor vielfältige Herausforderungen. So scheinen zwar digitale Technologien jedoch nicht deren Folgewirkungen auf die Disziplin und ihre Methoden in der Wechselbeziehung zur Gesellschaft umfassend berücksichtigt. Der Artikel dokumentiert die zähe Diskussion um den Stand und die Zukunft der Informationswissenschaft in Deutschland und formuliert Thesen zur Weiterentwicklung des Faches. Weiterhin werden Reaktionen auf diese Thesen in Clustern zusammengefasst und ein sich an diesen ausgerichteter Workshop dokumentiert.

(more…)

Notizen zur Bibliothekswissenschaft 3: Carte Blanche für die Humanatees?

Posted in LIBREAS preprints by Ben on 26. Mai 2011

“ So bedauerlich jede Schließung ist, drängt sich jedoch die leidige Frage auf, ob die herkömmliche Bücherei in der Ära des E-Books zu einem Auslaufmodell wird.“

Es ist ein gutes Zeichen für eine lebendige Presse, wenn man innerhalb einer Feuilletonredaktion abweichender Meinung ist. Denn wo Felicitas von Lovenberg in der Mittwochsausgabe der FAZ unter der Überschrift „Mister Einprozent. Ergänzung statt Bedrohung“ wenigstens für den deutschen Buchmarkt eher eine nüchterne Perspektive für das Medium E-Book aufzeichnet, indem sie es analog zum Hörbuch sieht (S. 27), schreibt in der Freitagsausgabe G.T. [Gina Thomas] in ihrer Kolumne den eingangs zitierten Satz. Die Autorin rapportiert in knapper Form, was Alan Bennett und Philip Pullmann jüngst über den Niedergang des britischen Bibliothekswesens äußerten. (Ab in die Buchhölle. FAZ-Ausgabe vom 27.05.2011, S. 33) Wer die Neue Zürcher Zeitung vom 12.05.2011 gelesen hat, weiß, dass dies – berechtigt – nichts Gutes ist. Gerade weil Kommunen etwas tun, nämlich Bibliotheken schließen. (vgl. zum Thema auch den Kommentar Britpopliteratur mit Misston im IBI-Weblog) Die NZZ weiß übrigens auch, dass es der Literatur insgesamt auf der Insel gar nicht so schlecht geht und berichtet von dort immerhin noch 463 Millionen verkauften gedruckten Büchern im Jahr 2009. Das ist zwar weniger als 2007 aber nach wie vor nicht unbedingt ein Pappenstiel.

Da in dem Beitrag Gina Thomas‘ das schöne Wort Marktfundamentalismus aufscheint, nutze ich die Steilvorlage, um den dritten Teil meiner Notizen zur Bibliothekswissenschaft nachzulegen. (Teil 1, Teil 2) In diesem ziehe ich einige Schleifen um das Schleifen der Geisteswissenschaften, dass ja gerade in Großbritannien eine seltsame Parallelentwicklung zum öffentlichen Bibliothekswesen nimmt. Davon ausgehend argumentiere ich, dass die häufig diesem Fächerspektrum im Diskurs zugeordnete Irrelevanz in markt- und innovationslastigen Ökonomien – also dem aktuellen Spätkapitalismus – beiden Seiten schadet. Denn, so der trendforsche Leitgedanke meiner Skizze, gerade die sich andeutende Umgestaltung der grundlegender Geschäftsmodelle von Produktbasierung zu Ereignisbasierung und von Eigentum zu Zugang  (Semiokapitalismus) erfordert starke bedeutungsgenerierende gesellschaftliche Instanzen mit viel Raum für Auslauf im Denken. Also wenn man so will in der Tat Auslaufmodelle. Zu diesen zählen zweifelsohne Geisteswissenschaften genauso wie Bibliotheken. Daher erscheint mir auch eine stärkere Fokussierung geisteswissenschaftlicher Aspekte in der Bibliotheks- und Informationswissenschaft sehr angebracht. Alles Übrige im Essay – Text als PDF-Download: Carte Blanche für die Humanatees? Gedanken zu einer geisteswissenschaftlich gewendeten Bibliothekswissenschaft

In der Tiefe des Raumes…mitten im Netz. Bibliothekstopologische Überlegungen.

Posted in LIBREAS preprints by libreas on 18. Februar 2011

Wer einen Teil 1 anbietet, muss auch irgendwann wenigstens einen zweiten liefern. Das gilt selbstverständlich in gleicher Weise für die „Notizen zur Bibliothekswissenschaft“, die generell mehr als Ensemblestück geplant sind und als Reihe auch externen Beiträgern offen stehen. Nachdem also noch im Jahr 2010 Überlegungen zum Bewahren und eigentlich zu einer Bibliotheksnarratologie den Auftakt markierten, folgt heute ein kleiner, wenn man so will, bibliothekstopologischer Essay. Gegenstand sind und bleiben die Bibliothek und die Bibliothekswissenschaft unter der Einflussgröße des Digitalen. Ziel ist und bleibt ein Diskurs. Rückmeldungen, Anmerkungen und Anschlussgedanken sind demnach sehr willkommen.

Notizen zur Bibliothekswissenschaft. Teil 2: Bibliothekstopologische Überlegungen.

(more…)

Folksontologisches. Eine Besprechung zweier aktueller Dissertationen.

Posted in LIBREAS preprints by libreas on 23. Januar 2011

Zu einem entspannten Sonntagnachmittag sowie in Vorbereitung der kommenden LIBREAS-Ausgabe ergänzen wir nun als Preprint und zugleich selbstverständlich als Vorab-Anregung für eine eventuelle Diskussion die Besprechung der beiden Titel

Isabella Peters (2009) Folksonomies. Indexing and Retrieval in Web 2.0. Berlin: De Gruyter. ISBN: 978-3-598-25179-5,  EUR 59,95  – Verlagsinformation zum Titel

Katrin Weller (2010) Knowledge Representation in the Social Semantic Web. Berlin: De Gruyter. ISBN: 978-3-598-25180-1,  EUR 59,95  – Verlagsinformation zum Titel

durch Ben Kaden.

PDF-Download: Folksontologisches. Zwei aktuelle Dissertationen zur Wissensorganisation im Post-Web 2.0

Knowledge Representation / Folksonomies

Notizen zur Bibliothekswissenschaft. Teil 1.

Posted in LIBREAS preprints by Ben on 28. Dezember 2010

Bevor es in den üblichen Jahresend-Nanobreak geht, der genau genommen eine Art Millibreak ist und der die eisige Schönheit des Winters mit einem prekären Anschluss an das Internet verbindet, gibt es zum Jahresabschluss auf LIBREAS noch eine Eröffnung. In mehr oder weniger gegebener Regelmäßigkeit sollen an dieser Stelle und auch in den Ausgaben Notizen zur Bibliothekswissenschaft erscheinen. Hier die erste Folge als PDF-Download: Notizen zur Bibliothekswissenschaft.Teil 1: Das Bewahren und seine Grenzen.

Einleitung und Zusammenfassung

Die nachfolgenden Notizen stellen den ersten Teil einer Serie mit grundsätzlichen Überlegungen zur Bibliothekswissenschaft dar. Ziel dieser Reihe ist eine Auseinandersetzung mit dem disziplinären Konzept der Bibliothekswissenschaft. Im Mittelpunkt steht die Frage, wie sich die Institution Bibliothek in digitalen Kontexten, also als digitale Bibliothek, definieren kann. Ich vertrete die Annahme – und dies ist zugleich die Hypothese für alle Überlegungen dieser Reihe – dass es im Zuge der Digitalisierung zu einer Art „semiotic turn“ kommt, also mit dem Verschwinden materieller Medienformen die semiotische Dimension in den Mittelpunkt rückt. Die Bibliothekswissenschaft ist in einem digitalen Umfeld nur als semiotische Disziplin denkbar.

Im ersten Teil skizziere ich das Bewahren und Vermitteln von Narrativen als Grundkonstante der Bibliothek und definiere die Bibliothek als elementaren kulturellen Funktionsträger. Desweiteren entwerfe ich in Anlehnung an eine Idee der Soziologin Elena Esposito eine daraus ableitbare mögliche Rolle der Bibliothekswissenschaft als eine Art spezifische Narratologie. Im Mittelpunkt steht die Frage, aufgrund welcher Kriterien Narrative in das Archiv Bibliothek ein- und ausgeschlossen werden.

Der Text ist als Problematisierung intendiert. Der Prozess der Auseinandersetzung mit der genannten These ist prinzipiell offen. Daher ist Rückkopplung höchst willkommen.

LIBREAS Preprint 02/2010. Ben Kaden über Wissenschaftskommunikation

Posted in LIBREAS aktuell, LIBREAS preprints by libreas on 17. Mai 2010

LIBREAS Preprint 02/2010

Benennen und Verstehen.

Überlegungen zur Wissenschaftskommunikation im Anschluss an Winfried Thielmann.

(zugleich: Rezension zu Thielmann, Winfried (2009): Deutsche und englische Wissenschaftssprache im Vergleich. Hinführen – Verknüpfen – Benennen. Univ., Habil.-Schr.–München, 2006. Heidelberg: Synchron Wiss.-Verl. der Autoren (Wissenschaftskommunikation, 3). zur Verlagshomepage | Informationsseite beim Verlag)

von Ben Kaden

„Im Extremfall ist die hörerseitige Rekonstruktion der vom Sprecher intendierten grammatischen Zusammenhänge nur auf Basis einschlägigen begrifflichen Vorwissens möglich.“ – S. 310

Einleitung

Die Bibliotheks- und Informationswissenschaft ist an sich eine disziplinoffene Metawissenschaft, da ihre Aufgabe darin besteht, Ansätze und Konzepte hervorzubringen, die den disziplinär spezifischen Praxen der Wissenschaftskommunikation differenziert Rechnung trägt. Denn nur so lassen sich passende Formen der wissenschaftlichen Literaturversorgung entwickeln, wobei sich diese Domäne nach und nach in die Richtung einer Diskursorganisation erweitert. Auch in diesem Fall gilt, dass die Wissenschaftskommunikation in Gänze reflektiert werden muss. Der Bibliotheks- und Informationswissenschaftler muss also quasi-omnidisziplinär orientiert sein.

Dennoch oder gerade deshalb birgt die Lektüre fremddisziplinärer Texte so manche Herausforderung, zumal für den allgemein nur bedingt linguistisch vorgebildeten Bibliothekswissenschaftler, wenn es sich um eine wie die vorliegende handelt: Eine wissenschaftsprachkomparatistische Habilitationsschrift, die für die angestrebte Qualifikation notwendigen Präzision und Ausführlichkeit eher frönt als der pointierten Zuspitzung und Verknappung.

Aber sie ist dennoch (oder gerade deshalb) relevant, liegt sie doch genau am disziplinären Schnittpunkt dieses Verständnisses, dass die Bibliotheks- und Informationswissenschaft als ein im Kern wissenschaftstheoretisches Fach begreift und das alle greifbaren neuen Erkenntnisse zum großen Komplex der Wissenschaftskommunikation begierig aufzusaugen trachtet.

Insofern ist die Lektüre des Bandes „Deutsche und englische Wissenschaftssprache im Vergleich“ des Chemnitzers Professors für Deutsch als Fremd- und Zweitsprache, Winfried Thielmann, nicht nur allgemein Horizont erweiternd, sondern vor dem fachlandschaftlichem Panorama der Bibliotheks- und Informationswissenschaft lohnenswert und ausgesprochen erhellend, sofern man von dem Anspruch absieht, sie als Fachkollege des Autors und mit dem kritischen Auge des Komparatisten zu lesen, sondern als neugieriger Bibliotheks- und Informationswissenschaftler aus einer eigenen Perspektive und damit gegen den Strich und auf die Essenz ausgerichtet.

Denn wenngleich sich also jede Einschätzung des konkreten Vorgehens, der Methodenwahl und der Durchführung der Analyse für jemanden, der in der Sprachwissenschaftssprache bestenfalls mit Pidgin-Kenntnissen aufwarten kann, verbietet, so wirken die Resultate durchaus in unser Betrachtungsfeld herüber.

Winfried Thielmanns Buch auf dem Balkon in der Dorotheenstraße.
Bereit zum Übersetzen?
Winfried Thielmanns Wissenschaftssprachanalyse am Schnittpunkt von Humboldt-Universität, Staatsbibliothek und der Berlin School of Library and Information Science.

Wissenschaftskommunikation

Der Schnittpunkt ist schnell klar: Wissenschaftskommunikation. Oder noch abstrakter: Sprachhandeln. Je mehr es um digital vermittelte Kommunikation geht, je mehr die Disziplin Bibliotheks- und Informationswissenschaft einen Zweig herausbildet, der sich mit der Analyse und konzeptionellen Ausgestaltung von digitalen semantischen, pragmatischen und semiotischen Netzen befasst, je mehr es um ein organisierendes Eindringen in den Text und die Textproduktion und die in Text enthaltenen vielschichtigen Relationsgefügen geht, desto relevanter werden sprachwissenschaftliche Aspekte für unsere Disziplin, auch wenn sich dies bislang nur in vergleichsweise geringem Umfang explizit in den Curricula des Faches niederschlägt. Der „semiotic turn“ hat sich, wider Erwarten und entgegen der Notwendigkeit, noch nicht allzu spürbar vollzogen, obschon der Erkenntnisaufbau in diesem Feld jeder Beschäftigung mit den semantischen Technologien vorausgehen sollte.

Denn es geht eigentlich schon seit dem Hereinbrechen der Dokumentation in die Bibliothekswissenschaft um eine Erweiterung des Erschließungskontextes, der über das Trägermedium (Formalerschließung) und das Titelthema (Sacherschließung) hinausreicht. Die Gestaltung digitaler Kommunikationsräume sieht sich dabei mit einer dreifachen Kontingenz hinsichtlich der in diesen verarbeiteten Aussagegefügen (=Texten) ausgesetzt, die sich nicht mehr mit konventionellen, mehr verwaltungsorientierten Verfahren bewältigen lassen. Sofern diese Räume dynamisch und entwicklungsoffen sind – und wenn sie diskursiv nutzbar sein sollen, müssen sie dynamisch und entwicklungsoffen sein – findet sich das schwer Vorhersehbare

1) auf der syntaktischen Ebene im Sinne einer Vielfalt an Kombinatorik, wie es sich beispielsweise bei Analyse von Ansetzungsformen von Tags unschwer zeigt,

2) auf der Ebene der semantischen Unterbestimmtheit und Mehrdeutigkeit von Ausdrücken und Äußerungen, wie sie in der Polysemie-Lehre der Dokumentationswissenschaft gern reflektiert wurde, sowie schließlich

3) in der pragmatischen Dimension eines nur schwer eindeutig nachvollziehbaren und selten eindeutig dokumentierten Äußerungssinns.

Bedauerlicherweise findet besonders der dritte Aspekt nur ausnahmsweise in den in die Wissenschaftssoziologie hineinlappenden Randgebieten der Bibliotheks- und Informationswissenschaft Beachtung.

Die Relevanz der Wissenschaftssprachkomparatistik für die Bibliotheks- und Informationswissenschaft

Das, was in Hinblick auf die postinformationellen Kommunikationssysteme, die sich auch in der Wissenschaft herausbilden als ein digital vermitteltes Semiotic Web entwickelt, verknüpft unendlich viele Forschungsaufgaben und -themen von den Social Informatics bis zur Korpuslinguistik. Um hier überhaupt einen Ansatz finden zu können, bleibt der Bibliotheks- und Informationswissenschaft gar nichts anderes übrig, als ein transdisziplinärer Blick und die Erfahrung des Denkens zeigt, dass man mit zwei, drei Schnitten von der Gehirnforschung bis hin zur Literaturwissenschaft aus fast allem etwas Fruchtbares für die Wissenschaft der Organisation von Kommunikationsräumen, die die Bibliotheks- und Informationswissenschaft ist, mitnehmen kann. Nur leider geschieht dies vergleichsweise selten.

Insofern passt die mir dieser Tage auf den Schreibtisch gelangte Schrift aus dem Heidelberger Synchron-Wissenschaftsverlag der Autoren sehr gut in die Berliner Dorotheenstraße und dies umso mehr, wie der Reihentitel „Wissenschaftskommunikation“ deutlich zeigt. Denn kaum ein Feld bietet eine ersprießlichere Ackerkrume für das konzeptionelles Pflügen durch semiotische Rhizomlandschaften, als das (vermeintlich) durch bewusste Formalisierung beispielsweise über Entpersönlichung (bzw. auch „Deagentivierung“) kontingenzreduzierte der Wissenschaftskommunikation.

Bei der Gestaltung virtueller Diskursräume, in denen die Rezeption, Produktion und Kommunikation – also das Verstehen, Verarbeiten und Verbreiten – von Erkenntnissen in einer Kommunikationssphäre verschmelzen, ist durchaus auf grundsätzlich nach den Bedingungen der Erzeugung der Texte sowie den Darstellungsformen zur Fixierung von Erkenntnis zu fragen. Kontingenzreduktion tut dabei Not und als flankierende Herausforderung gilt es, die kontingenzreduzierenden Praxen der sich tatsächlich vollziehenden Wissenschaftskommunikation mit den kontingenzreduzierenden Ansprüchen der bibliotheks- und informationswissenschaftlich grundierten Organisationskonzepte für solche Räume in Übereinstimmung zu bringen.

Es ist demnach eine Übersetzungsarbeit erforderlich, bei der die wissenschaftskommunikativen Praxen einer über weite Strecken auch intrinsisch heterogenen Wissenschaftsgemeinschaft in die Strukturkonzepte übertragen werden, mit denen sich kommunikative Akte (also Diskurse) kumulieren, organisieren und vermitteln lassen, wobei auch der Aspekt der (automatisierten) Synopse relevant ist. Die aktuell viel besprochenen Ontologien mögen das semiotische Gehirn des Ganzen darstellen, aber diese Systeme benötigen darüber hinaus auch Lunge, Herz und Nieren.

Wissenschaftssprache/n

Eine Herausforderung bei diesen Übersetzungen von sich vollziehender Kommunikation in eine sie abbildende Struktur liegt aber schon allein darin, dass es natürlich keine einheitliche Wissenschaftssprache gibt. „Wissenschaft“ spricht mit vielen Zungen, die sowohl je nach Thema wie auch nach Kulturraum ganz unterschiedlich schlagen und zwar jeweils auf den drei Ebenen: Syntaktik, Semantik und Pragmatik. Selbst wo der Flor auf dieselben Fasern zurückgreift, werden diese an der Spindel zu gänzlich unterschiedlichen Konzepten kardiert um schließlich in unterschiedlichen Kontexten different ausgelegt.

Bevor (bzw. während) sich die Bibliotheks- und Informationswissenschaft also an die Diskursraumplanung begeben kann, sieht sie sich gezwungen diese vielseitig verschachtelte Polyglossie zu erkunden. Winfried Thielmanns Schrift kann dabei helfen, indem sie einige Aspekte explizit in die Betrachtung rückt, die dort möglicherweise bereits als diffuse Grundüberlegung mitlaufen, die aber nicht exakt benennbar erschienen. Noch wichtiger als das ist jedoch, dass die hier fixierten Erkenntnisse neue Ansatzpunkte für zahllose Anschlusspunkte nach sich ziehen.

Um überhaupt einen Rahmen zum Bearbeiten zu haben, beschränkt sich Winfried Thielmann in seiner empirischen Untersuchung auf drei Dimensionen, in denen sich die deutsche und die englische Wissenschaftssprache unterscheiden. Er geht dafür aber quer über die Disziplinen und stellt einige interessante Muster heraus, die teilweise so grundsätzlich sind, dass man sie getrost auch für andere Sprachbeziehungen als prinzipiell ansehen kann.
Der Autor fragt grundsätzlich, inwieweit die Sprache, in der sich wissenschaftliche Forschung manifestiert, einen Einfluss auf die wissenschaftliche Tätigkeit als solche hat. Unterscheidet sich die Sprache, müsste sich auch die Praxis der Sprachverwendung, ergo die Wissenschaft unterscheiden. Um der Überlegung eine konkretere Form zu geben, entwickelt er daraus die Forschungsfrage:

„Gibt es in der deutschen und englischen Wissenschaftskommunikation, soweit sie durch Wissenschaftliche Artikel vollzogen wird, systematische Differenzen hinsichtlich der Mittel, durch die, und der Zwecke, auf die hin Autoren das Wissen ihrer Leser bearbeiten?“

Die drei Mittel der Wahl für die Analyse sind dabei:

– die Textart der Wissenschaftlichen Einleitung als „Sub-Textart“ des Wissenschaftlichen Artikels,

– kausale Verknüpfungen innerhalb von Aussagen als sprachliche Einzelhandlung,

– die Benennungspraxis der wissenschaftlichen Erkenntnisgegenstände auf der Wortebene.

Das interessante Element der Frage liegt in der Erweiterung der Perspektive auf die pragmatische Motivation mit der die Mittel zum Einsatz kommen. Es geht also nicht um der Sprache innewohnende Muster und Strukturen, sondern zusätzlich darum, wie diese von der Gemeinschaft benutzt werden, um die Leser in eine bestimmte Richtung zu lenken. Diese ist im Idealfall in die der Anerkennung einer kommunizierten neuen Erkenntnis. Leider bleibt der Autor sehr nah am Mittel und lässt die soziolinguistische Perspektive am Ende der Lektüre unterbeleuchteter, als man es sich am Anfang erhofft hatte.

Der Untersuchungskorpus, der zu elf Disziplinen jeweils zwei Aufsätze umfasste, wurde dagegen so granular wie möglich auf die drei Untersuchungsdimensionen hin durchleuchtet und was in diesem Gegenlicht diaphan aufschimmerte, ist durchaus bemerkenswert.

Wissenschaftliche Einleitungen

Wissenschaftliche Einleitungen – also die hinführenden Bemerkungen in wissenschaftlichen Publikationen – sind zugleich Transferfläche und Türöffner. Der Leser wird auf der Ebene des ihm Bekannten – also dem Konsens in der Erkenntnis seiner Fachgemeinschaft – abgeholt und möglichst gradlinig und präzise auf die neue Erkenntnis hingeleitet. Je besser dieser Übergang gelingt, desto eher wird er bereit sein, diese neue Erkenntnis zu akzeptieren und sie im Gewebe seines bisherigen individuellen Wissens verankern, wodurch diese Erkenntnis Teil des geteilten Wissensstands der jeweiligen Fachgemeinschaft wird und Basis für jede valide Anschlusserkenntnis.

Die Bedeutung einer wissenschaftlichen Erkenntnis zeigt sich auf der diskursiven Ebene weniger darin, dass sie einen bestimmten Sachverhalt erklärt, sondern dass sie bei jeder zukünftigen Erkenntnisproduktion berücksichtigt werden muss. Seine Fachkollegen (argumentativ) dazu zu zwingen, die eigene Erkenntnis in ihrem Denken berücksichtigen zu müssen, ist das Konzentrat jeder wissenschaftlichen Reputation. Wer über Diskursethik nachdenkt, muss Karl-Otto Apel lesen, selbst wenn er ihm nicht zustimmen mag. In der quantitativen Literaturwissenschaft wird man aktuell nicht an Franco Moretti vorbeikommen. Und wer sich wissenschaftssprachkomparatistisch betätigt, tut gut daran, auch einmal in Winfried Thielmanns Habilitation zu blättern.

Zu dem intra- und interindividuellen Wissensstand der Wissenschaftler ist der explizierte Wissensstand hinzuzurechnen, wie er sich in den Beziehungen zwischen den Äußerungen im Sinne von Zitationen manifestiert. Das spielt für den Zuschnitt der hier betrachteten Publikation weniger eine Rolle, ist aber eine relevante Erweiterungsfrage für Anschlussforschungen: Inwiefern lassen sich Zitationen als formalisierte Aussagen sehen, die sich zu anderen Aussagen in einer bestimmten Form – zustimmend, verwerfend – verhalten? Hier ist perspektivisch sicher noch einiges an interessanten Forschungen gerade auch aus dem Umfeld der Bibliotheks- und Informationswissenschaft zu erwarten, wobei man sich generell fragt, wieso sich eine linguistisch grundierte erweiternde Auseinandersetzung mit den Erkenntnissen der Biblio-, Sziento- und Webometrie kaum entfaltet, wo doch die Verschränkung von qualitativen und quantitativen Methoden (u.a. unter dem Stichwort Multimethodology) durchaus im Lehrplan aktueller methodologischer Denkschulen eine große Rolle spielen.

Vergleicht man nun mit Winfried Thielmann zunächst die Hinführungen in englischen und deutschen Texten, wird nochmals deutlich, dass nicht die Sprache allein den Unterschied macht. Die Ursachen sind vielmehr konzeptionell, was wiederum mit der Sprache zusammenhängt. Bzw. wie es beispielsweise Nicholas Evans jüngst in seinem interessanten Buch über gefährdete Sprachen (Dying Words: Endangered Languages and What They Have to Tell Us. Malden, Mass.: Wiley-Blackwell, 2010) sehr auf den Punkt formulierte:

„[…] the process of learning a language goes hand in hand with constructing a particular thought-world, and the pervasive web of integrated cultural practices that go with it. These distinct thought-worlds are neither ultimately incompatible nor hermetically sealed from each other.” (ebd., S.180)

Die Wissenschaft selbst ist eine kulturelle Praxis, die zudem ihre eigene Sprachpraxis entwickelt. Insofern wäre es tatsächlich interessant zu sehen, wie sich die im Fall Deutsch und Englisch relativ häufigen (wenn auch zumeist unidirektionalen) Übergänge zwischen den sprachlichen Welten auf die Denkgewohnheiten der betroffenen Akteure auswirken und ob sich beim Wechsel zwischen Disziplinen ähnliche Effekte feststellen lassen.

Die in diesem Zusammenhang wichtige Vorannahme ist sicher, dass die Sozialisation in einer bestimmten Sprache eine Anbindung an eine spezifische Kultur nach sich zieht. Diese entwickelt sich in der Wechselwirkung mit der Sprache. Sprachwandel ist demnach auch immer Kulturwandel.

Entsprechend führt die Sozialisation in einer Wissenschaftskultur und einer Wissenschaftssprache tatsächlich zu wissenschaftskulturellen Festlegungen, die das konzeptionelle Verständnis von Gegenstandsbereichen nachhaltig prägen dürfte. Sie macht nicht unbedingt kommunikationsunfähig, wenn es darum geht, sich über disziplinäre und sprachliche Grenzen hinweg zu unterhalten. Es erklärt sich aber, warum man mitunter bei der Sprachgrenzen überschreitenden Konversation eines eklatanten Mangels an Ankopplungsmöglichkeiten gewahr wird.

Umso höher ist der Stellenwert der Einleitungen einzuschätzen, auch wenn sie in diesem Kontext für einen Anschluss innerhalb der Fachgemeinschaft geschrieben werden. Der Wissenskonsens, den es herzustellen gilt, richtet sich auf diese Betrachtungsebene zunächst einmal an Akteure, die die gleiche Sozialisation erfahren haben. Dem Akteur wird es während der Lektüre möglich, zu prüfen, inwieweit er vom Text adressiert wird. Bei disziplinüberschreitenden Annäherungen ist der Nebeneffekt, dass man eine Verortungsgrundlage für mögliche Anschlüsse und vor allem Lücken erhält. Wo die Aktualisierung über den jeweiligen Text nicht gelingt, werden die Stellen markiert, an denen man sich fachsprachlich zunächst einmal auf das geforderte Verständnisniveau anpassen muss. (Diese Aussage ist im vorliegenden Kontext durchaus auch selbstbezüglich zu verstehen.)

Dies gilt insbesondere für die englische Wissenschaftskommunikation, die voraussetzt, dass „hinsichtlich der Möglichkeiten neuen Wissens ein weitgehender Konsens [im begrifflichen Vorwissen] besteht.“ (S. 310) Wo das nicht der Fall ist, wird dieser Konsens in der Einleitung selbst durch „z.T. recht aufwendige sprachliche Strategien“ – also z.B. über rhetorische Mittel oder einfach „eine konsensgenerierende philosophische Platitüde“ (S. 81) – hergestellt.
Im Zweifelsfall greift man auf die „konsensuelle Wissensform“ eines unhintergehbaren und nicht weiter reflektierten Common Sense zurück, der in gewisser Weise die Letztbegründung zu ersetzen scheint.

Liegt ein geteilter Verstehenshorizont vor, kann der Autor die Leser mit der Argumentation konfrontieren. Im englischen Sprachraum vollzieht sich dies, wie Winfried Thielmann nachweist, über den berühmten Dreischritt („Moves“) der Landnahme nach John Swales: (1) das Themengebiet abstecken, (2) in diesem eine Nische bestimmen und (3) die Nische besetzen.

Für diesen Ansatz dürfte sich die englische Wissenschaftspraxis tatsächlich besser eignen, lässt sie doch, so ein weiteres Ergebnis der Untersuchung Winfried Thielmanns, weitaus mehr sprachgestalterischen Spielraum als die deutsche. An einem roten Faden, der die genannten Stationen verbindet, wird der Leser geradewegs und zwangsläufig über die entsprechend gesetzte Argumentationskette auf das Ziel hingeführt, zu dem es, sofern die Argumentation überzeugt, keine Alternative geben kann. Insofern gestaltet die englische Schreibpraxis den Weg vom Ziel aus. Die deutsche dagegen, wie noch zu zeigen ist, das Ziel über den Weg.

In der deutschen Wissenschaft schreibt man anders. Hier steht, so die Annahme, weniger der Konsens der Gemeinschaft, sondern die Logik der Sache im Mittelpunkt. Während also im Englischen der Akteur bestimmt, wo es lang geht, führt im Deutschen der Gegenstand das Ruder. Die Akteursorientierung englischer Schule schlägt sich auch dahingehend nieder, dass das Ziel der Argumentation laut Thielmann eine Profilierung des Akteurs über die Durchsetzung der eigenen Nische an einem wissenschaftlichen Gegenüber bzw. Gegner geht. Dazu benötigt der Wissenschaftler die Zustimmung seiner Leserschaft.

Dem deutschen Wissenschaftler geht es dagegen weniger um das Überzeugen an sich, sondern um die darstellende Aufschlüsselung der Entwicklung hin zu einer Erkenntnis. Das Ziel ist hier nicht der Bezug auf ein Vorverständnis des Lesers, sondern die modellierende Bearbeitung des Leserverstehens durch die Strukturierung des Textes.
Im Anschluss wird dann möglichst transparent, welche Begründungsschritte zwischen dieser Basis und der Erkenntnis liegen.

Die Konjunktionen

Exemplarisch analysiert Thielmann diese Praxis anhand der Verwendung der Kausalkonjunktionen „because“ und „weil“. Das deutsche „weil“ übernimmt dabei eine ordnende (hypotaktische) Rolle. Es kategorisiert den in einer Aussage enthaltenen Sachverhalt und begründet dadurch, warum der Sachverhalt aus dem Kontingenzraum aller für diesen Kontext möglichen Sachverhalte ausgewählt wurde. In den Einleitungen wissenschaftlicher Aufsätze soll die Konjunktion aufzeigen, warum dieser Schritt für die Erkenntnisproduktion entscheidungsrelevant ist. Der Leser soll nachvollziehen können, warum die Sprechhandlung erfolgte, wie sie erfolgte und somit, welche Entwicklungswelt die neue Erkenntnis durchlief. Stimmt die Basis, kann der Leser anhand der Argumentation den Erkenntnisprozess rekonstruieren. Fehlt die Basis des gemeinsamen Wissens, können also die Gründe und Ursachen nicht „einverständig verbalisiert“ werden, dürfte die Kommunikation dagegen eher nicht zufrieden stellend vollziehbar sein.

Dem abstrakteren „because“ geht es dagegen nicht um durchsichtige Dinge, sondern um Schärfung des Profils des Aktanten. Es erzwingt keine Einschränkung auf Entscheidungsrelevanz des angebundenen propositionalen Gehaltes, wie sie „weil“ voraussetzt, sondern kann durchaus auf die vermeintlichen bzw. tatsächlichen Motivationen eines wissenschaftlichen Gegenübers bezogen sein. Geht es beim „weil“ nahezu ausschließlich um begriffliche Operationen, kann „because“ viel flexibler benutzt werden.

Wie die Sprache, so auch die Wissenschaftskultur: Das Verstehen ist in der englischen Wissenschaftslandschaft sowohl antagonistisch motiviert wie auch konsensgeleitet, wogegen sich die deutsche Wissenschaftstradition argumentativ-anleitend erst im Text aufgrund einer bestimmten Logik herausbildet. Die Kausalkonjunktion „because“ übernimmt dabei eine sprachliche Führungsposition.

Es ist grundsätzlich zu vermuten, dass angelsächsische Wissenschaft weitaus eher mit dem Konzept der Nouvelle Rhétorique eines Chaïm Perelman als mit dem Layout of Arguments eines Stephen Toulmin zu erklären ist: wo die deutsche Wissenschaftskultur auf eine begrifflich schlüssige Herausarbeitung neuer Erkenntnis (Logik des Begriffs) setzt, fokussiert die angelsächsische Wissenschaftskultur die Empfänger, „die sich durch argumentative Strategien überzeugen lassen.“ (Logik des effektiven Überzeugens) (S.312) Die Anerkennung eines Arguments ist dabei in gewisser Weise Verhandlungssache: Wenn man nicht überzeugt ist, kann man es auch ablehnen.

Vor diesem Hintergrund entwickelt jede Fachgemeinschaft eine Erwartungshaltung an wissenschaftliche Publikationen sowie ein dispositives Verständnis, welche Darstellungsform sie als „wissenschaftlich“ anerkennt. Ob die als gültig bestimmten semantischen Reichweiten der Verwendung von „because“ und „weil“ dies hervorgebracht haben oder aber ihre Begrenzung genau aus diesem Anspruch heraus erhalten, müssen die Etymologen beider Sprachen abklären.
(Eine ausführliche Überlegung zur Grammatikalisierungsgeschichte von „weil“ und „because“ lassen sich übrigens im vorliegenden Band von Seite 218 bis 227 nachlesen. Als grobe Orientierung scheint notierbar, dass „weil“ auf den Prozess bezogen erscheint, während das Englische den Gegenstand bzw. das Konzept fokussiert.)

Benennung eines wissenschaftlichen Erkenntnisgegenstandes

Benennungen sind die Marksteine begrifflicher Abmarkungen. Bleibt man im Bild, erscheint Wissenschaft als Vermessungstätigkeit, bei der allein oder kollaborativ auf der weiten Flur der Wahrnehmungen Orientierungsmarken gesetzt werden, Flächen eingehegt werden und eine kultivierende Bearbeitung erfahren. Diese nennt man dann Begriffsentwicklung und nun wird es verständlich, wieso die amerikanisch geprägte Wissenschaft den Claim der Nische zum Leitbild ausruft: Hier ist Wissenschaft auch immer die Eroberung einer neuen Welt. Die europäische und damit auch die deutsche Wissenschaft müssen sich nach dieser topologischen Sichtweise immer damit herumschlagen, dass die Räume, in denen sie sich befindet, schon recht vollständig besetzt sind. Die alte Welt muss nicht mehr erobert werden, aber man kann sie immer neu durchleuchten. Bei beiden Ansätzen geht es um eine differenzierende Annäherung. Was man benannt und abgegrenzt hat, was also eine eindeutige Erkennbarkeit erfahren hat, kann als Grundstock für eine weitere Verfeinerung sein. Wer eine feste Burg als Grundmauer hat, hat auch einen Aussichtspunkt.

Wie vollzieht sich nun die abgrenzende Bestimmung „dingbegrifflicher Wissenskomplexe“. Genau genommen erweist sich die Abgrenzung als eine doppelte: Einerseits zu anderen dingbegrifflichen Wissenskomplexen und andererseits zu dem Prozess, aus dem sie herausgenommen bzw. wie Thielmann es formuliert „zum Stehen gebracht“ werden. Also zugleich zur Landschaft an sich und zum Nachbarfeld, das wie das eigene Teil dieser Landschaft ist.

Die Landschaft, der Prozess ist, je nach Perspektive, das Fließen der Welt (bspw. mit den Stichworten „Lebenszyklus“ und „Evolution“) oder das Fließen der Beobachtung. Auch hier begegnen wir der Kontingenz, denn was durch den Beobachter unter bestimmten Bedingungen in einer bestimmten Form als Gegenstand definiert, also abgegrenzt wird, könnte unter anderen Umstände mittels ganz anderer Spundwände vom Fluss der Dinge geschieden werden. Die Parzellierung der Begriffe könnte auch ein anderes Begriffs- und damit Erkenntnisraster hervorbringen. Umso entscheidender ist es also, die Regeln, nach denen die begrifflichen Gemarkungen unter einem Namen zusammengeführt werden, zu reflektieren.

Die Frage – übrigens eine auch für jede Klassifikationsforschung hochrelevante – lautet demnach, wie Erkenntnisgegenstände bestimmt und in Begriffe gefasst werden, also welche kommunizierbare Form sie erhalten und mit welchem Ausdruck man sie in den Diskurs einbringt?

Im Englischen ist, so ein Ergebnis der Analyse Winfried Thielmanns, die Terminologieentwicklung an dieser Stelle relativ offen: Es erfolgt, verkürzt gesagt, einfach eine Setzung (bzw. „Positionierung eines puren Symbolfeldausdrucks als Kern einer Nominalphrase“).

Diese entspricht einer konkreten, spezifischen Benennung, die situationsentbunden und kontextunabhängig gilt, nicht aus sich heraus rekonstruierbar sein muss und entsprechend der wissenschaftskommunikativen Tradition des Überzeugens auch eine „metaphorische Schlagkraft“ aufweisen kann.

Dass in diesem Zusammenhang die Intention des Autors in Hinblick auf die anvisierte Nische von Bedeutung ist, versteht sich von selbst und deshalb ist ein Wort wie Lifestreaming auch relativ schnell in den entsprechenden Diskursräumen derart etabliert, dass man es ohne Anführungszeichen verwenden kann. Andere Ausdrücke wie compunication setzen sich dagegen aufgrund ihrer Sperrigkeit kaum durch und auch ein auf Gleichheit gerichtetes huself als Substitut für himself und herself offenbart seine Raffinesse erst nach längerem Nachdenken und damit für eine schnelle Übernahme in den allgemeinen Diskurs zu spät. Diesen zu komplex angelegten Protologismen fehlen die verstehende Anerkennung durch eine Diskursgemeinschaft und zugleich die logische Herleitung und damit der Durchsetzungserfolg.

Sie entsprechen demnach nicht einer „besonders geglückten Wahl“ (S. 313) einer symbolischen Prozedur in Hinsicht auf das angestrebte Ergebnis. Die Flexibilität der Benennungspraxis, die sich nicht an präzise Herleitungen des Ausdrucks zu halten braucht, hat, so Thielmann, aber auch bei gut harmonierenden Benennungen den Effekt, dass die Semantik der jeweiligen Ausdrücke außerhalb der Diskursgemeinschaft kaum präzise abgeschätzt werden können und bestimmte Gesichtspunkte des Gegenstandsbereiches verbergen bzw. aus der Abbildung ausschließen. Der Begriff restringiert dadurch eventuell eine allzu ausschließliche Perspektivität, wo Reflexion den Erkenntnisprozess notwendigerweise begleiten sollte. Seine Verwendung setzt nicht eine logische Herleitbarkeit, sondern eine einverstehende Anerkennung voraus.

Da ein derart festgelegter Begriffsrahmen mit jeder bestätigenden Verwendung tradiert wird, schwingt diese Verborgenheit zwar permanent mit, wird aber erst durch ein bewusstes Aufbrechen der Festlegung thematisierbar. Im Deutschen bleibt man näher bei der Spur. So wird ein Gegenstand „praktisch ausschließlich“ über eine deverbale Ableitung als Substantiv fixiert. Die Benennung des Gegenstands wird durch seine interne, logisch nachvollzogene Struktur bestimmt. Sie ist also wiederum auf ein nachvollziehendes Verstehen gerichtet. Grob gesagt, wird der Prozess substantiviert und dadurch vergegenständlicht.

Die Besonderheit dieses Vorgehens liegt darin, dass über dieses Verfahren der begriffliche Fokus für den Leser konstant bzw. nachvollziehbar bleibt und es dem Rezipienten entsprechend möglich wird, die Erkenntnisgenese an der Begriffsgeschichte zu rekonstruieren.

Fazit und Folgeüberlegungen

Das Buch erfordert seinem Ursprung in einer Habilitation gemäß eine konzentrierte und vor allem zielgerichtete Lektüre. Die Analyse wird sehr feingliedrig in der dem Anlass angemessenen Form dargestellt und die Zusammenfassungen weisen ein mehr als vertiefendes Maß an Redundanz auf. Für die Lektüre muss man diese Rahmenbedingungen und Schwerpunktsetzungen selbstredend berücksichtigen, gerade wenn man eine andere disziplinäre Provenienz aufweist.

So zeigt sich für Bibliotheks- und Informationswissenschaftler der Begriff des „Wissens“ in der Verwendung eher unreflektiert und wird leider nicht so exakt definiert, wie z.B. Text („verdauerte Sprechhandlungsfolgen zur Ermöglichung von Situationen, in denen Sprecher und Hörer nicht kopräsent sind“, S. 47). Wissenschaftssoziologen erscheint die „Community“ und die sich in ihr vollziehenden sozialen Koordinationen vermutlich zu unterbestimmt. Die Beschränkung auf die Wissenschaftssprachen Englisch und Deutsch zeugt von einer Spezialisierung und kann nur Baustein sein, wenn es darum geht vermittels einer Komparatistik der Wissenschaftssprachen Erkenntnisse „über die ››kognitiven Differenzen‹‹ […] zwischen den europäischen Wissenschaftssprachen“ zu gewinnen. (vgl. S. 22) Mögliche Veränderungen durch die in der Realität häufig durch Studienortwechsel stattfindende bilinguale Wissenschaftssozialisation und damit verbundene mögliche Sprachwandelprozesse werden nicht angedacht. Der Fokus liegt eng auf den drei Phänomenen Kausalverknüpfung Textart, Wortart und damit weitgehend auf der sprachstrukturellen Ebene.

Das ist nicht als Kritik an der Arbeit zu verstehen, sondern eher als unabdingbarer Hinweis darauf, dass Erkenntnisproduktion naturgemäß begrenzt ist und Lücken lässt. Wissenschaft lebt von diesen Nischen und es zeigen sich, je nach Blickwinkel, zahllose Anschlusspunkte an die von Winfried Thielmann untersuchten Aspekte. Auch diese Arbeit dient dazu, in der Praxis der Wissenschaftssprachen etwas zum Stehen zu bringen, um daraus einen Erkenntnisgegenstand zu definieren, an den sich anschließen lässt.

Generell lassen sich nach der Beschäftigung mit dem Buch einige Implikationen für jede Art von wissenschaftsvermittelnder Tätigkeit, also auch für die Konzeptentwicklung in der Bibliotheks- und Informationswissenschaft formulieren.

Eine Grunderkenntnis lautet, dass die scheinbare Leichtigkeit des Wechselns zwischen den Wissenschaftssprachen Englisch und Deutsch, wie sie aufgrund der Ähnlichkeit der Sprachen oft angenommen, einen nicht sichtbaren, aber sehr wirksamen Bleiboden besitzt, der erst dann spürbar wird, wenn sich die Abweichungen im Verstehen tatsächlich in Handlungsdiskrepanzen niederschlagen.

Die vermeintliche Einfachheit englischer Texte ist, wie Thielmann anmerkt, nicht etwa Resultat der einfacheren englischen Sprache, sondern der Vertrautheit der in der englischsprachigen Wissenschaftsgemeinschaft sozialisierten Autoren mit der dort akzeptierten Schreibpraxis. Hier wird der Zusammenhang zwischen Sozialisation und Sprache besonders augenfällig.

Wie durchsetzungsfähig ein aus der deutschen Wissenschaftslandschaft stammender Autor mit englischen Texten im englischen Sprachraum ist, hängt entweder von seiner Integration in die dortige Fachcommunity und/oder seinem Wissen um diese Metabedingungen wissenschaftlichen Schreibens ab. Zweifellos ist eine entsprechende Zweit- bzw. Nachsozialisierung durch einen Wissenschaftsspracherwerb denkbar und ein dankbares Untersuchungsfeld ergibt sich aus der Frage, in welchem Umfang eine wissenschaftskommunikative Souveränität in Fremdsprachen möglich ist, wie sich also in deutschsprachigen Kontexten wissenschaftssozialisierte Akteure beim Publizieren im und für die englischsprachige Community bewähren. (Gleiches gilt im Übrigen vermutlich auch für Abstecher in andere Fächer als der Heimatdisziplin.)

Ein wichtiger Aspekt und wiederum ein wunderbares Thema für weitergehende Untersuchungen liegt in den von bestimmten Wissenschaftskulturen geprägten Publikationsrichtlinien der Fachjournale und genauso in der Beurteilung der Texte nicht-muttersprachlicher Autoren im Peer-Review-Verfahren.

In der Regel, so eine Annahme, reproduziert eine Darstellung der eigenen Erkenntnisse in der jeweils anderen Sprache hauptsächlich die Darstellungsweisen der eigenen Wissenschaftskultur. Je nach Sensibilität leiten die Autorenhinweise der Zeitschriften sowie das Begutachtungsverfahren in Rückkopplung den Autor – so der Idealfall, der für die Erkenntnispluralität gar nicht mal ideal sein muss – auf eine Art Kompromisslösung hin, die bestimmte Charakteristika anpasst bzw. glättet. Untersuchungswert wäre an dieser Stelle, inwieweit die Hegemonie des Englischen besonders in den STEM-Disziplinen (Science, Technology, Engineering and Mathematics) die Sprachraum spezifische Ausprägung dieser Fächer nivelliert.

Immerhin legen die Ergebnisse der Arbeit Thielmanns die Vermutung nah, dass sich die jeweiligen in der lingua franca Englisch verfassten Publikation tatsächlich erst in den Rekurs auf die Muttersprache bzw. Wissenschaftskultur des Verfassers in Gänze verstehen lassen. Seine Erkenntnis lautet: „In einer lingua franca ist keine Wissenschaft möglich.“ (S. 318) Ob dies in dieser Zuspitzung tatsächlich stimmt, lässt sich natürlich hinterfragen, selbst wenn die Erfahrung diese Tendenz eher untermauert. Aber auch hier bleibt die Überlegung, ob nicht die Rolle des individuellen Akteurs und seine subjektive Kompetenz im Umgang mit den verschiedenen Wissenschaftspraxen einen Unterschied überbrückt, den die Sprache an sich lässt.

In der Übersetzerausbildung werden die zwischensprachlichen Fallstricke sicher präzise markiert. Aufgrund der Omnipräsenz des Englischen und der oft nicht ganz zutreffenden Annahme eines selbstverständlichen Hantierens mit dieser Sprache auch durch deutsche Wissenschaftler unterbleibt eine Kenntnisvermittlung aber an anderer Stelle häufig, wo sie einen interwissenschaftskulturellen Dialog nur befördern könnte.

So ist die semantische Differenz der Kausalkonjunktionen „because“ und „weil“ sicher kein Einzelfall. Dass die unterschiedliche Grundstruktur wissenschaftlicher Texte Auswirkungen nicht nur für das Übersetzen, sondern auch für die verstehende Lektüre und mehr noch für das Schreiben im Englischen hat und es nicht damit getan ist, an der richtigen Stelle „since“ einzusetzen, liegt auf der Hand. Wer hier zu viel Ähnlichkeit vermutet, entstellt möglicherweise recht grundlegend den Sinn einer Aussage. Ein anderer Effekt ist, dass englische Texte, da sie auf eine konsensuell-antagonistische Vermittlungspraxis gerichtet sind eher wenig auf eine verstehende Leistung des Rezipienten und mehr auf seine Zustimmung zielen, in der deutschen Übersetzung Deutsche mitunter etwas schlicht (bzw. je nach Standpunkt auch: verständlich) anmuten. Da benennende Gegenstandsfixierungen im Englischen häufig metaphorisch motiviert sind, werden sie, wie Winfried Thielmann aufzeigt, als Festlegung mit ins Deutsche übernommen, was durchaus – anglifizierend – tiefer in die deutschsprachige Wissenschaftspraxis hineinwirken dürfte.

Eine einfache Übersetzung vom Deutschen ins Englische, die erfahrungsgemäß seltener vorkommt, ist für den Autor dagegen nahezu unmöglich: „Der hermeneutische, musterwissenbasierte deutsche Einleitungstyp ist im Englischen dysfunktional, weswegen Einleitungen für das Englische als lineare Orientierungen im Wissen neu zu konzipieren sind.“ (S. 316) Ähnliches gilt wenigstens für im englischen Wissenschaftsraum nicht bereits durchgesetzte Gegenstandszusammenhänge. Da die deutschen Texte das Einverständnis des englischen Lesers weder in ihrer Entstehung berücksichtigen noch in der Übersetzung aufweisen, dürfte dessen Erwartungshaltung an den Text nicht nur nicht erfüllt werden. Es ist zu darüber hinaus vermuten, dass er, sofern er nicht die Diversität wissenschaftskultureller Schreibkulturen aktiv reflektiert, diese Texte als hermetisch empfindet und zutiefst irritiert wird, da das von ihm erwartete antagonistisch gerichtete Überzeugungshandeln im Text ausbleibt. Das bedeutet, dass etwas, was in der einen Community alle Standards erfüllt, in der anderen als „nicht-wissenschaftlich“ empfunden werden könnte.

Eine Übersetzung vom Deutschen ins Englische muss also wenigstens auf den „Common Sense“ verweisen. Die Darstellung einer neuen Erkenntnis in eine an diese Zielgruppe angepasste Form dürfte in jedem Fall eine höhere Rezeptionswahrscheinlichkeit aufweisen, als eine reine Übersetzung der Vorlage. So lässt sich durchaus auch fragen, inwieweit der Stellenwert deutscher Wissenschaft durch eine entsprechende Überarbeitung erhöht werden kann.

Aufgrund einer sprachwissenschaftlichen Betrachtung eines Ausschnitts der Wissenschaftskommunikation lässt sich abschließend unschwer die These entwickeln, dass Wissenschaft im angelsächsischen Raum sich weitaus stärker akteursbezogen vollzieht, wogegen deutschsprachige Wissenschaft der Eigenbewegung des Gegenstandsbereiches folgt.
Dies ist bei der Entwicklung virtueller Diskursräume von besonderer Relevanz, wenn es um die Entwicklung von Technologien zur Abbildung pragmatischer und semantischer Relationen geht. Eine solche konzeptionelle Arbeit setzt die Berücksichtigung entsprechender Praxen der Wissenschaftskommunikation auch dann voraus, wenn sie selbst lenkend wirken soll. Ein Angebot, das angenommen werden soll, muss zwangsläufig die Erwartungen der jeweiligen Zielgruppen berücksichtigen. In der Praxis streben diesem Anliegen Aspekte wie Ressourcen oder die technische Machbarkeit naturgemäß immer wieder entgegen. Dennoch bleibt keine Alternative zur Reflektion und Integration spezifischer wissenschaftskommunikativer Prinzipien, wie sie die Fachgemeinschaften herausbilden. Ein Angebot, das vorwiegend auf bibliothekarische oder informatische Strukturen setzt, droht an dieser Stelle zu scheitern.

Die Entwicklung im Bereich der Internet-Angebote für die Informations-, Literatur- und Kommunikationsorganisation auch für die Wissenschaft zeigt, dass es zahlreiche Mitbewerber gibt, die sich zwar nicht immer systematisch mit wissenschaftstheoretischen und mit Analysen von wissenschaftskommunikativen Sprachhandeln befassen, aber entsprechend flexible Plattformen und Werkzeuge auf den Markt bringen, die einen sympathischen Kompromiss in der Kombination aus Niedrigschwelligkeit und Funktionalität darstellen. Allerdings scheint es natürlich sinnvoller, wenn entsprechende Angebote nicht nur als Spin Off oder Webbusiness-Unternehmung entstehen, sondern aus der Wissenschaft selbst entstehen und an den doch mehr auf Dauerhaftigkeit wissenschaftlichen Infrastrukturinstitutionen, wie z.B. Bibliotheken.

Sieht man Wissenschaft nun jenseits der Fach- und Sprachgrenzen, wie es die Bibliotheks- und Informationswissenschaft tun muss, zeigen sich gerade an dieser Stelle Ansatzpunkte u.a. für korrespondierende Kompetenzvermittlungskonzepte. Denn wenn man die Aufgabe von wissenschaftlichen Bibliotheken und Informationseinrichtungen zeitgemäß interpretiert und über die reine Inhaltsvermittlung hinaus auch die Vermittlung von wissenschaftlicher Handlungskompetenz in das Spektrum solcher Institutionen aufnimmt, werden durchaus Angebote vorstellbar, die im geringsten Fall eine Sensibilisierung für diese Problematik und in der Erweiterung disziplin- und sprachraumgerichtete Schulungsangebote für eine interkulturell orientierte wissenschaftliche Kommunikationskompetenz umfassen.

Nach der Lektüre der Arbeit findet sich die Grundannahme bestätigt, dass die Schwerpunktsetzung bei der Konzeption neuer Diskursräume für die Wissenschaft prinzipiell davon abhängig ist, welche Wissenschaftsgemeinschaft als Zielgruppe definiert wird und zwar nicht nur in disziplinärer Hinsicht, sondern auch in Abhängigkeit vom jeweiligen Sprachumfeld.

Es ist einsichtig, dass die Sprachverwendung in der Wissenschaftskommunikation sehr bestimmt auf den wissenschaftlichen Erkenntnisprozess als solchen verweist. Die Grenzen der Sprache markieren auch hier die Grenzen des Denkens und die Praxis der Sprachverwendung bestimmt die Praxis des Denkens. Konzepte für die Organisation virtueller Kommunikationsräume für die Wissenschaft sollten diesen Punkt als ihren Ausgangspunkt definieren.
Eine allumfassende Einheitspassform zu gießen, die dann nach Belieben auf Diskursgemeinschaften gestülpt wird, kann folglich nicht als Ziel bibliotheks- und informationswissenschaftlicher Entwicklungsarbeit sein. Vielmehr ist auch hier ein feinfühliges Verständnis der Gepflogenheiten und Praxen der jeweiligen Disziplinen notwendig, womit sich der Kreis schließt, indem deutlich wird, warum ein interdisziplinärer Blick essentiell für unsere Disziplin ist. Die Bibliotheks- und Informationswissenschaft muss verstehen, wie die anderen kommunizieren und warum dies so ist.

LIBREAS Preprint 01/2010. Rainer Kuhlen über Wissenschaftsfreiheit

Posted in LIBREAS aktuell, LIBREAS preprints by Ben on 30. März 2010

LIBREAS Preprint 01/2010

Verteidigen Deutscher Hochschulverband und Börsenverein wirklich Wissenschaftsfreiheit oder geht es nur um obsolete Privilegien?

von Rainer Kuhlen

Das „ob, wann und wie“ des Publizierens ist ein exklusives Recht nicht zuletzt wissenschaftlicher Autorinnen und Autoren. Das „wo“ des Publizierens sollte dagegen eher ein einfaches Recht sein, bei dem eine „Schuld“ gegenüber der sie finanzierenden Öffentlichkeit durch ergänzende freie Zugänglichmachung abgetragen werden sollte.

Der Deutsche Hochschulverband und der Börsenverein sehen das offensichtlich ganz anders – aber kaum mit länger haltbaren Gründen.

Fast schon triumphierend hat sich der Börsenverein des Deutschen Buchhandels (BV), zusammen mit der Arbeitsgemeinschaft wissenschaftlicher Verleger (AwV) auf die Seite des Deutschen Hochschulverbandes (DHV) geschlagen. Dieser hatte in einer Pressemitteilung vom 23. März 2010 „vor einer Relativierung des Urheberrechts“ und vor einer Einschränkung der Wissenschaftsfreiheit gewarnt: „Den Wissenschaftlerinnen und Wissenschaftlern müsse es als Urhebern vorbehalten bleiben, zu bestimmen, ob, wann, wo und wie sie ihre Werke veröffentlichen.“

Die Positionierung des DHV richtet sich in erster Linie gegen den (unterstellten) Zwang oder Druck der Wissenschaftsorganisationen, nämlich Wissenschaftlerinnen und Wissenschaftler zu veranlassen, „ihre Werke im Rahmen von Open Access-Publikationen kostenlos zur Verfügung stellten“. Ein solches Ansinnen könne auch nicht dadurch gerechtfertigt werden, dass jene eine mit „öffentlichen Mitteln geförderte Vergütung bzw. Besoldung“ erhalten. Der DHV warnt, dass das Urheberrecht „relativiert“ und „in einen vordergründigen ökonomischen Zusammenhang“ gestellt würde.

Der BV und die AwV setzen noch einiges drauf: „„Kein Autor“ so der Verleger Vittorio Klostermann … „sollte gedrängt werden, seine Werke der Öffentlichkeit kostenlos zur Verfügung zu stellen … Solche Forderungen untergraben die Freiheit der Autoren, ihre Werke in der bestmöglichen Form zu publizieren.“ Der Börsenverein nutzt zudem gleich die Gelegenheit, um deutlich die in letzter Zeit immer häufiger gestellte Forderung nach einer „allgemeinen Wissenschaftsschranke“ für das deutsche Urheberrecht zurückzuweisen: „Ein modernes wissenschaftliches Informationswesen“ vertrüge, so Gottfried Honnefelder, Vorsteher des Börsenvereins, „ weder Zwang noch pauschale Schranken. Gerade die Wissenschaft braucht ein starkes Urheberrecht.“

Dem DHV kann man sicherlich unterstellen, dass ihn die Sorge um Verlust an Wissenschaftsfreiheit umtreibt. Zu gerne nehmen diese Sorge BV und AwV auf. Das ist das seit Jahren betriebene Spiel. Wohlwissend, dass Appelle an hohe (aber kontextlos abstrakte) Werte wie Wissenschaftsfreiheit oder geistiges Eigentum so gut wie sicher allgemeine öffentliche Zustimmung garantieren, bekräftigen auch die kommerziellen Verwerter diese Werte und sichern sich damit auch die Zustimmung zu ihrer Geschäftspolitik: das obige Zitat von Vittorio Klostermann endet entsprechend: „untergraben … zugleich die ökonomischen Grundlagen der Wissenschaftsverlage“. Und das obige Börsenvereinszitat führt zu der Folgerung: „Sie ließe keinen Raum mehr für privatwirtschaftliche Verlage.“

Klar, darum geht es, und dagegen ist ja auch nichts einzuwenden, dass Verlage kommerzielle Interessen vertreten. Muss oder darf das aber ideologisch in alter Überbautradition begründet werden? Wäre es nicht angemessener, dass Verlage mehr pragmatisch die Berechtigung dafür, dass sie aus dem mit öffentlichen Mitteln erzeugtem Wissen kommerziell handelbare Informationsprodukte machen, daraus ableiteten, dass sie aus den Ausgangsprodukten der Autoren wirklich neue Mehrwertprodukte machten? Darauf und auf elektronischen Umgebungen angemessene Geschäftsmodelle warten Produzenten und Nutzer von Wissen.

Wissen produzieren, dieses auch in allen medialen Formen darstellen, dessen Qualität bewerten, die Produkte in globale Netze einspeisen, sichtbar, suchbar und nutzbar machen, können Wissenschaftlerinnen und Wissenschaftlern selber beziehungsweise können dafür auf die Hilfe der Bibliotheken oder von Fachgesellschaften zurückgreifen. Ob sie es auf allen Stufen dieses Prozesses selber machen sollen, ist eine andere Frage. Hier ist weiter viel Spielraum für die bisherigen Publikationsprofessionellen.

Müsste in einem starken Urheberrecht nicht ein fairerer und zeitgemäßerer Interessenausgleich zwischen den Beteiligten – den Wissenschaftlerinnen und Wissenschaftler, ihren Institutionen, den Nutzern, der Öffentlichkeit und den Verwertern – angestrebt werden, als bislang? Wobei sich dieser Ausgleich zum einen an den Rechten orientieren müsste, die die Beteiligten an den Prozessen der Wissens- und Informationserzeugung plausibel reklamieren, und zum andern (als Begründung nicht zuletzt der Rechte) an den Leistungen, die die Angesprochenen auf den verschiedenen Stufen von der Wissensproduktion beziehungsweise zu dessen Nutzung erbracht werden.

Müsste nicht im 21. Jahrhundert Schluss damit sein, das Urheberrecht durch ideologisch überhöhte Annahmen und Forderungen herzuleiten, die aus der Mottenkiste des Naturrechts und der romantischen Genietradition des 19. Jahrhunderts stammen? Selbstverständlich ist auch die Wissenschaft längst in ökonomische Prozesse und Ansprüche eingebunden, sowohl mit Blick auf ihre Finanzierung als auch auf ihre Nutzung. Warum gibt es wenige Juristen, wie jetzt Nikolaus Peifer (Universität zu Köln) auf der internationalen Commons-Tagung am 18.03.2010 in Hannover, die rechtliche Wege aufzeigen, wie wissenschaftlichen Autorinnen und Autoren über eine zwingende Vertragsrechtsbestimmung veranlasst werden können, eine Zweitveröffentlichung auf wahlweise einer universitären oder privaten Open Access-Plattform vorzusehen?

Noch weniger gibt es Politiker, wie den Justizsenator der Freien und Hansestadt Hamburg Till Steffen, der ein bemerkenswertes Positionspapier mit dem programmatischen Titel „Nutzerorientierte Ausrichtung des Urheberrechts“ vorgelegt hat, die also bereit sind, das bisherige Urheberrecht wirklich und sachbezogen auf den Prüfstand zu stellen.

Deutschland tut sich im internationalen Vergleich mit der Verabschiedung eines Verständnisses von Wissensproduktion besonders schwer, das an individuelle Kreativität und individuell verantwortete Freiheit gebunden ist. Schon in den Geisteswissenschaften tragen diese Annahmen kaum noch. In den international kollaborativ arbeitenden und auf erhebliche Ressourcen angewiesenen experimentellen und konstruierenden Wissenschaften ist diese Sicht auf Wissenschaft schlicht unhaltbar.

Die Freiheit der Wissenschaft und das Interesse der Wissenschaftlerinnen und Wissenschaftler haben wenig mit der exklusiven individuellen Verfügung über das produzierte Wissen zu tun. Angerechnet werden muss in erster Linie die Leistung beim Prozess der Erkenntnisproduktion. Niemand will an den auch urheberrechtlich gesicherten Persönlichkeitsrechten der Autoren und an der Anerkennung der Leistung von Forschergruppen tasten. Aber die Anrechnung geschieht in Bildung und Wissenschaft nicht direkt oder nur unwesentlich über die monetäre Vergütung, und sie sollte nicht über eine exklusive Beanspruchung der Verwertungsrechte (und erst recht nicht über ein Recht zur exklusiven Übertragung dieser Rechte an Dritte) vollzogen werden.

Auch wenn Puristen und Dogmatiker des Urheberrechts und des geistigen Eigentums das vermutlich ganz anders sehen– das Wissen selber mag Eigentum der Wissensproduzenten selber sein (das wird ihnen auch angerechnet) – an den aus dem Wissen entstandenen und zur Publikation vorgesehenen und dann publizierten Werken haben aber auch andere Akteure Rechte. Es sollte weniger um Freiheit und Eigentum als um Rechte gehen.

Ich komme gerade aus einem Urheberrechtsworkshop aus Budapest, auf dem Prof. Gábor Makara von der Ungarischen Akademie der Wissenschaft und vormals Präsident der mit der deutschen DFG vergleichbaren ungarischen öffentlichen Fördergesellschaft sehr deutlich zwischen den Rechten und den Leistungen der Autoren, der sie tragenden Institutionen und der sie fördernden Institutionen und natürlich auch der Verlage unterschied. Quantifizierungen auf diesem Gebiet sind immer problematisch, aber Makara machte gut plausibel, dass Rechte und Leistungen der Wissenschaftlerinnen und Wissenschaftler und der beiden Institutionen circa 90% ausmachten und nur etwa 10 % die der Verlage.

Unabhängig von den Zahlen ist der Schluss interessant und wichtig, den Ungarn daraus gezogen hat, nämlich dass es nicht angehe, wenn Autoren per Vertrag Rechte an Verlage exklusiv übertragen, die gar nicht umfassend ihre Rechte sind. Makara regte sogar eine gerichtliche Überprüfung der Rechtmäßigkeit solcher exklusiver Übertragungsverträge an.

Natürlich sollen Forscherinnen und Forscher und Forschergruppen in aller Freiheit darüber entscheiden, was sie forschen (natürlich im Rahmen ihrer Bestellung bzw. ihrer Förderanträge), wann und wie sie etwas veröffentlichen wollen. Auch unbenommen sei es, dass sie ihre Werke kommerziell verwerten lassen dürfen, aber – und das ist der entscheidende Unterschied – nur, wenn garantiert ist, dass die Rechte der Institutionen und der Öffentlichkeit auch gewahrt bleiben. Das ist der alte Locke´sche Gedanke des Eigentums, das als privates mit den Ausschlussmöglichkeiten reklamiert werden kann, wenn in unverminderter Qualität genug für alle übrig bleibt.

In Ungarn, wie auch in vielen anderen Staaten und wie übrigens in einem Pilotversuch, der aber immerhin 25% des Fördervolumens umfasst, auch in der EU, wurde entsprechend genau das festgelegt, was jetzt DHV und BV beklagen:. Öffentlich finanzierte Autoren werden verpflichtet, ihre Arbeiten auch wenn sie sie kommerziell veröffentlichen, parallel oder mit geringer Verzögerung (Embargo genannt) nach dem Open-Access-Modell in Repositorien ihrer Wahl für den freien Zugriff bereitzustellen.

Wie geht der DHV damit um, wenn bei zunehmend global organisierter Forschung mit der Beteiligung international verteilter Wissenschaftlerinnen und Wissenschaftler viele in ihren Ländern ihre Publikationen als Zweitveröffentlichung frei zugänglich machen müssen, während für die deutschen Co-Autoren das „Paradies“ der freien Entscheidung auch gegen die Zweitpublikation nach dem Open-Access-Modell bestehen bleiben soll? Sollen sich deutsche Wissenschaftlerinnen und Wissenschaftler lieber aus der internationalen kollaborativen Wissensproduktion zurückziehen, weil deutsche Prinzipien verletzt würden?

Aber eine nationale Abschottung deutscher Wissenschaft ist unmöglich und von niemandem gewollt. Ohnehin wäre diese Forderung ein Anachronismus, denn Open Access in einem Land ist Open Access überall. Oder soll der Zugriff auf internationale Repositorien über Netzsperren gefiltert werden, weil deutsche Verwerter eine Gefährdung ihrer Interessen sehen? Die Wissenschaftsrealität der digital vernetzten Communities erfordert ein progressives Neudenken besonders des Wissenschaftsurheberrechts, dass die Publikation und Distribution im Rahmen der möglichen Wege neu gestaltet – nicht Wege durch Anachronismen und Verknappungsformen versperrt.

Die verpflichtende Forderung nach einer offenen Zweitpublikation ist bisher nicht die Politik der Allianz der Wissenschaftsorganisationen, einschließlich der DFG. Insofern stellt sich die Situation in Deutschland für die Verwerter vergleichsweise moderat dar. Angestrebt wird nicht die Verpflichtung zur Open-Access-Publikation, sondern das Ermöglichen einer Zweitverwertung durch die Wissenschaftlerinnen und Wissenschaftler selber, zum Beispiel, wie auch schon vom Bundesrat im Rahmen des Zweiten Korbs vorgeschlagen, durch eine entsprechende Änderung des § 38 des deutschen Urheberrechtsgesetzes.

Anders als HDV und BV (und früher schon der Heidelberger Appell) unterstellen – aus dem Vorschlag der Allianz zur Neuregelung des Urheberrechts im Rahmen des anstehenden Dritten Korbs ist klar ersichtlich, dass die Allianz auf ein unabdingbares Zweitveröffentlichungsrecht setzt, das, noch einmal, aber keineswegs eine Zwangsmaßnahme sein soll: „Dieses Zweitveröffentlichungsrecht, das für den Wissenschaftler keine Pflicht bedeutet, ist notwendig, um ihn in seiner Verhandlungsposition gegenüber großen wissenschaftlichen Verlagen zu stärken. Indem der Wissenschaftler selbst über den Grad der Sichtbarkeit seiner Forschungsergebnisse entscheiden kann, ist seiner Wissenschaftsfreiheit deutlich mehr gedient, als durch das Vorschieben von Riegeln. Er übt dabei in besonderer Weise das Grundrecht der Wissenschaftsfreiheit aus.“

Die Allianz setzten also nicht auf „required“, sondern auf „requested“, wie die Alternative in der angelsächsischen Diskussion benannt wird (dort übrigens zunehmend in Richtung „required“). Natürlich können auch Institutionen wie die DFG den goldenen Open-Access-Weg fördern, also die Einrichtung von speziellen originären Open-Access-Publikationsformen.

Grundsätzlich zielt die hier von DHV und BV beklagte Politik jedoch auf den grünen Weg ab, dass heißt auf die parallele freie Zugänglichmachung auf der Grundlage einer freien Entscheidung der Autoren.

DHV und BV beklagen, dass schon die Empfehlung der Wissenschaftsorganisationen, auch „grün“ zu publizieren einen unangemessenen Druck auf Wissenschaftler ausüben werde. Unklar ist, wie das die Wissenschaftler selbst sehen. Zunehmend mehr Wissenschaftlerinnen und Wissenschaftler kommen diesem „Druck“ offenbar bereitwillig nach – erhöht sich doch dadurch ihre Sichtbarkeit und lässt sich somit leichter erreichen, was in der analogen Zeit recht umständlich über den Versand von Sonder- und Vorabdrucken erreicht wurde, nämlich die zeitnahe Information der Fachcommunity über die eigenen Erkenntnisse.

Erforderlich ist eine offene Diskussion über Vor- und Nachteile alternativer, kommerzieller und offener Publikationsformen. Das Verkünden des vermeintlichen Verschwindens der Wissenschaftsfreiheit durch Open Access trägt nicht unbedingt zur Aufklärung bei. Längst dürfte den meisten Verlagen (und Content Providern) klar sein, dass sich auf Dauer nur Geschäftsmodelle des wissenschaftlichen Publizierens halten werden, wenn sie mit dem Open-Access-Paradigma verträglich sind.

Auch wenn sich das Problem der Open-Access-Publikation in mittlerer Perspektive zugunsten dieser wohl selber erledigen wird, jetzt besteht Handlungsbedarf, auch rechtliche Klarheit zu schaffen und dabei Mut zu zeigen, sich auch mit der herrschenden juristischen Meinung und sei es die des Bundesverfassungsgerichts „anzulegen“.

Auch für Initiativen wie das Aktionsbündnis Urheberrecht für Bildung und Wissenschaft, dessen Sprecher ich auch bin, ist es das eine, sich auf den Boden der herrschenden juristischen und politischen Meinung zu stellen und das jetzt Machbare einzufordern – wie jetzt das Autoren-Zweitveröffentlichungsrecht. Und es ist das andere, das zu artikulieren, was für sinnvoll und notwendig gehalten wird, und sich daran zu machen, auf die öffentliche Meinung so einzuwirken, dass das bislang für unmöglich Gehaltene auch politisch und rechtlich konsensual möglich wird. Anders geht es nicht im demokratischen System und anders vollzieht sich keine Entwicklung.

Der Börsenverein bietet auch jetzt, wie schon so oft, Gespräche mit den beteiligten Akteursgruppen an. Oft genug wurden die dann aber abgeblasen, wenn bislang übliche Privilegien, wie die exklusive Übertragung der Rechte der Autoren an die Verwerter, in Frage gestellt werden oder wenn Bibliotheken auf ihrem Auftrag bestehen, ihrer Klientel das publizierte Wissen umfassend zugänglich zu machen. Aber reden wird man trotzdem müssen, um im Vorfeld des Dritten Korbs auch für das Bundesjustizministerium, das ja die Vorlagen für Regierung und Bundestag erstellen muss, die Perspektiven des Möglichen transparent zu machen.

Der Deutsche Hochschulverband ist gewiss die mächtige Interessenvertretung der Wissenschaft. Es ist davon ausgehen, dass vermutlich die Mehrzahl der etablierten Wissenschaftlerinnen und Wissenschaftler (sagen wir der Altersgruppe über 45 Jahre) die bisherigen Publikationsstrukturen durchaus unterstützt – sind doch die aufgebauten Hierarchien (Herausgeberschaften, Boards von eingeführten und dominanten Zeitschriften mit hohem Impact-Faktor, Gutachter etc.) durchaus positions- um nicht zu sagen macht-/einflusserhaltend. Der Hochschulverband versteht sich aber sicher nicht nur als Lobbyverband der Etablierten, zumal auch er eigentlich davon ausgehen müsste, dass das Open-Access-Paradigma, das ja die kommerzielle Verwertung nicht ausschließt, im genuinen Interesse der Wissenschaftlerinnen und Wissenschaftler liegt. Die dies unterstützenden Argumente sind alle ausgetauscht.

Mir scheint hier eine umfassende Debatte um ein zeitgemäßes Konzept von Wissenschaftsfreiheit oder geistigem Eigentum (in der Wissenschaft) dringend erforderlich. Ist Wissenschaftsfreiheit nicht auch das Recht auf freien Zugang zu den wissenschaftlichen Publikationen, ohne den kein neues Wissen produziert werden kann? Muss nicht der persönliche, in Art. 14, Abs. 1 GG garantierte Anspruch auf Schutz des (auch geistigen) Eigentums stärker als bislang durch die Sozialbindung von Eigentum (gefordert durch Abs. 2 Art. 14 GG) relativiert werden?

Der Aussage, dass Wissen ein Gemeingut (ein Commons) ist, das frei verfügbar sein muss und nicht „eingezäunt“ werden darf, wird jeder zustimmen können. Allein nutzt dieses Recht nichts, wenn der Zugang zum Wissen tatsächlich mit vielen Zäunen umgeben ist. Der Markt allein kann den freien Zugang und die freie Nutzung, wie sie bis in die jüngste Vergangenheit durch die Bibliotheken garantiert war, offensichtlich nicht mehr garantieren – zu hoch ist der kommerzielle Erwartungsdruck auf den Informationsmärkten geworden.

Sollte sich nicht auch der DHV von dem romantischen Konzept des unabhängig und allein verantwortlich forschenden Autors verabschieden? Wird die Gesellschaft auf Dauer Wissenschaftlerinnen und Wissenschaftlern in öffentlichen Umgebungen so weitgehende Privilegien zugestehen wollen, wenn die von der Öffentlichkeit zu erbringenden Kosten für die Wissenschaftsproduktion und die akademische Lehre immer höher werden?

Mir ist keine Gruppierung bekannt, die das ob, wann und wie des Publizierens in Frage stellen würde. Dass aber Formen für das „wo“ gefunden werden müssen, die einerseits die kommerzielle Verwertung des mit öffentlichen Mitteln unterstützt produzierte Wissen rechtfertigen und andererseits der Öffentlichkeit die freie Nutzung des von ihr bezahlten Wissens garantieren, scheint mir unabdingbar zu sein, auch wenn es bis dahin noch eine sehr langer Weg mit manchen Zwischenstopps sein wird.

Der Hochschulverband verwendet die politische Forderung des „bildungs- und wissenschaftsfreundlichen Urheberrechts“. Soll dies aber wirklich auf hergebrachten Privilegien beruhen, die letztlich eher den Verwertern als den Wissenschaftlerinnen und Wissenschaftlern selber nutzen? Ein starkes Urheberrecht ist nicht ein das Einzäunen schützendes Recht, sondern eines, das der Wirtschaft Innovationen erleichtert, der Wissenschaft freies Forschen ermöglicht und jedermann in der Gesellschaft Entwicklungsperspektiven eröffnet.

(Parallelpublikation zum Posting im Netethics-Blog)