LIBREAS.Library Ideas

Call for Papers: Forschungsdaten, Metadaten, noch mehr Daten. Forschungsdatenmanagement

Posted in LIBREAS Call for Papers by libreas on 12. Dezember 2012

Call for Papers für die LIBREAS-Ausgabe #23
Thema:
Forschungs- und andere Daten sowie ihre Organisation und Rolle in Bibliothek und Wissenschaft
Einreichungsfrist: bis 31.05.2013 14.07.2013 19.08.2013
gewünscht sind: Beiträge, die Wechselwirkungen zwischen Wissenschaft, Daten und Bibliotheken reflektieren, annotieren, dekonstruieren und/oder analysieren
disziplinäre Einschränkungen: keine
Rückfragen: redaktion@libreas.eu

„Eine Forschung, die zunehmend durch die kooperative Tätigkeit weltweit vernetzter Communities und durch den Einsatz Computerbasierter Verfahren bestimmt ist, erfordert nun einmal die kontinuierliche und vor allem langfristige Verfügbarkeit von Publikationen und Forschungsdaten über das Internet. Nicht nur die Notwendigkeit, Forschungsergebnisse durch den Rückgriff auf die diesen Ergebnissen zugrunde liegenden Daten verifizieren zu können, sondern auch die produktive Nachnutzung von Forschungsdaten in anderen Kontexten setzt voraus, dass digital kodierte Information über Jahrzehnte hinweg authentisch verfügbar bleibt.“ (Matthias Kleiner. Vorwort. In: Heike Neuroth et al. (2012), S. 9)

„Die Basis einer gesunden Ordnung ist ein großer Papierkorb.“ (Kurt Tucholsky. In: Neue Leipziger Zeitung, 19.08.1930)

 

Wissenschaft produziert heute neben Erkenntnis vor allem immense Datenmengen. Die enorme Steigerung beruht in erster Linie auf der Entwicklung und Verfügbarkeit von Technologien zur Datenproduktion und -verarbeitung. leistungsstärkere Rechner und Messgeräte produzieren und vernetzen immer mehr Daten. Wo viele Daten sind, kommen fast naturgesetzlich immer noch mehr hinzu. Die Datenmengen, eines  Large Hadron Collider (LHC) in Genf sind derart umfangreich, dass sie nicht einmal mehr an einer zentralen Stelle gespeichert werden können, sondern auf das LHC Computing Grid verteilt werden müssen. Aber auch im Alltag entstehen immer mehr Daten „nebenher“, beim Surfen im Netz, beim Chatten, beim Taggen von Dateien usw. Nahezu jeder Klick erzeugt auch neue Daten.

Die Entwicklung führt zu umfassenden Änderungen der Wissenschaft, ihrer Methoden und besonders den Anforderungen an ihre Werkzeuge sowie an die Wissenschaftsinfrastrukturen. Datenintensive Forschung braucht angemessene Hilfsmittel. Physikerinnen und Physiker, die mit Daten aus LHC-Experimenten arbeiten wollen, müssen lernen, Daten aus dem Grid zusammensammeln und auszugeben. Sozialwissenschaftlerinnen und -wissenschaftler, die theoretische Modelle zum Zusammenhang von Hochschulsystem und Städteplanung über mehrere Staaten hinweg testen wollen, können dafür auf eine umfassende Datenlage zurückgreifen. Sie müssen aber diese kennen, finden und weiterverarbeiten können.

Angesichts dieser empirischen Wende könnte das Testen theoretischer Modelle bald der Vergangenheit angehören. Jim Gray formulierte die These, dass wir in die Zeit des vierten Forschungsparadigmas eintreten würden. (Hey, Tansley & Tolle, 2009) Die Forschungsdatenbestände würden zu groß werden, um überhaupt noch anders als mit explorativer Statistik, also einer Art Datenhermeneutik, auswertbar zu sein. Ob dies für alle Wissenschaften zutrifft, ist offen.

Folgerichtig wird die Bedeutung von langfristig und offen verfügbaren Forschungsdaten für den Forschungsprozess immer stärker betont. Man entwirft Systeme, die die Reputation einer Forscherin, eines Forschers an die erstellten Daten binden sollen. Diese Diskussion überdeckt eine andere Wahrheit: Immer noch sitzen die Theologinnen und Theologen an ihren Schreibtischen und produzieren nicht viel mehr Daten als in den Jahrhunderten zuvor. Sie benutzen aber möglicherweise zunehmend digital vorliegende Quellen. So geht es vielen Disziplinen: Einige, wie die Physik oder die Klimaforschung, erzeugen permanent riesige Datenmengen. Bei anderen ist vielleicht nicht das Wachstum der eigens produzierten Datenmengen überwältigend. Wohl aber die Zahl der durch die Digitalisierung direkt abrufbaren Datenbestände. Um diese ordentlich zu nutzen, sind adäquate Erschließungs- und Vermittlungsverfahren sowie Werkzeuge notwendig.

Wie soll Forschungsdatenmanagement funktionieren?

Abgesehen von den Auswirkungen auf die Wissenschaftspraxis selber, wirft das Wachstum der Forschungsdaten und die Anforderung ihrer langfristigen Sicherung (Deutsche Forschungsgemeinschaft, 2009) wichtige Fragen für Bibliotheken und Bibliothekswissenschaft auf:
Werden Daten ein neues/das neue Arbeitsfeld für Bibliotheken?
Sind Daten im 21. Jahrhundert das, was Zeitschriften für das Bibliothekswesen im 20. waren?

Viele wissenschaftliche Bibliotheken adoptierten die Aufgabe, Forschungsdaten zu managen, persistent und abrufbar vorzuhalten. Aber braucht die Wissenschaft diese Dienste der Bibliotheken überhaupt? Die Physik kann darauf verweisen, solche Systeme selbst längst entwickelt zu haben. In der Klimaforschung gibt es das System der Weltdatenzentren seit den 1950er Jahren. In den Geisteswissenschaften werden riesige Infrastrukturen aufgebaut (vgl. www.clarin.eu, www.dariah.eu, www.textgrid.de) und die Theologie kann fragen, ob sie so etwas überhaupt benötigt oder ob nicht einfach das WWW reicht. Natürlich finden sich zahlreiche funktionierende Projekte.

Im Handbuch Forschungsdatenmanagement (Büttner, Hobohm & Müller, 2011) und dem Nestor-Handbuch zur Langzeitarchivierung von Forschungsdaten (Neuroth et al., 2012) spiegelt sich das Verständnis der beteiligten Bibliotheken wieder: Sie wollen die Einrichtung zum Managen von Forschungsdaten sein, auch wenn sie wissen, dass Forschungsdaten in unterschiedlichen Wissenschaftsfeldern Unterschiedliches bedeuten und sich damit in jedem Wissenschaftsfeld beim Organisieren von Forschungsdaten andere Fragen stellen und weitere Akteure des Informationsinfrastrukturbereichs an den Prozessen von Datenproduktion und Datenspeicherung beteiligt sein müssen. Die Bibliothekare wollen als Data Librarian oder Data Curator bereits bei der Entstehung von Forschungsdaten beteiligt sein. Sie wollen Standards definieren und durchsetzen.

Aber mit welchem Recht? Welche Rolle könn(t)en und soll(t)en Bibliotheken dabei spielen und an welcher Stelle des Forschungsprozesses müssen sie dazu verankert werden? Wie können sie ihr Rollenverständnis den Forschenden vermitteln? Wie soll die Ausbildung solcher Data Librarians aussehen? (Vgl. für ein Schema zu dieser Frage Harris-Pierce & Liu, 2012)

Die Ausgabe #23 der LIBREAS. Library Ideas möchte den gesamten Bereich von Forschungsdaten und Forschungsdatenmanagements betrachten.

Wie werden und wie sollten Forschungsdaten gemanagt werden?
Wo funktioniert es? Wo nicht? Wie verändert sich Wissenschaft tatsächlich?
Was will die Wissenschaft und was erwarten einzelne Forschende in Bezug auf Forschungsdaten genau?
Reden wir eigentlich noch von Bibliotheken oder von anderen, neu zu benennenden Einrichtungen?
Gilt das vierte Paradigma oder gilt es nicht? Ist das alles ein Hype oder wird es zum Kontinuum?
Wie bildet man Forschungsdaten in FRBR ab?
Welche Daten müssen bewahrt werden?
Welche können – wann? – gelöscht werden?
Wie nehmen die Forschenden die Bibliotheken wahr, wenn diese von Forschungsdatenmanagement sprechen? Clair (2012) zeigte, dass sie den Bibliotheken zumeist noch nicht einmal zutrauen, die Metadaten der institutionseigenen Homepages zu pflegen. Wieso sollten Wissenschaftlerinnen und Wissenschaftler dann begeistert davon sein, wenn Bibliotheken Forschungsdaten managen wollen?
Was passiert mit den Wissenschaftsfeldern, die weiterhin wenige Daten produzieren? Geht es, wie zum Beispiel Daniel Kaplan (2012) fragt, eigentlich noch um Wissen oder nur noch um grosse Datenmengen?
Was passiert mit den Daten, die nie jemand nutzt? Ist das ein eigener Wissensraum?
Was ist mit den Forschungsdaten unserer eigenen Wissenschaft?
Wer soll das alles bezahlen, insbesondere, wenn es weltweit zugänglich gemacht wird?

Und nicht zuletzt: Was sind eigentlich Forschungsdaten?

Wir suchen Beiträge, die Fragen im Zusammenhang mit dem Forschungsdatenmanagement und der Wissenschaftsentwicklung reflektieren oder die Praxis über Einzelfälle hinaus darstellen. Einsendeschluss für die LIBREAS-Ausgabe #23 ist der 31.05.2013 14.07.2013. Für Fragen steht die Redaktion gern zur Verfügung. Willkommen sind selbstverständlich weiterhin auch Beiträge, die andere Themenbereiche der Bibliotheks- und Informationswissenschaft sowie des Bibliothekswesens bearbeiten.

 Dezember 2012, Redaktion LIBREAS

Berlin, Bielefeld, Chur, Mannheim, Potsdam

Literatur

Büttner, Stephan; Hobohm, Hans-Christoph; Müller, Lars (Hrsg.) (2011). Handbuch Forschungsdatenmanagement. Bad Honnef: Bock + Herchen, 2011.

Clair, Kevin M. (2012). Metadata Best Practices in Web Content Management Systems. In: Journal of Library Metadata 12 (2012) 4, 362-371.

Deutsche Forschungsgemeinschaft (2009) Empfehlungen zur gesicherten Aufbewahrung und Bereitstellung digitaler Forschungsprimärdaten

Harris-Pierce, Rebecca L.; Liu, Yan Quan (2012). Is data curation education at library and information science schools in North America adequate?. In: New Library World 113 (2012) 11/12, 598-613.

Hey, Tony; Tansley, Stewart; Tolle, Kristin (edit.) (2009). The fourth paradigm: data-intensive scientific discovery. Redmond: Microsoft Research, 2009.

Kaplan, Daniel (2012). Big data, grande illusion?. In: Documentaliste – Sciences de l’information 49 (2012) 3, 10-11.

Neuroth, Heike; Strathmann, Stefan; Oßwald, Achim; Scheffel, Regine; Klump, Jens; Ludwig, Jens (2012). Langzeitarchivierung von Forschungsdaten: Eine Bestandsaufnahme. Boizenburg: vwh Verlag, 2012.

3 Antworten

Subscribe to comments with RSS.

  1. Walther Umstaetter said, on 13. Dezember 2012 at 08:04

    Die Fragen: „Werden Daten ein neues/das neue Arbeitsfeld für Bibliotheken?“
    „Sind Daten im 21. Jahrhundert das, was Zeitschriften für das Bibliothekswesen im 20. waren?“ sind insofern interessant, weil es eine fundamentale Erweiterung des bisherigen Bibliotheksauftrags wäre, wenn Bibliotheken nicht nur publizierte Werke sammeln und verfügbar machen würden, sondern alle Daten die in Forschung und Wissenschaft täglich anfallen. Seitdem wir datenverarbeitende Maschinen haben war klar, dass „Daten“ der Oberbegriff von Informationen, Redundanzen und Rauschen ist. Hier gibt es also noch sehr viel Spreu vom Weizen zu trennen. In diesem Sinne ist auch Tucholskys „Die Basis einer gesunden Ordnung ist ein großer Papierkorb.“ zu verstehen. Wissenschaft und Forschung sind selbstreinigende Vorgänge, bei denen das Wissen, als begründete Information (bzw. als apriori Redundanz), die Quintessenz dessen ist, was wir als wahr, richtig bzw. geprüft erkennen. Im Gegensatz zu all dem, was nur Noise, Irreführung und Fehlinformation ist. Der herkömmliche Reinigungsprozess bestand darin, das Wissenschaftler Daten sammelten, sie für sich nach verschiedenen Kriterien ordneten und umorganisierten, wesentliches herausarbeiteten, bis sie ihre Ergebnisse für publikationsreif hielten. Diese Ergebnisse, die zunächst meist in Zeitschriften erschienen, wurden dann in Monografien kritisch hinterfragt und zusammengefasst, um nach weiterer Prüfung Zugang zu Lehr- und Handbüchern zu finden.

    Heute, in der Big Science, in der das Wissen sozusagen am Fließband im Internet entsteht, werden immer mehr Daten in Gemeinschaft dokumentarisch gesammelt, geordnet und für bestimmte Zielgruppen verfügbar gemacht, damit die Teams in den jeweiligen Forschungsprojekten gemeinsam daran arbeiten können. Wie man szientometrisch erkennen kann, nimmt hier allerdings die Geheimhaltung (bis zur ersten Veröffentlichung) eher zu.
    1. um die Priorität und das Urheberrecht zu sichern.
    2. damit man sich mit Fehleinschätzungen bei abwegigen Hypothesen nicht lächerlich macht und sein Renommee aufs Spiel setzt.
    3. um prüfen zu können, welche Ergebnisse für die Allgemeinheit geeignet sind. (Von der Pharmaindustrie ist bekannt, dass sie ihre Forschungsergebnisse in Richtung Reklame filtert, und daher ihre Rohdaten weitgehend geheim hält.)

    Unbeschadet dessen gibt es auch Datensammlungen und Dokumentationen, die für sich als Publikationen erscheinen, damit sie zur Auswertung der Allgemeinheit zur Verfügung stehen. Sie waren und sind weiterhin Gegenstand des Sammelauftrags von Bibliotheken bzw. der Digitalen Bibliothek. Wir müssen also weiterhin zwei Arten von Dokumentationen unterscheiden, die publizierten und die geheimen, zu denen auch etliche Archive ghören.

    Walther Umstätter

  2. […] Den ausführlichen Call for Papers gibt es im LIBREAS-Weblog: Call for Papers: Forschungsdaten, Metadaten, noch mehr Daten. Forschungsdatenmanagement. […]

  3. […] #22 Recht und Gesetz eingereicht werden. Bis zum 31.05.2013 ist der Call for Papers für die Ausgabe #23 Forschungsdaten, Metadaten, noch mehr Daten. Forschungsdatenmanagement geöffnet. Die Themen der folgenden Ausgaben werden sich in Zukunft zeigen. Wir hoffen aber wie […]


Hinterlasse einen Kommentar