LIBREAS.Library Ideas

Call for Papers: Forschungsdaten, Metadaten, noch mehr Daten. Forschungsdatenmanagement

Posted in LIBREAS Call for Papers by libreas on 12. Dezember 2012

Call for Papers für die LIBREAS-Ausgabe #23
Thema:
Forschungs- und andere Daten sowie ihre Organisation und Rolle in Bibliothek und Wissenschaft
Einreichungsfrist: bis 31.05.2013 14.07.2013 19.08.2013
gewünscht sind: Beiträge, die Wechselwirkungen zwischen Wissenschaft, Daten und Bibliotheken reflektieren, annotieren, dekonstruieren und/oder analysieren
disziplinäre Einschränkungen: keine
Rückfragen: redaktion@libreas.eu

„Eine Forschung, die zunehmend durch die kooperative Tätigkeit weltweit vernetzter Communities und durch den Einsatz Computerbasierter Verfahren bestimmt ist, erfordert nun einmal die kontinuierliche und vor allem langfristige Verfügbarkeit von Publikationen und Forschungsdaten über das Internet. Nicht nur die Notwendigkeit, Forschungsergebnisse durch den Rückgriff auf die diesen Ergebnissen zugrunde liegenden Daten verifizieren zu können, sondern auch die produktive Nachnutzung von Forschungsdaten in anderen Kontexten setzt voraus, dass digital kodierte Information über Jahrzehnte hinweg authentisch verfügbar bleibt.“ (Matthias Kleiner. Vorwort. In: Heike Neuroth et al. (2012), S. 9)

„Die Basis einer gesunden Ordnung ist ein großer Papierkorb.“ (Kurt Tucholsky. In: Neue Leipziger Zeitung, 19.08.1930)

 

Wissenschaft produziert heute neben Erkenntnis vor allem immense Datenmengen. Die enorme Steigerung beruht in erster Linie auf der Entwicklung und Verfügbarkeit von Technologien zur Datenproduktion und -verarbeitung. leistungsstärkere Rechner und Messgeräte produzieren und vernetzen immer mehr Daten. Wo viele Daten sind, kommen fast naturgesetzlich immer noch mehr hinzu. Die Datenmengen, eines  Large Hadron Collider (LHC) in Genf sind derart umfangreich, dass sie nicht einmal mehr an einer zentralen Stelle gespeichert werden können, sondern auf das LHC Computing Grid verteilt werden müssen. Aber auch im Alltag entstehen immer mehr Daten „nebenher“, beim Surfen im Netz, beim Chatten, beim Taggen von Dateien usw. Nahezu jeder Klick erzeugt auch neue Daten.

Die Entwicklung führt zu umfassenden Änderungen der Wissenschaft, ihrer Methoden und besonders den Anforderungen an ihre Werkzeuge sowie an die Wissenschaftsinfrastrukturen. Datenintensive Forschung braucht angemessene Hilfsmittel. Physikerinnen und Physiker, die mit Daten aus LHC-Experimenten arbeiten wollen, müssen lernen, Daten aus dem Grid zusammensammeln und auszugeben. Sozialwissenschaftlerinnen und -wissenschaftler, die theoretische Modelle zum Zusammenhang von Hochschulsystem und Städteplanung über mehrere Staaten hinweg testen wollen, können dafür auf eine umfassende Datenlage zurückgreifen. Sie müssen aber diese kennen, finden und weiterverarbeiten können.

Angesichts dieser empirischen Wende könnte das Testen theoretischer Modelle bald der Vergangenheit angehören. Jim Gray formulierte die These, dass wir in die Zeit des vierten Forschungsparadigmas eintreten würden. (Hey, Tansley & Tolle, 2009) Die Forschungsdatenbestände würden zu groß werden, um überhaupt noch anders als mit explorativer Statistik, also einer Art Datenhermeneutik, auswertbar zu sein. Ob dies für alle Wissenschaften zutrifft, ist offen.

Folgerichtig wird die Bedeutung von langfristig und offen verfügbaren Forschungsdaten für den Forschungsprozess immer stärker betont. Man entwirft Systeme, die die Reputation einer Forscherin, eines Forschers an die erstellten Daten binden sollen. Diese Diskussion überdeckt eine andere Wahrheit: Immer noch sitzen die Theologinnen und Theologen an ihren Schreibtischen und produzieren nicht viel mehr Daten als in den Jahrhunderten zuvor. Sie benutzen aber möglicherweise zunehmend digital vorliegende Quellen. So geht es vielen Disziplinen: Einige, wie die Physik oder die Klimaforschung, erzeugen permanent riesige Datenmengen. Bei anderen ist vielleicht nicht das Wachstum der eigens produzierten Datenmengen überwältigend. Wohl aber die Zahl der durch die Digitalisierung direkt abrufbaren Datenbestände. Um diese ordentlich zu nutzen, sind adäquate Erschließungs- und Vermittlungsverfahren sowie Werkzeuge notwendig.

Wie soll Forschungsdatenmanagement funktionieren? (more…)

Advertisements