Wo beginnt die Vorgeschichte der Digital Humanities und was kann man aus ihr lernen?
Eine Notiz zu
Marcus Twellmann: »Gedankenstatistik« Vorschlag zur Archäologie der Digital Humanities. In: Merkur, 797 (Vol.69, Oktober 2015). S. 19-30
von Ben Kaden (@bkaden)
I.
Vermutlich ist es das Zeichen einer Reifung, wenn für ein junges Forschungsfeld, zum Beispiel die Digital Humanities, einerseits eine Art Geschichtsschreibung einsetzt und dies andererseits in Publikumszeitschriften geschieht. Der Merkur – Subtitel „Deutsche Zeitschrift für europäisches Denken“ – gehört traditionell zu diesen leider in der Zahl eher geringen Titeln, die den Überschlag von einer geistes- und kulturwissenschaftlichen Fachöffentlichkeit hin zu einer an intellektuellen Themen interessierten allgemeinen Öffentlichkeit regelmäßig schaffen. Es handelt sich buchstäblich um eine Zeitschrift, denn es werden die Themen der Zeit be- und aufgeschrieben und wenn man beispielsweise Jürgen Habermas‘ Artikel zu Moral und Sittlichkeit aus der Dezemberausgabe 1985 nachliest, staunt man, wie trotz aller beschworenen Verkürzung von Halbwertszeiten des Wissens bestimmte ideengeschichtliche Phänomene erstaunlich geltungsstabil bleiben können.
Ob dies ähnlich auch für Marcus Twellmanns Text zur Archäologie der Digital Humanities aus der Oktoberausgabe des Jahres 2015 gelten wird, werden wir erst 2045 beantworten können. Die Chancen stehen aber nicht schlecht, denn der Konstanzer Kulturwissenschaftler nähert sich dem Phänomen bereits historisch und zwar aus einer methodengeschichtlichen Perspektive. Ist Pater Roberto Busa mit seiner computergestützten Aquin-Erschließung der Nukleus der Digital Humanities bzw. des Humanities Computing? Nicht unbedingt, meint Twellmann. Und schlägt vor:
„Betrachten wir solche humanwissenschaftlichen Formationen als protodigital, die auf einer mathematischen Verarbeitung numerischen Daten basierten und Verfahren hervorbrachten, die später computertechnisch implementiert werden konnten.“
En Vague? Ein Beitrag zur Methodendiskussion in der Bibliothekswissenschaft.
Ein Kommentar von Ben Kaden
Die Frage nach der wissenschaftlichen Methode in der Bibliothekswissenschaft ist in gewisser Weise die Urdebatte des Fachs und wer sich dafür interessiert, findet in der morgigen Ausgabe des Berliner Bibliothekswissenschaftlichen Kolloquiums am Institut für Bibliotheks- und Informationswissenschaft der Humboldt-Universität möglicherweise die Gelegenheit, an der Fortsetzung selbiger teilzuhaben. Vier etablierte Protagonisten des Fachs – Simone Fühles-Ubach, Petra Hauke, Michael Seadle, Konrad Umlauf – präsentieren das Handbuch Methoden der Bibliotheks- und Informationswissenschaft (Berlin: DeGruyter, Mai 2013, Verlagsseite zum Titel, Inhaltsverzeichnis als PDF). LIBREAS wird sich sicher dem Titel nach Möglichkeit ausführlicher widmen und widmen müssen. Allerdings liegt er uns noch nicht vor.
Verfügbar ist jedoch ein Blogbeitrag des Mitherausgebers Michael Seadle, den dieser zu Beginn des Monats in seinem Weblog Digital+Research=Blog publizierte. Vermutlich nicht ohne Schnittmenge zu seinem Beitrag im erwähnten Handbuch (Entwicklung eines Forschungsdesigns) formuliert er dort eine kleine Handreichung Finding a research question.
Wer seine Veranstaltungen am Institut kennt, weiß, dass für ihn als Bibliothekswissenschaftler völlig zu Recht die Methode und die Forschungsfrage im Zentrum der wissenschaftlichen Arbeit stehen. Besonders gilt dies für Abschlussarbeiten und Promotionen. Leider tut er dies offensichtlich nicht nur völlig zu Recht, sondern erachtet es auch als völlig zureichend für die wissenschaftliche Arbeit. Er unterscheidet sich damit jedoch in einem zentralen Aspekt wesentlich von dem, was ich für die Wissenschaft Bibliothekswissenschaft als entscheidend erachte.
Zu Beginn seines Blogpostings schreibt Michael Seadle:
„Many students start with a topic that they would like to research. This is natural, but in some ways secondary to the process of scholarly writing.“
Am Ende betont er:
„The topic matters only in so far as data are available and the research method can reasonably apply. Topics are temporary and can change with the seasons. Good research questions grow ultimately out of the intersection of scholarly methods and quality data. „
Beides verweist auf eine erhebliche Reduktion der Rolle von Wissenschaft, die sich einzig nach einer schematischen Durchführbarkeit richtet. Das Thema ist – bestenfalls – nachgeordnet, weitgehend austauschbar und ergibt sich in jedem Fall von selbst.
Steht einmal eine Methode („In graduate school I settled on a set of ethnographic tools, which I have used and reused over the decades.“), dann kann man jeden verfügbaren Datensatz damit durchpflügen. Die Forschungsfrage ergibt sich von selbst und sollte möglichst geradlinig beantwortbar sein:
„The best research questions for a thesis are ones with a straightforward answer. I generally recommend a yes/no question, or one that has a quantitative answer, or one that is a choice among reasonable alternatives. These are not the only possible research questions, but questions involving complex issues about „why“ or even „how“ tend to be beyond the scope and experience of even the cleverest doctoral students. The virtue of a yes/no type question is that the student can make a clear choice. A thesis with a vague answer is not a contribution to knowledge, while even a very narrowly stated and highly qualified yes/no answer can be a reasonable step forward.“
Man kann dies durchaus als praktikable Lebenshilfe für den herausgeforderten Promovenden verstehen. Es führt aber gerade in einen Zustand, der für mich exakt nicht der Sinn einer wissenschaftlichen Tätigkeit im 21. Jahrhundert sein kann. Nämlich in ein Funktionshandeln, in einen angepassten und schematischen Wissenschaftsvollzug, in dem ein selbstkritisches Hinterfragen genauso wenig verankert ist, wie eine auf übergeordnete Kontexte der gesellschaftlichen Wirkung von Wissenschaft gerichtete Reflexion.
Michael Seadle schreibt selbst und zutreffend:
„Having a method means absorbing a way of thinking.“
und scheint kein Problem darin zu sehen, dass die absorbierende Anpassung an bestimmte Denkstile (also gerade nicht kritische Elaboration und Anerkennung) die Handlungsweise ist, die zu Ideologisierungen führt. Damit ist – siehe die Frage des „Topics“ oben – nicht einmal an inhaltlichen oder wertspezifischen Aspekten orientierte, sondern eine reine Formalideologie gemeint. Nach meinem Verständnis ist die Aufgabe der Wissenschaft aber gerade der Versuch, jede Form von Ideologisierung, auch die der Funktionalisierung, und den daraus entstehenden Folgen, zu unterlaufen.
Wissenschaftshandeln ist für mich entsprechend politisches und wertorientiertes Handelns in dem Sinne, dass es nicht nur auf die eigene interne Stimmigkeit und das Funktionieren in diesen geschlossenen der Institute und Fachcommunities begrenzt ist, sondern mit jeder Forschungsfrage auch die Richtungsfrage stellt: Wie wirkt das, was ich erarbeite, auf die Gesellschaft, als deren Teil ich handele und – auch das und nicht nur ökonomisch gesehen – in deren Dienst ich stehe und für die ich, in dem ich die von mir übernommene Rolle des wissenschaftlichen Tätigseins auch Verantwortung trage?
Während Bibliotheken als Institutionen ganz offensichtlich ihre gesellschaftliche Aufgabe ohne Berührungsängste thematisieren, liegt nach meiner Beobachtung die große Schwäche der Bibliotheks- und auch der Informationswissenschaft in Deutschland darin, dass sie zu weit von der sie umgebenden gesellschaftlichen Umwelt entkoppelt, agieren.
Dass man den Studierenden des Faches ihr wissenschaftliches Handeln auf die Ideallinie der Binärmuster verengt (yes/no) und zudem die epistemologisch unhaltbare These präsentiert, dass Vagheit, nicht zu verwechseln mit Beliebigkeit und eher synonym mit Offenheit, sowie dem Eingeständnis, dass Unschärfe zu komplexen Systemen und ihrer Betrachtung unvermeidlich gehört, keinerlei Belang für die Wissenskultur haben kann, erscheint mir jedenfalls nicht angemessen für eine zeitgemäße Bibliothekswissenschaft. Offen gesagt sogar eher als schädlich.
Allerdings vertraue ich auf die Weltgewandtheit und Intellektualität der Studierenden dieses Faches und darauf, dass sie der wissenschaftlich nicht untypischen Tendenz einer kritischen Opposition zu ihren Lehrern folgen. Das Entscheidende ist dabei sicherlich, wie der Ausbildungsapparat mit seiner systemgemäßen Asymmetrie der Machtverteilung bereit ist, von den Leitlinien – zum Beispiel den Michael Seadle’schen – abweichendes Denken anzuerkennen. Einer dynamischen und lebendigen Disziplin wäre jedenfalls anzuraten, die Außenposten ihres Denkens mindestens genauso zu fördern, wie den linientreuen Forschungsmainstream.
Mir teilte Michael Seadle übrigens einmal für eine Arbeit bei ihm mit, dass es für ihn auch die Derrida’sche Dekonstruktion als Methode akzeptabel wäre. So ganz habe ich mich dereinst trotz des Reizes (glücklicherweise) noch nicht darauf einlassen wollen. Auf eine bestimmte Art scheint mir aber die Dekonstruktion von Selbstverständlichkeiten genau das zu sein, was die Bibliothekswissenschaft als Methode vor dem Hintergrund der Verwandlung ihres Gegenstandes benötigt. Auch wenn am Ende erfahrungsgemäß kein Entweder-Oder, sondern ein Sowohl-als-Auch und ein Nicht-Fisch-nicht-Fleisch und in jedem Fall keine einfache, klar unterscheidbare, in Methodenzwänge formalisierbare Wahrheit stehen wird.
(27.05.2013, @bkaden)
Anmerkung: Namentlich gekennzeichnete Beiträge in diesem Weblog geben ausschließlich die Meinung der jeweiligen Autoren wieder.
Einen Schritt weiter. Jan Hodel zur „Groebner-Kontroverse“ und was die Bibliothekswissenschaft daraus ableiten sollte.
von Ben Kaden
Im Weblog histnet erschien heute ein Text von Jan Hodel (Die Groebner-Kontroverse. Oder: Zu Sinn und Unsinn von Wissenschaftsblogs. In: histnet. 11.02.2013) zur mittlerweile offenbar so genannten Groebner-Kontroverse. Muss man ihn lesen? Ich denke, man sollte. Denn Jan Hodel nimmt im Bemühen um eine konstruktive Auseinandersetzung mit den Aussagen Valentin Groebners eben auch die Möglichkeiten zum Umgang mit dem Problem „Muss ich das alles lesen?“ in den Blick. Er verweist dabei unter anderem auf die Funktion sortierender und filternder Akteure in der wissenschaftlichen Kommunikation:
„Intermediäre Instanzen, wie sie etwa Redaktionen darstellen, dienen auch der Entlastung der beteiligten Individuen durch Arbeitsteilung. Damit wir nicht alles selber verifizieren und überprüfen, oder auch nur zusammensuchen und im Hinblick auf seine Bedeutsamkeit im wissenschaftlichen Diskurs beurteilen müssen, nutzen wir intermediäre Instanzen, die diese Aufgaben für uns übernehmen. Dies hilft uns, das rare Gut der Aufmerksamkeit gezielter einzusetzen. Ob solche intermediären Instanzen in Zukunft im Stile fachredaktioneller Expertise, dank schwarmintelligenten Zusammenwirkens von adhoc-Kollektiven oder computergestützt mithilfe elaborierter Algorithmen agieren werden […] scheint mir völlig offen.“
Das ist sowohl für die newlis-Überlegungen wie auch natürlich für uns bei LIBREAS bedeutsam. Die bei ihm skizzierte Typologie der Intermediären verweist auf drei Konzepte:
- ein traditionell redaktionelles der intellektuellen Vorauswahl durch Experten (wie wir es bei Fachzeitschriften, in Editorial- und Peer Review-Verfahren, Herausgeberschaften u.ä. finden),
- ein auf Netzwerk- und Hinweiseffekte und Post-Peer-Review-Prinzipien setzendes, dass auch auf Multiplikationseffekte über Social Media setzt,
- automatische Filterverfahren, die von Algorithmen basierten SDI- und Monitoring-Diensten bis hin zu (z.B. webometrischen) Impact-Kalkulationen reichen.
Der Bezug auf die grundsätzliche Unabsehbarkeit der zukünftigen Etablierung eines dieser Ansätze wäre für die Bibliothekswissenschaft allerdings ein zu einfacher und daher inakzeptabler Ausstieg. Denn das Potential für eine bibliothekswissenschaftlich elaborierte Unterstützung von Wissenschaftskommunikation über die Spekulation hinaus wird in diesem Kontext sofort deutlich.
Besonders, wenn man davon ausgeht, dass die Informationsfilterung und -vermittlung in der Wechselwirkung von Mensch und Maschine differenziert entwickelt werden muss, zeigt sich hinsichtlich der Punkte zwei und drei die Notwendigkeit einer Kombination dreier Methodologien als nahliegend, die in diesem Fach eine Rolle spielen (bzw. spielen sollten): Die Soziale Netzwerkanalyse, die Diskursanalyse und die Bibliometrie. In der Kombination lassen sich auf eine solchen Basis Analysestrukturen mit nahezu unbegrenzter Komplexität entwickeln. Wo schließlich die Grenzen zu ziehen und der Komplexität zu setzen sind, ist Sache der Konkretisierung, Ausentwicklung und Implementierung. An diesem Punkt sind wir in unserem Fach leider noch nicht, denn soweit ich sehe, verhandelt man derzeit überhaupt erst eine in diese Richtung weisende Forschungsagenda.
Wenn also Jan Hodel aus der Perspektive des Historikers schreibt:
„Doch wie genau sich dies vollziehen wird und welche konkrete Bedeutung für unseren jeweiligen Wissenschaftsalltag dies haben wird, darüber kann im Moment nur spekuliert werden.“
dann sehe ich den Ball (nicht nur) in die Dorotheenstraße rollen und die Verpflichtung, für die Bibliotheks- und Informationswissenschaft diesen aufzunehmen und vielleicht nicht unbedingt die Lösung aber in jedem Fall den Nachweis einer wissenschaftlichen, d.h. systematischen Auseinandersetzung mit diesem Problem zu präsentieren. Es handelt sich hier nicht um ein Naturgeschehen sondern um eine – zugegeben nicht wenig komplexe – Ausdifferenzierung der Verfahren, Möglichkeiten und Praxen wissenschaftlicher Kommunikation. Dies ist ein Gestaltungsprozess, in dem diverse Akteure vom Wissenschaftler über die Bibliotheken bis zu Verlagen, Social Media-Unternehmen, Hardware- und Suchmaschinenanbietern mit teilweise auseinanderdriftenden Interessen interagieren. Auf die Gestaltung können wir durchaus Einfluss nehmen und sei es nur, indem wir sie strukturiert ent- und aufschlüsseln und abbilden. Für die Bibliotheks- und Informationswissenschaft, die zweifelsohne eine große Expertise genau in diesen Fragen besitzt, ist die aktive Teilhabe an diesem Prozess über ein Mitspekulieren hinaus keine Option, sondern eine Verpflichtung. Das Forschungsprofil des Faches ist hier nämlich (wenigstens aus meiner Sicht) exakt die kritische Begleitung und Analyse des: „wie genau sich dies vollziehen wird und welche konkrete Bedeutung für [den] Wissenschaftsalltag dies haben wird.“
(Berlin, 11.02.2013)
Activity Theory und Cognitive Work Analysis – holistische Ansätze in der Informationswissenschaft
[…] the number of LIS researchers who embark on use studies with contextual and holistic approaches is climbing up steadily, if gradually.“ (Raya Fidel 2012, S.37)
von Christoph Szepanski
Was kann Informationswissenschaft sein?
Auch im Jahr 2012 positioniert man sich zur Gegenwart und Zukunft der Informationswissenschaft wie beispielsweise die Texte von Michael Buckland, Blaise Cronin, Ben Kaden und Karsten Schuldt dokumentieren.
Buckland verortet die Informationswissenschaft vor allem im Themenfeld „Lernen“.
Er betrachtet Information in seiner Forschung aus der Warte dessen, wie Menschen mit ihr umgehen. (hier: information-as-thing). Dabei spricht er klassische informationswissenschaftliche Felder wie das Informationsverhalten oder das Personal Information Management (PIM) an und liefert obendrein einen überblicksartigen Beitrag zum täglichen Umgang mit den verschiedenen Wissenszuständen. Seine Perspektive auf Sinn und Nutzen der Informationswissenschaft als Wissenschaft der Aufklärung des Menschen ist dagegen interessanter:
„Enabling people to become better informed (learning, becoming more knowledgeable) is, or should be, the central concern of information studies and information services are, in practice, more directly concerned with knowing about than with knowing how or knowing that.“ (2012, S. 5)
Zweck der Informationswissenschaft ist demzufolge die Vermittlung von Fähigkeiten zur Nutzung von Information und zum Erwerb von Wissen, also Informationskompetenz und Methoden- bzw. heuristischer Kenntnis.
Cronin widmet sich dem wissenschaftlichen Wirkungsgrad der Informationswissenschaft. Für ihn beginnt sich die Disziplin den Schleier eines „Orchideenfaches“ abzulegen und im akademischen Mainstream zu etablieren.
Das wertet er erwartungsgemäß als positiv, denn so würde die Informationswissenschaft nicht mehr länger eine eigene isolierte Wissenschaftsdisziplin darstellen, denn die Stärke des Fachs, so Cronin, war seit jeher Interdisziplinarität. Die Forschungen in Feldern wie Informatik und Management wurden durch informationswissenschaftliche Expertise traditionell angeregt. Häufig jedoch handelte es sich dabei um eine implizite Wechselwirkung. Wichtig ist hingegen auch, um zur Stärkung der Position des Faches beizutragen, dass diese Interaktionen sichtbarer, die Standpunkte klarer und die tatsächliche Rolle der Informationswissenschaft deutlicher werden.
Die instabile methodologische Eigenständigkeit und das nur eingeschränkte intrinsische Interesse an einer aktiven Interdisziplinarität sind die Defizite des Faches, die Kaden und Schuldt im Rahmen eines Informare-Workshops mit Vertretern des Fachs sowie der Informationspraxis erkannt haben (vgl. 2012, S. 97).
Neben den von den beiden Autoren gebrachten Beispielen der Informationskompetenz und Leseförderung und damit einhergehend der mangelnden Berücksichtigung der Wissensbestände anderer Disziplinen – also hier speziell der Pädagogik – trifft dieser Umstand wohl auch auf weitere Felder zu, z.B. die ungenügende Berücksichtigung von Erkenntnissen aus dem Interface Design, welche für die Konzeption von Digitalen Bibliotheken oder Virtuellen Forschungsumgebungen sicher hilfreich wären.
Zu ergänzen wäre, eine immer wiederkehrende reduktionistische und in meinen Augen oft genug auch anachronistische Herangehensweise an Problem- oder überhaupt Fragestellungen. Nämlich, dass man sich mit viel Aufwand und nicht selten einiger Verkrampfung insular an Teilproblemen mehr oder weniger aufreibt und dabei das Gesamtgefüge mit seinen Wechselwirkungen kaum berücksichtigt. Erfahrungsgemäß ist die Lösung des Problems oft mehr als die Summe der einzelnen Teile. Wo Einzellösungen inkompatibel sind, lassen sie sich oft nicht einmal mehr zueinander addieren.
Daher gilt es, Methoden für die Sichtbarmachung vorher unbekannter, eventuell weitaus komplexerer, d.h. nichtlinearer Variablen zur Problemlösung heranzuziehen. Informationswissenschaftlich kann es meiner Ansicht nach nicht das Ziel sein, Komplexität durch das Ausklammern von Bereichen reduzieren zu wollen, sondern vielmehr, diese zu differenzieren, zu strukturieren und als Gesamtheit anzunehmen, kurzum nutzbar zu machen.
Holistische Ansätze
In der anglo-amerikanischen und skandinavischen LIS lässt sich seit einiger Zeit der Trend beobachten, dass immer mehr Informationswissenschaftler dazu übergeben sich disziplinnahen Problemen aus einer holistischen Perspektive anzunähern. Im Folgenden will ich die Frameworks Activity Theory und Cognitive Work Analysis kurz vorgestellen.
Ausgangspunkt dieser Ansätze ist die Erfahrung, dass Probleme und Phänomene in der Informationswissenschaft oftmals aus einem erheblich verengten Blickwinkel betrachtet werden. Daraus ergeben sich dann sowohl bei den Problemlösungen wie auch bei der Produktentwicklung (wie OPACs, ViFas oder Informationskompetenzschulungen) grundsätzliche Defizite, die für beide Seiten – Nutzer sowie Anbieter – unbefriedigend wirken müssen, da sie zu wenig kontextualisiert und häufig unzulänglich in den Ist-Zustand des zugrundeliegenden Systems (einschließlich der Organisation, z.B. einer Bibliothekseinrichtung) eingebettet wurden.
Abbildung 1: Research object of information science and the triangle of activity theory (Roos 2012)
Ein weiterer Grund für die Unzufriedenheit mit den Ergebnissen bzw. Bibliotheksprodukten ist deren normative Modellierung (Fidel 2012, S.189). Normativ ist die Modellierung immer dann, wenn die Benutzung eines Dienstes, bspw. eines Retrieval-Werkzeuges, sehr eng begrenzt wird. Wenn also der Benutzer seine Nutzungsbedürfnisse erheblich an die limitierten Möglichkeiten des Systems anpassen muss und sie im Kern nicht befriedigen kann.
Viele Dienstleistungssysteme sind nach wie vor allzu oft an Vorlieben (manchmal auch schlicht an die Leistungs- und Entwicklungskompetenzen) von Bibliothekaren und Entwicklern angepasst und lassen alternative Wege zur Erreichung des Ziels nicht zu. Dies führt konsequenterweise zu Unzufriedenheit, einerseits weil der Nutzer sich im System nicht so bewegen kann wie er es möchte und andererseits zu Unzufriedenheit bei den Anbietern, weil die Nutzer nicht so zu suchen bereit sind, wie man es vorgegeben hat. Die menschliche Neigung, sich Fragestellungen mit einer Mischung aus Neugier und Entdeckungstrieb eigenheuristisch und explorativ anzunähern wird in der Regel kaum bedient. Im Social Media-Bereich haben kommerzielle Anwender durchaus Mittelwege gefunden, welche besonders die Serendipity ansprechen. Allerdings entsprechen diese wiederum kaum der Rigorosität hinsichtlich der Datenqualität, wie sie von Bibliotheken berechtigt eingefordert wird. Es wird die Aufgabe von künftigen Discovery-Systemen sein, dass Beste aus diesen beiden Welten zusammenzuführen.
Social Media zeigt, wie erfolgreich und zugleich konzeptionell einfach so genannte formative Modelle wirken. Sie stellen lediglich den Rahmen der Anwendung. Jeder kennt dieses Prinzip von den beiden populärsten Betriebssystemen für Smartphones oder auch von Webbrowsern, indem man das Basispaket per Apps und Widgets beinahe beliebig personalisieren kann. Hinter dieses Benchmark sollte eigentlich keine Entwicklung mehr fallen.
Die Activity Theory und Cognitive Work Analysis sind hierbei zwei durchaus interessante, jedoch keinesfalls neue Verfahren, um sich Komplexität über detailreiche Kontextualisierung nutzbar zu machen und nach erster Einschätzung durchaus geeignet, das dem Kontextbegriff innewohnende „unruly beast“ (Dervin 1997) für unsere Domäne zu zähmen.
Die Verwendung der Activity Theory und der Cognitive Work Analysis gilt als zeitintensiv und damit auch teuer.
Die Ergebnisse sind in Relation dazu häufig nicht generalisierbar, dafür jedoch auf den Einzelfall zugeschnitten, was innerhalb einer dienstleistungsorientierten Informationsbranche nicht unbedingt von Nachteil sein muss.
Einer auf Kosten-Nutzen-Relation abzielenden Argumentation ist sicher zuzustimmen, sofern man die Entwicklung und Evaluation von Dienstleistungen zur Unterstützung des Lernens als einmalige Angelegenheit begreift. Nur betrachtet man dann auch menschliches Handeln als statisch und vorhersehbar. Daher kann man auch nicht angemessen reagieren, wenn Problemstellungen innerhalb des gewählten Fokus erst nach einiger Zeit, mitunter emergent, an die Oberfläche treten, sich also dynamisch-nichtlinear verhalten.
Dass jedoch menschliche Aktivitäten im Umgang mit Informationsobjekten weitgehend dynamisch sind und sich kontinuierlich fortentwickeln, bewies die Activity Theory aufgrund der historischen Bezugnahme auf kulturelle Phänomene. Sie wird deshalb häufig auch als Cultural Historical Activity Theory (CHAT) vorgestellt .
Diese Sichtweise wird letztlich auch für das Konzept des Embedded Librarian interessant. Will er nämlich gute Betreuungsarbeit leisten, so muss er dies im regelmäßigen nicht allzu weit auseinanderliegenden Turnus und konkret an den sich im Forschungs- und Erkenntnisprozess verschiebenden Sachverhalten und Informationsbedarfen tun. Der Kontext verändert sich permanent und macht es daher notwendig, dass die dazugehörigen Bibliotheksdienstleistungen diese Änderungen angemessen berücksichtigen.
Raya Fidel (2012, S.213) erwähnt die Activity Theory explizit, wenn sie mögliche disziplinübergreifende Kollaborationen hinsichtlich eines besseren Verständnis des Informationsverhaltens in konkreten Arbeitssituationen erörtert. Hinter der ursprünglich von Rasmussen, Pejtersen und Goodstein (1994) entwickelten Cognitive Work Analysis steht die Vermutung, dass Informationssysteme effizienter sind, wenn sie die Umwelt der jeweiligen Informationsarbeit und die eigentliche Aufgabe der Arbeitskraft berücksichtigt. Der Akteur wird an dieser Stelle durch sein konkretes Handeln, wobei hier kognitive Tätigkeit vorrangig mit dem Ziel eines Entscheidens gemeint ist, und den sich aus diesem ergebenden Informationsbedürfnissen sichtbar. Das Handeln wird dabei durch den Handlungszusammenhang, also wenn man so will den kognitiven Kontext, vorbestimmt. (vgl. Fidel S.225).
Jene kognitiven Handlungen konkretisiert Fidel wie folgt:
„Cognitive work analysis (CWA) considers as „cognitive work“ any activity that requires decision making. Thus, the academic activities of elementary school students, patient`s management of their medical treatment, and engineers´design of artifacts are all examples of cognitive work. Being a work-centered approach, CWA focusses on the cognitive work itself, regardless of the specific individuals who carry it out.“ (Fidel 2012, S.225)
Insbesondere vor dem Hintergrund, Lösungen zur Bewältigung der Informationsflut und ebenso Anwendungen zu entwickeln, welche die Erkundung und Neukontextualisierung von (vermeintlich bekannten) Datenwelten ermöglichen könnten (vgl. Szepanski 2012) ist eine Äußerung Hollnagel und Woods besonderes relevant:
„The focus of [cognitive systems engineering] is how humans can cope with and master complexity of processes and technological environments, initially in work contexts but increasingly also in every other aspect of daily life“. (Hollnagel and Woods 2005, S.1)
Letztlich führt mich dies auch wieder zurück auf die vom Kaden und Schuldt aufgeworfene Ausgangsfrage, welche Art Wissenschaft wir letztlich sein wollen: eine Wissenschaft die aus einer interdisziplinären und gern auch holistischen Perspektive heraus auf unser Kernthema rund ums Lernen im Sinne einer bildungsunterstützenden Wirkung (vgl. Kaden und Kindling 2007) blickt oder sich weiterhin oft genug mittels reduktionistischen Konzepten lediglich um (informationstheoretische) Teilprobleme des großen Ganzen kümmert?
So eindeutig diese Antwort (meinerseits) auch ausfällt, so soll hier abschließend auf die ebenso spannende Frage verwiesen werden, aufgrund welchen Mechanismen sich das Fach in diese isolierte und isolierende Praxis hinein manövrierte.
Potsdam, 27.12.2012
Literatur:
Buckland, Michael (2012): What Kind of Science Can Information Science be?. In: JASIST, 63 (1). S.1-7. Online verfügbar unter: 10.1002/asi.21656.
Cronin, Blaise (2012):The waxing and waning of a field: reflections on information studies education. In: Information Research, 17 (3) paper 529. Online verfügbar unter: http://InformationR.net/ir/17-3/paper529.html
Dervin, Brenda (2003): Given a Context by Any Other Name: Methodological Tools for Taming the Unruly Beast. In: Dervin, Brenda, Formenan-Wernet, L. und Lauterbach, E. (Hrsg.): Sense-Making Methodology reader: Selected writings of Brenda Dervin. Cresskill, Nj : Hampton Press. S.111-132.
Fidel, Raya (2012): Human Information Interaction: An Ecological Approach to Information Behavior. Cambridge [u.a.] : MIT Press.
Hollnagel, Erik; Woods, David D. (2005): Joint Cognitive Systems: Foundations of cognitive systems engineering. New York : Taylor and Francis.
Kaden, Ben; Schuldt, Karsten (2012): Welcher Art Wissenschaft soll die (Bibliotheks- und) Informationswissenschaft sein? Ein Workshop-Bericht. In: LIBREAS.Library Ideas, Jg. 8, H. 2 (21). Online verfügbar unter: http://edoc.hu-berlin.de/docviews/abstract.php?lang=&id=39654.
Kaden, Ben; Kindling, Maxi (Hrsg.) (2007): Einleitung: ‚Soziale Bibliotheksarbeit‘. In: Zugang für alle: Soziale Bibliotheksarbeit in Deutschland. Berlin: BibSpider. S.13-33.
Rasmussen, Jens; Pejtersen, Annelies Mark; Goodstein, L.P. (1994): Cognitive Systems Engineering. New York : Wiley.
Roos, Annikki (2012): Activity theory as a theoretical framework in the study of information practices in molecular medicine Information Research, 17(3) paper 526. Online verfügbar unter: http://InformationR.net/ir/17-3/paper526.html
Szepanski, Christoph (2012): VisInfo – oder was ist eine Volldatensuchmaschine? Online verfügbar unter: http://datacreativity.fh-potsdam.de/2012/11/visinfo-volldatensuchmaschine/
Ordnung ist das halbe Lesen. Zu Mikko Kuorinkis Variation über Foucault.
Rezension zu: Mikko Kuorinki (2012): The Order of Things: An Archaeology of the Human Sciences. Karlsruhe: Mark Pezinger Verlag.
von Ben Kaden
Bis auf das Buch „Das Totenschiff“ segelte B. Traven an meiner Lektürebiografie fast spurlos vorbei. Aber irgendwie auch nicht. Denn eine meiner angenehmsten Tätigkeiten zur Entspannung des manchmal etwas von alltäglicher Betriebsblindheit geprägten Blicks während meiner Tätigkeit als studentischer Mitarbeiter in der Saur-Bibliothek des Berliner Instituts – damals noch nur – für Bibliothekswissenschaft, war das Herumstöbern in der teils doch sehr wunderlichen Zusammenstellung des dort vorgehaltenen Programms des Saur-Verlags. Einer meiner Lieblingstitel wurde Joachim Dietzes B. Travens Wortschatz [1]. Auch wenn ich also B. Travens Worten weitgehend fremd gegenüber stehe, so sind mir doch seine Wörter vertraut. Joachim Dietzes Arbeit ist nämlich ein so genanntes Frequenzwörterbuch, welches sämtliche von B. Traven verwendete Wörter nach Schaffensperioden auf etwas mehr als 700 Seiten listet. Das liest sich nicht mitreißender als ein Telefonbuch, aber dank Rückbezug zu einem konkreten Autor und seinem Werk doch aufregender als der Duden. Von den jeweiligen Handlungsverläufen erfährt man natürlich nichts, aber erstaunlicherweise ergibt sich aus dem aufmerksamen Durchblättern des tabellarisch nach Häufigkeit aufgeschlüsselten Wortschatzes durchaus ein grober Eindruck, worüber der Schriftsteller wie schrieb.
Sich mit Sinn und Zweck derartiger Erschließungen auseinanderzusetzen ist Gegenstand einer literaturwissenschaftlich orientierten Linguistik. Hilfreich sind Frequenzanalysen vor allem für Fragestellungen einer quantitativen Literaturwissenschaft, die sich auch mit Wortschatzauffälligkeiten und Verschiebungen im Vokabular befasst.
Einem Betrachter ohne Bezug zu solchen Erkenntnisverfahren erscheint die Vorstellung, ein Textwerk derart aufzulösen und zu -listen dagegen verständlicherweise wahlweise als spleenig, absurd oder frevelhaft.
Bibliotheks- und Informationswissenschaftler sehen schließlich darin möglicherweise wichtige Vorarbeiten einer literaturwissenschaftlichen Semiometrik, die für semantische Netze und Ontologieentwicklung nützliche Grundlagen legen kann.
Wie Joachim Dietze methodisch vorging, ist mir nicht bekannt und das Buch liegt mir auch nicht mehr vor, um in einer eventuellen Vorbemerkung entsprechend nachzulesen. Auch inwieweit Volltextkorpora wie Google-Books semiometrische Verfahren elaborieren vermag ich nicht genauer abzuschätzen und für entsprechende Hinweise bin ich immer dankbar. Der N-gram-Viewer[2] lässt jedoch vermuten, dass dort Ansätze dieser Art keine geringe Rolle spielen. Eher darüber hinaus, wie sich derartige Verfahren als Werkzeuge auf Digitale Geisteswissenschaften appliziert denken lassen.
Eine Schwierigkeit bleibt freilich bestehen. Denn man besitzt zwar im Idealfall Korpus, Methode und Analysetechnik. Der Zweck, also das Erkenntnisziel, dieses „how (not) to read a million books“[3] bleibt aber unbestimmt.
In der Informationswissenschaft kenn man das schon länger. Denn die Formulierung relevanter Forschungsfragen und in gewisser Weise die Re-Qualifizierung quantitativer Möglichkeiten ist eine Herausforderung, die Sziento- und Bibliometrie grundlegend umtreibt. Wir können alles Mögliche messen, relationieren und visualisieren. Die Möglichkeit eines Übergangs zwischen einer Leistungsschau der Rechentechnik, dem ästhetischen Vergnügen an sauberen Kurvenverläufen und sinnvollen Aussagen mit konkreten Handlungsimplikationen wird dabei jedoch nicht immer greifbar.

"Snobs who go to Bonn for bonbons know how to shop for good food." - Christian Böks nach-oulipotisches Eunonia (Edinburgh: Cannonball Books, 2001) stellt in gewisser Weise das Gegenmodell zu Mikko Kuorinkis' Ansatz dar. In fünf Kapiteln wird eine Literatur erzeugt, die der strengen Regel erfolgt, in jedem Kapitel jeweils nur einen Vokal zuzulassen, dafür aber möglichst das gesamte Repertoire an integrierbarem Vokabular zu verarbeiten. Laut Nachwort gelang dies zu 98 %. Das Vergnügen - man kann es am zitierten Satz leicht erproben - entsteht beim lauten Vortrag. Damit unterscheidet es sich übrigens grundlegend von Mikko Kuorinkis Ordnungswerk. Vor allem, weil man dort angesichts gebündelter Redundanz beim Lesen viel zu leicht in der Zeile verrutscht.
Wenn nun der finnischen Künstler Mikko Kuorinki die Methode des Frequenzwörterbuchs auf Michel Foucaults Les mots et les choses (allerdings englische Übersetzung, also: The Order of Things) anwendet, darf man sicher keinen übermäßig wissenschaftlichen Hintergrund erwarten. Zudem ist anzunehmen, dass die Übersetzung ohnehin einige Verwischungen im Sprachgebrauch enthält, was auch die Aussagekraft über den Sprachgebrauch Foucaults begrenzt. Dennoch eröffnet sich ein erfrischender Zugang.
Das Werk zur Umordnung des Textes ist selbstverständlich bewusst gewählt. Es in der Form aufzubrechen und nach Worthäufigkeiten neu aufzustellen, es also von formulierten Aussagen zu in der Wortverwendung an sich aufschimmernden impliziten Aussagen eines Subtextes zu öffnen, lässt sich unschwer als Referenz auf die Grund(in)fragestellung von Wissen durch die Idee des Diskurses lesen. Mikko Kuorinki treibt die Vorstellung, wie wir über die Dinge sprechen und wie sie Foucault gerade auch in diesem Werk unter dem Begriff der Archäologie untersuchte auf eine interessante und dekonstruktive Spitze. Und zwar, indem er sich ausschließlich des in der Vorlage benutzten Vokabulars bedient und es nach dem schlichtmöglichsten Ordnungsverfahren (=alphabetisch) arrangiert. „Discourse“ besetzt nun mehr als eine ganze der leider nicht nummerierten Seiten und geht direkt in eine halbe weitere mit „discover“ über. Inwiefern auf Schöpferseite (also bei Mikko Kuorinki) die Freude am Nonsens bei der Arbeit eine Rolle spielte, wird vom Buch her nicht deutlich. Die Werkgeschichte des Künstlers ist aber durchaus von der Auseinandersetzung mit der Verbindung zwischen Mensch und Welt via Sprache geprägt. Damit kann man ihn sicher vom L’art pour l’art-Verdacht freisprechen. Im Buch selbst findet sich keine Erklärung. Die etwas zu gequälten Blurbs auf der Buchbanderole wirken fast ein wenig den Spaß verderbend.
Der Inhalt ist wahrscheinlich tatsächlich wortidentisch mit der Vorlage, semantisch aber maximal aufgespreizt. Denn jedes Wort steht nun für sich und alle abgebildeten Kontexte sind syntaktisch motiviert. Was mitunter tatsächlich in eine eigenartig konkretisierte Poesie des Eigensinns der Sprache führt. Abgesehen davon überrascht die linguistische Visualisierung der Wortverwendungen („information“ kommt nur dreimal vor, „belief“ bzw. „believe“ in verschiedenen Beugungen 49 Mal) mit einiger Aufschlusskraft über den Foucault‘schen Diskurs, also die spezifische Rede- bzw. Schreibweise über seinen Gegenstand.
Möglicherweise ist diese rücksichtslose Form der Diskursbrechung dank eines simplen Ordnungssystems der uns verbliebene Weg einer erkennenden Distanzierung zu den unvermeidlich gebundenen Aussagesystemen der Wissenschaften. Ich glaube nicht, dass Mikko Kuorinkis Arbeit als Plädoyer für die Elaboration entsprechender semiografischer und semiometrischer Methoden angedacht ist. Aber sie lässt sich – wenn man hier von lesen sprechen möchte – vor allem so lesen. Und enthält dabei, die richtige Fragestellung vorausgesetzt, durchaus Erkenntnis stiftendes Potential.
[1] Joachim Dietze: B. Travens Wortschatz : ein Frequenzwörterbuch zu seinen drei Schaffensperioden. München : Saur, 1998
[3] http://people.lis.illinois.edu/~unsworth/hownot2read.html
18.04.2012
Der Fehler im Zitat. Zu einem Kernproblem der Wissenschaftskommunikation.
Referat zu: Mertens Stefan, Baethge Christopher (2011): The virtues of correct citation—careful referencing is important but often neglected even in peer reviewed articles. In: Deutsches Ärzteblatt International 2011; 108(33): 550–2. DOI: 10.3238/arztebl.2011.0550
von Ben Kaden
I Vier Fehlergruppen
Kennt man (Samuel C.) Bradfords Gesetz zur Verteilung von wissenschaftlichen Aufsätzen über die Bandbreite der Periodika, dann überrascht es wenig, wenn man in der Ausgabe des Deutschen Ärzteblatts vom 19.8.2011 einen Aufsatz zur Zitationsanalyse entdeckt. Zudem ist das Thema des Zitierens natürlich in jeder Form der Wissenschaft hoch relevant und die Autoren Stephan Mertens und Christopher Baethge– zugleich Mitglieder der Redaktion der Zeitschrift – benennen den Grund dieser wissenschaftskommunikativen Konvention zum Einstieg ihres Textes:
„Sie [die Referenz] sollte eine Behauptung [in einem wissenschaftlichen Aufsatz] präzise untermauern und den aktuellen Forschungsstand repräsentieren oder aber im Falle einer Außenseitermeinung als solche kenntlich gemacht werden.“ (Mertens, Baetghe, 2011)
Die Referenzen verorten folglich einen Text im Fachgebiet und sorgendarüberhinaus dafür, dass eine Aussage glaubwürdiger erscheint, denn:
„Ein Großteil der Leser dürfte einer referenzierten Aussage mehr Vertrauen entgegenbringen als einer ohne Literaturverweis […]“(ebd.)
Der Akt des Zitierens entspricht damit auch einer Selbstautorisierung. Geht nun die Begründung per Referenz der Korrektheit einer Aussage voraus und plausibilisiert sie, so sind Referenzierungsfehler Störfälle in diesem Prozess, die die Glaubwürdigkeit des gesamten Verfahrens unterhöhlen können. Die Autoren des Ärzteblatts setzen sich mit diesen Fehlern auseinander und versuchen, Konsequenzen einzuschätzen. Vier Fehlergruppen lassen sich bestimmen: (more…)
Der Faktor Evidenz. Überlegungen zur Methodendiskussion in der Bibliotheks- und Informationswissenschaft.
(Referat zu Alex Garnett (2011) Opinion: Information Science as Knowledge Translation. In: Bulletin of the American Society for Information Science and Technology. June/July 2011. S. 50-53 )
I
Nimmt man die evident hohen Download-Zahlen als Maßstab, dann ist ein erhebliches Interesse an der Diskussion zum Stand zur Informationswissenschaft festzustellen. Inwieweit sich die Frage nach der disziplinären Positionierung tatsächlich in der Fachcommunity als Thema erhält, ist derzeit offen. Aber man blickt erwartungsvoll den nächsten Ausgaben der entsprechenden Fachorgane entgegen. Bis diese erscheinen kann man allerdings auch die Juni/Juli-Ausgabe des Bulletin of the American Society for Information Science and Technology zur Hand nehmen bzw. ins Browser-Fenster laden.
In dieser reflektiert der kanadische Bibliometriker Alex Garnett in einer kurzen Positionierung zur Methodendiskussion Erkenntnisse zur so genannten Knowledge Translation, also einem Community-übergreifenden Wissenstransfer, wie er ihn in der Medizin beobachtet, auf das gesamte Feld der Library and Information Science. Genau dieser Aspekt sollte seiner Ansicht nach ins Zentrum der Bibliotheks- und Informationswissenschaft und ihrer Methodologie rücken. Und zwar in Rückgriff auf Verfahren der evidence based practice, was sich im Ergebnis vor allem als methodisch breit aufgestellte Zusammenziehung von realexistierenden Bedingungen und der bibliotheks- und informationswissenschaftlichen Metabetrachtung herausstellt. (more…)
Das ethnografische Erkennen – auch bei Digitalen Bibliotheken?
Anmerkungen zu: Seadle, Michael; Greifeneder, Elke (2007): Die Kunst des Beobachtens. Wie man Digitale Bibliotheken mit ethnografischen Methoden evaluiert. In: BuB – Forum Bibliothek und Information, H. 11/12, S. 835–838.
von Ben Kaden
Es ist ein bekanntes Problem, mit dem sich alle Betreiber von Internetangeboten konfrontiert sehen und damit die Betreiber von „Digitalen Bibliotheken“ gleichermaßen: Man bastelt, baut und schraubt über eine Reihe von Projektzyklen an wunderbaren Angeboten und am Ende läuft alles in die Black Box, auf der ganz allgemein „Benutzer“ steht. (more…)
leave a comment