LIBREAS.Library Ideas

Perspektiven für die Digital Humanities (z.B. als Post-Snowden-Scholarship).

Posted in LIBREAS.Debatte, LIBREAS.Feuilleton by Ben on 30. Juni 2015

Eine Notiz von Ben Kaden (@bkaden)

I

In der letztwöchigen Ausgabe der New York Review of Books (LXII, 11) bespricht der Literaturkritiker Christopher Benfey Mark Greifs Buch The Age of the Crisis of Man: Thought and Fiction in America, 1933-1973 (Princeton : Princeton University Press, 2015). Besonders überzeugend findet er die Ausführungen Mark Greifs zum Aufkommen der Theory, die mit den Arbeiten von Autoren wie Claude Leví-Strauss oder Roman Jakobson und Jacques Derrida erst dem Strukturalismus und dann Folgetheorien zu einer Popularität in den Geistes- und Sozialwissenschaften in den USA verhalfen. Greif, so Benfey, sieht beispielsweise in der Dekonstruktion eine Wiederbelebung von Ideen des New Criticism, also streng formalistischer Annäherungen an literarische Texte. Benfey zieht nun die Verbindungslinie von den New Critics zu den Digital Humanists. Ähnlich, so schreibt er, wie einst die Neue Kritik von den traditionell orientierten Wissenschaftlern als ein zu klinischer Ansatz und daher als Gefahr gesehen wurde, sehen sich neue Formen des Lesens („new ways of reading“) heute mit dem Vorwurf, sie seien „antihumanistic“ konfrontiert. Diese neuen Formen des Lesens entsprechend nun dem, was hier unter Digital Humanities verstanden wird:

„Similarly, the recent rise of digital humanities, a technologically based “distant reading” that replaces the individual reader’s engagement with a poem or work of fiction with “big data” gleaned from, say, the recurrence of words describing emotions in the nineteenth-century novel, has seemed to some yet another step away from the reassuring notion that great literature and art are the foundation of civilization.” (S.54)

Digital Humanities entsprechen in dieser Lesart also der Stanford-/Moretti-Perspektive des Distant Reading, deren generelle Neuigkeit bereits seit Jahren überzeugend bezweifelt wird. (vgl. Schulz, 2011) Festzuhalten aus Benfeys Beschreibung sind die Eigenschaften (a) technologie-vermittelt als Verfahrensebene und (b) Big-Data-Struktur als Gegenstandrepräsentation. Schließlich liefert Benfey, (c), eine Art naheliegende Forschungsfrage mit (Welche Wörter wurden im Korpus von Romanen des 19. Jahrhunderts für die Darstellung von Gefühlen benutzt?)

In einer anderen Besprechung ebenfalls für die NYRB hatte Benfey bereits eine andere Facette der Digital Humanities notiert: Sie harmonieren sehr gut mit dem förderpolitischen Digitalzeitgeist, was für die Ausrichtung von Forschungs- und Lehrplänen nicht folgenlos bleibt:

„So do grant-making institutions, both public (like the National Science Foundation) and private (like the Mellon Foundation), which tend to fund particular subfields like digital humanities, say, or new ways to teach via “blended” classrooms (connected by video feeds). Under such pressures, confronted with such temptations, our colleges themselves have become excellent sheep.” (Benfey, 2014)

Inwieweit sich die New Critics nach dem Platzieren ihrer Theorie auf der methodologischen Agenda der Literaturwissenschaft ebenfalls plötzlich ähnlich prominent auf der Forschungsförderagenda wiederfanden, kann an dieser Stelle nicht untersucht werden. Wahrscheinlich ist es nicht. Denn deren Close Reading brauchte eben nicht mehr als eine Nahlese-Infrastruktur (=Buch und Bibliothek). Was aber bei genauerem und vergleichendem Blick der Konzepte der Nah- und Fernlektüre auffällt, ist tatsächlich, wie sehr sie den Autor verschwinden lassen und sich den Wörtern – freilich mit unterschiedlich dimensionierter Rahmung – und deren Beziehungen widmen.

II

Wenn man dies nun im Sinne eines Forschungsengineering weiterdenkt, und höchstwahrscheinlich tun dies manche ForscherInnen derzeit, so lässt sich unschwer eine Kombinationsvariante beider Ideen denken, bei der im Sinne eines Maschinenlernens auf der Nahebene Analysealgorithmen entwickelt und verknüpft werden, die auf der Distanz- bzw. Big-Data-Ebene sehr granular ansetzende Auswertungen und Schlussfolgerungen zulassen. Der Mensch – Autor oder Leser – muss dabei gar nicht verschwinden wenn er denn eine maschinenlesbare und datenmodellierte Repräsentanz in diesem Analysenetz besitzt. Sofern man folglich die Korpora mit bibliobiografischen Netzen (und vielleicht auch individuelle Rezeptionsgeschichten, was nach aktuellen E-Book-Lektüre-Auswertungen bei Amazon ja seitengenau praktiziert werden soll und also technisch problemlos möglich ist) zu kombinieren in der Lage ist, kann man engmaschig beliebige Kombination abfrage, modellieren und besonders Auffälligkeiten isolieren, die sich für eine genauere, möglicherweise intellektuelle Betrachtung qualifizieren.

Erweitert man das Blickfeld über literarische Textkorpora hinaus, erkennt man noch etwas anderes. Nimmt man beispielsweise die Korpora der Textmassen, die in den semantischen, pragmatischen bzw. semiotischen der digitalen Sozialen Netzwerken entstehen, bei denen Aussagen und digitale Repräsentationen der Aussagenden ohnehin strukturiert, maschinenlesbar und – wenigstens über das Back-End – ziemlich retrievaloptimiert vorliegen, so erkennt man, dass sich diese Art von Digital Humanities durchaus als Pilotmethodologie zu einer digital-hermeneutischen Analyse des gesamten digitalen Kommunikationsgeschehens anbietet. Wobei wir dann in einen Bereich der so gennanten Dataveillance hineinsteuern. (vgl. dazu auch Wolf, 2015)

III

Man wird, bei richtiger Datenhaltung und Langzeitarchivierung, soviel über Text-, Werk-, Sinnproduktions- und Interaktionspraxen der Menschen unserer und der kommenden Gegenwarten wissen können, wie niemals zuvor.

„Many may argue that we suffer from the effects of collecting too much information, and that the answer to more accurate situational awareness is to reduce or filter the data we already collect. We believe the opposite to be true… The solution is to continue to collect as much information as possible, and concurrently revolutionize how we receive, tag, link, analyse, store and share that information.“ (zitiert nach Chamayou, 2015, S. 5)

Es ist eine der erstaunlichsten Einsichten der Snowden-Enthüllungen, wie folgerichtig im digitalen Big-Dataversum offenbar alle Messungs- und Erkenntnispraxen problemlos kumuluieren. Ob Medienhäuser die von ihren Nachrichtenseiten verwerteten Stories erschließen, Werbeplattformen passgenaue Konsumofferten zuschneiden, Distant-Reading-affine Geisteswissenschaftler Forschungsfragen bearbeiten, Sozialwissenschaftler tweetmetrische Tiefenbohrungen zu Einstellungsmustern vornehmen oder eben Geheimdienste deviantes Verhalten idealerweise prognostizieren können wollen (das Zitat zur Informationsaufbereitung stammt aus einem Aufsatz mit dem Titel Automating Markup of Intelligence Community Data: A Primer – Keith Alexander et al, 2003) – methodologisch bewegt man sich auf einer gemeinsamen Grundlage. Automating Markup und verwandte Trends, ob in den Digital Humanities, bei Facebook oder der NSA, lassen sich nicht zuletzt als eine große Standardisierungsinitiative verstehen. Auch das sollte man durchaus hin und wieder informationsethisch auf eventuelle Folgen reflektieren.

IV

Eventuell beschreiben die Mark Greifs am Ende dieses Jahrhunderts in ihren Ideengeschichten ihre Deutungen unserer Wissenschaftsepoche unter dem Label einer Post-Snowden-Scholarship. Abwegig ist dies keinesfalls, entwickeln sich die von Digital Humanities geprägten Geisteswissenschaften fast zwangsläufig auf eine medienwissenschaftliche Wende zu, in deren Zentrum das Verhältnis von Kulturhandeln und Digitalität steht.

Im Feld der Medienwissenschaft bietet übrigens die Digital Methods Initiative in dieser Woche in Amsterdam eine Summer School unter dem Titel Post-Snowden Media Empiricism and Secondary Social Media: Data Studies Beyond Facebook and Twitter an:

„This year’s Digital Methods Summer School is devoted to what we call ‘post-Snowden media empiricism’ and ’secondary social media’. Post-Snowden media empiricism refers to how to study online media since the revelations in June 2013 about the breadth and scope of NSA surveillance activities. Writing about the future of media theory, post-Snowden, scholars are closing the age of Internet innocence. For years one would study the extent to which cyberspace is an alternative space, a realm of new politics, corporealities and identity play, cleared of reputation, institutions and regulatory legal regimes. Such a point of departure is long dated, but the post-Snowden dates others too. The likely exception is surveillance studies, once a branch or sub-field. Such is the context these days for calls for ‚post-media‘ as well as ‚post-digital‘ studies.” – https://wiki.digitalmethods.net/Dmi/SummerSchool2015

Betrachtet man ihre Geschichte, zeigt sich als Grundprinzip der Digitalität, dass sie am Ende vernetzt (verschmilzt), was vernetzbar (bzw. verschmelzbar) ist. Aus einer wissenschaftstheoretischen und methodologischen Perspektive stellt sich nun die Frage, wie bzw. ob sich unterschiedliche Disziplinen in einer Big-Data-Scholarship mit dem Fokus auf die von und über Individuen erzeugten (Forschungs)Daten (Werkschöpfungen, Kommunikationen, Biografisches, ermittelbare Interessen, Soziale Vernetzung, Mediennutzungsdaten, etc.) überhaupt noch unterscheiden?

Es ist keinesfalls unplausibel, dass die digitalen Laboratorien für Digital-Humanities-basierte Medienanalysen perspektivisch von verschiedenen Disziplinen und/oder Akteuren gleichermaßen genutzt werden. Die Daten und Netzwerke (der berühmte King Context) liegen strukturell in digitaler und standardisierter Eindimensionalität vor. Die Verarbeitungsmöglichkeiten digitaler Medien passen Inhalte in diese Formen ein. Der Unterschied zwischen Disziplinen (u.a.) läge am Ende nur noch im jeweiligen Erkenntnisinteresse. Die einen wollen wissen, welche Gegenden Londons in der Literatur des 19. Jahrhunderts mit welcher Emotion beschrieben wurden, um Schlüsse über die damalige Gesellschaft zu ziehen. (vgl. Blumenthal, 2015) Die anderen möchten wissen, welche Gegenden Londons heute in sozialen Netzwerken mit welchem Image beschrieben werden, um Schlüsse für kommende Investitionen zu ziehen.

V

Sind die Analyse-Verfahren weithin automatisiert und standardisiert, wird sich Wissenschaft in diesem Entwicklungsszenario ohnehin fragen lassen müssen, ob man sie darin noch in der Form braucht, wie wir sie derzeit kennen. Viele der erschließenden und vermessenden Innovationen im digitalanalytischen Bereich stammen aus nicht-wissenschaftlichen Domänen und Institutionen (häufig freilich als Spin-Off aus Wissenschaftskontexten und entwickelt von Akteuren mit wissenschaftlichem Hintergrund). Es ist durchaus denkbar, dass die Post-Digital-Scholarship geradewegs in einen Zustand der Post-Scholarship führt, die Wissenschaft als offene Forschungs- und Diskursgemeinschaft weitgehend auflöst und Forschung sehr stark auf konkret verwertbare und abrechenbare Innovationsdiensleistungen einerseits einengt und daneben zugleich digitale Sandboxen und Kommunikationszirkel aufrecht erhält, deren Zweck es, ähnlich den Tischtennisplatten in den Start-Up-Büros, zwischendurch die Gedanken zu lockern und neue Ideen für weitere Geschäftsmodelle und Anwendungsfälle zu inspirieren. Die großen Diskurse und (kritischen) Theorien sind in diesem Szenario jedoch eher Ballast. Was sich diesem Kosmos entziehen wird, ist all das, was nicht datafiziert und digital vermessbar gemacht werden kann. Es gibt diverse Gründe auch für die Geisteswissenschaften, darauf zu hoffen, dass der Anteil dieses Sich-Entziehenden am Ende möglichst groß sein möge.

(Berlin, 29.06.2015)

Keith Alexander, Mike Ennis, Robert L. Grossmann et al.: Automating Markup of Intelligence Community Data: A Primer. In: Defense Intelligence Journal, Vol. 12, No. 2, 2003, S. 93-96

Christopher Benfey: How Bad Are the Colleges? In: New York Review of Books, October 23, 2014 (Volume LXI, Number 16)

Christopher Benfey: The Case of the Skeptical Pragmatist. In: New York Review of Books, June 25-July 8, 2015 (Volume LXII, Number 11). S. 53-54

Ralph Blumenthal: Stanford Literary Lab Maps ‘Emotions in Victorian London. In: New York Times / Books, April 13, 2015

Grégoire Chamayou: Oceanic enemy. A brief philosophical history of the NSA. In: In: Radical Philosophy, 191 (May / Jun 2015), S. 2-12

Kathrin Schulz: What is Distant Reading? In: New York Times / Sunday Book Review, June 24, 2011.

Burkhardt Wolf: Big Data, Small freedom? Information surveillance and the political. In: Radical Philosophy, 191 (May / Jun 2015), S. 13-20

4 Antworten

Subscribe to comments with RSS.

  1. Ben said, on 30. Juni 2015 at 14:45

    Als Ergänzung zum Thema passt vielleicht noch eine Argumentation, die der Soziologe David Beer in seinem Buch Popular Culture And New Media: The Politics of Circulation (New York : Palgrave Macmillan, 2013) erläutert:

    „The central claim was that in order to understand contemporary culture we need to have conceptual and methodological means for understanding these data circulations. In that book I argued that we need to look at the devices and infrastructures through which data is generated, to look at the ordering powers of the archives that these data accumulate within, then to think about how algorithms filter and sort these data circulations and finally to consider how these data are played with and become part of bodily routines. The book also argued that before we might rush into analyzing and using big data to understand the social world, first we needed to develop a greater understanding of the data themselves.“(Quelle: Weblog von Big Data & Society)

    Wichtig scheint mir vor allem, zu verstehen, dass digitale Wissenschaft wie auch andere digital geprägte Formen von Kultur, eine sehr auf Daten aufsetzende Zirkularität eingeschrieben bekommt, was in der Wissenschaft möglicherweise auch in einer Art looped scholarship führen kann. Umso wichtiger ist es, sehr darauf zu achten, dass man immer auch eine Reflexionsebene beibehält, die außerhalb dieser Schleifen existiert und die Zirkularität und auch andere datenspezifische Prozesse kritisch durchdringt. Aus der Soziologie angeregte Publikationen wie Big Data & Society sind sicher ein Ort für diesen Diskurs. Als Bibliothekswissenschaftler sehe ich aber selbstverständlich auch die Bibliotheks- und Informationswissenschaft, die im Idealfall sehr gut soziologische, medien- und kulturanalystische sowie informatische Komplexe zu verbinden versteht, als die Disziplin an, die sich mit solchen Prozessen auseinandersetzen und wichtige Beiträge zur Entwicklung der entsprechenden „conceptual und methodological means“ leisten sollte. Hin und wieder findet man auch einschlägige Beispiele. Die wirklich maßgeblichen Debatten scheinen mir bislang jedoch oft stärker in anderen Disziplinen (und Domänen) zu geschehen.

    • Ben said, on 30. Juni 2015 at 15:23

      Wenn man, einmal sensibilisiert, aufmerksam querbeet durch das Web klickt, findet man unzählige weitere Beiträge aus verschiedenen Bereichen, die einerseits die Macht von auf Algorithmen basierender Kulturproduktion und -analyse betonen und andererseits die Notwendigkeit, diese und damit das technologische Fundament der digitalen Gesellschaft erst noch zu verstehen lernen. Vielleicht ist es ganz hilfreich, entsprechende Fundstücke als Anhang hier zur dokumentieren. Den Anfang macht ein Beispiel aus dem Journalismus, dem in jüngerer Zeit eine datafizierte Variante heranwuchs, die man bisweilen Digital Journalism, oft aber auch Datenjournalismus nennt. In einem aktuellen Posting des Nieman Lab findet sich ein Zitat des (Computer-)Soziologen (und u.a. Facebook-Forschers) Raz Schwartz zum Phänomen der so gennanten „editorial algorithms“:

      “It’s growing and growing, and we have to understand what it means. We have to understand what happens when we give algorithms the reign of news selection and news making.”

      Joseph Lichterman: How a group of researchers tried to use social media data and algorithms to find breaking news. In: NiemanLab. June 2, 2015

    • Ben said, on 30. Juni 2015 at 15:30

      Und da ich soeben gefragt wurde, wer der berühmte King Context sein, hier ein mehr webökonomisches als webkulturelles Schlüsselzitat:

      „The contextual “how” we communicate and what form that experience takes has become as important as the actual content being delivered. To that effect, context is everything. Context is king.“

      Daniel Weisberg: Context is King — Long Live the King. In: Wired, 2014.

  2. Ben said, on 2. Juli 2015 at 12:21

    An der University of Western Sydney findet gerade und bis morgen die Jahrestagung der Alliance of Digital Humanities Organizations (ADHO) statt. Auf Twitter kann man die Veranstaltung unter dem Hash-Tag #dh2015 verfolgen. Ein Tweet, der exemplarisch den Diskursstand der Digital Humanities fasst und dabei die wohl stärker anstehende Verschmelzung von Nah- und Fernanalyse betont, ist diese Position Jeffrey T. Schnapps:


Schreibe einen Kommentar

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s

%d Bloggern gefällt das: