LIBREAS.Library Ideas

Zur möglichen Rolle der Bibliothek in einer nach-utopischen Netzgesellschaft.

Posted in LIBREAS.Debatte, LIBREAS.Feuilleton by Ben on 8. Juli 2013

Überlegungen von Ben Kaden  / @bkaden

I

Dass das Internet als vernetzter, überräumlicher und echtzeitlicher Kommunikationsraum von Beginn an dazu verführte, Projektionsfläche vielfältiger Gesellschaftsutopien zu werden, ist weithin bekannt. Man versprach sich, angefangen bei einer durch und durch umstrukturierten Weltgesellschaft und hin bis zu einer simplen aufklärerisch-emanzipatorischen Wirkung vieles von einer digitaltechnisch geprägten Reorganisation unseres Zusammenlebens, organisiert über ein „basisdemokratisches, hierarchiefreies und unkontrolliertes Medium“ (Tilman Baumgärtel: Das Ende der Utopien. In: Neue Zürcher Zeitung, 04.07. 2013, S. 19).

Ähnliche Versprechen galten mit Abstrichen auch für das Bibliothekswesen und die Bibliothekswissenschaft, stand doch der Leitstern der Digitalen Bibliothek über dem Firmament dessen, was sie sich als zukünftige Gestade und Ankerplätze vorstellten. Dass das zwanzigste Jahrhundert in eine Art Wissensgesellschaft auslief und die Bibliotheken lange Zeit die zentralen Verfügungsinstanzen für systematisch erfasstes und abrufbares Wissen darstellten, hätte sie eigentlich zu den Leitakteuren dieser neuen Welt werden lassen können. Diese Erwartung löste sich bekanntlich nur bedingt ein, was eventuell wenigstens teilweise auch daran gelegen haben mag, dass sie im Selbstverständnis der Branche lange Zeit nicht übermäßig verankert war. Bibliothek und Internet blieben viele Jahre trotz aller Vorzeichen getrennte Welten mit überschaubaren Schnittmengen, allen voran der Schnittmenge des Web-OPAC. Damit blieb die Institution freilich in der Nische und vor allem auf ihre in diesem Nachweismedium erfassbaren Bestände fixiert. In digitalen Kommunikationswelten ist Bestand jedoch ein Anachronismus, zumal wenn nur der Nachweis und nicht der Inhalt direkt vermittelt wird. Das aber prägte bald das Erwartungsbild der Menschen im Netz.

Der Schritt zur umfassenden Überformung der Gesellschaft mit digitalen Mitteln war selbstverständlich unvermeidlich, denn natürlich poppte das Internet nicht als plötzliche Überraschung in die Lebenswelten, sondern fasste nur eine ganze Reihe von vorlaufenden Technologietrends (Datenbanken, BTX, Desktop-Publishing, Telefonie, Digitalisierung, Personalcomputer, etc.) zu einer Struktur zusammen. Die Richtung der Entwicklung war mehr oder weniger längst vorbestimmt. Der wirkliche Durchbruch zum Omnimedium gelang durch ein paar vergleichsweise kleine Lückenschlüsse und die Durchsetzung von Benutzungsoberflächen, die das Technische hinter das Inhaltliche zurückdrängten und es so für die riesige Masse derer attraktiv machte, die keinerlei größeren technischen Interessen hatten, sich wohl aber für die (vermeintliche) Leichtigkeit des digital vermittelten Kommunizierens (und später auch Einkaufens) anfällig zeigten.

Diese Leichtigkeit drückte denn auch den utopischen Kern aus. Jeder kann an etwas aktiv teilhaben, was vormals nur passiv zur Verfügung stand. Lange wurde (und an manchen Stellen wird es noch immer) das Internet immer als Kontrast- oder Gegenmedium zu bis dato vorherrschenden Kommunikationsformen verstanden. Der Medienwissenschaftler Tilman Baumgärtel erinnert in seiner jüngst im Feuilleton der Neuen Zürcher Zeitung abgedruckten Rückschau auf die Utopien der frühen und mittleren Netzgesellschaft sehr anschaulich daran, dass das WWW anfangs zunächst von, nun ja, Randfiguren geprägt war, also Akteuren, denen Zugang zu und aktive Nutzung von etablierten Medienstrukturen nur begrenzt möglich waren. Oder die, mit welcher Motivation auch immer, kein Interesse an der mühsamen Einpassung in diese hatten. Sie erkämpften eine eigene Form der Medienmacht und Diskurshoheit dadurch, dass sie nicht – wie sonst bei Revolutionen üblich – bestehende Räume und Kanäle eroberten – sondern die Entwicklung eigener (Alternativ-)Strukturen forcierten, die schließlich so erfolgreich wurden, dass sie diejenigen, von denen sie sich bisher ausgeschlossen fühlten, schlicht für obsolet erklären konnten. Die, deren Herz chronisch für die Underdogs schlägt, hegten dafür heftige Sympathien. Genutzt hat es wenig. Denn heute sehen wir, dass diese anarchistischen morgenluftigen Vorstellungen tatsächlich utopisch, bestenfalls ein Interregnum blieben. Was Aspekte wie Mitmenschlichkeit, Chancengleichheit und Autonomie angeht, sind wir, wie wir heute erkennen, eher nicht vorangekommen.

II

Die Technologie, so schien es, gab es her: Mit vergleichsweise geringem realweltlichem Aufwand konnte man einen nahezu unbegrenzten Kommunikationsraum ausgestalten. Die Zäune für das Handeln zog der Code und auch der war durchaus flexibel. Solange das Web eine Nische blieb und in der herkömmlichen Lebenswelt nur dadurch spürbar wurde, dass man die Memos in der Firma durch E-Mails ersetzte, war die ganze Angelegenheit so entspannt, von solcher Leichtigkeit geprägt, wie man es von kalifornischen Träumereien erwartet. Das große Säbelrasseln ergab sich auch nicht so sehr im Traum der Autonomie und einem offeneren Miteinander, wie ihn beispielsweise der im Artikel zitierte Howard Rheingold hegte, wenn er schrieb:

„Da wir einander nicht sehen können, können wir auch keine Vorurteile über andere bilden, bevor wir gelesen haben, was sie mitteilen wollen, Rassenzugehörigkeit, Geschlecht, Alter, nationale Abstammung und die äussere Erscheinung werden nur bekannt, wenn jemand diese Merkmale angeben will.“ (zitiert nach Baumgärtel, 2013)

Selbst wenn solche Aussagen bereits damals von einer kaum fassbaren Reflexionsarmut geprägt zu sein schienen, so waren sie doch wenigstens freundlich und welcher sich an den Rand gedrängt fühlende Intellektuelle träumt nicht davon, Teil einer anderen „Community of Minds“ zu sein. Idealerweise in leitender Position.

Die Probleme traten auf, als das WWW wirklich ein mächtiges und andere Kommunikations- und Medienformen unkontrolliert verdrängendes Phänomen wurde. Das erste für viele sehr deutliche Signal war mutmaßlich die Napsterisisierung des Musikkonsums. So schwenkte die Debatte spätestens in den 2000-Jahren mehr und mehr in selbstgerechte Urteile zum Überholtsein alter Medien um, die gegen Kulturverfallsthesen, Verteufelungen und Bedrohungsszenarien jeder Färbung gefeuert wurden (bzw. umgekehrt) und auf den entsprechenden Podien nicht selten in für Außenstehende eher peinlich wirkende Deutungskämpfe und kleinkarierte Rechthabereien mündeten.

Richtig heiß und paradox liefen die Debatten, als die Schlacht auf der herunter bipolarisierten Grundebene (Digital=Zukunft+erstrebenswert vs. Analog=Geschichte+zu überwinden) absehbar gewonnen war und Google und Apple und andere erfolgreich die Monopolisierungen, der die frühe Netzgemeinde gerade durch digitale Alternativen entgehen oder auch etwas entgegensetzen wollte, reproduziert hatten. Netzgesellschaftliche Topoi waren vergleichsweise weiche Ziele für Polemiken, wo im harten Kern schlicht die kommende Verteilung der Tortenstücke der Digitalökonomie zwischen alten, absteigenden und neuen, aufstrebenden Akteuren ausgefochten aber selten an sich hinterfragt wurde. Letztlich führt sogar die Frage nach Closed oder Open Access vor allem zu einer volkswirtschaftlichem Abwägung, die mögliche informationsethische Argumente deutlich überlagert.

III

Parallel und vielleicht auch müde vom jahrelangen Ringen bzw. Selbstdefinieren und/oder verführt durch – wie auch Tilman Baumgärtel erwähnt – klassische Etablierungsmöglichkeiten „als populäre und gutbezahlte Konferenzredner und Unternehmensberater“ versanken viele der einstigen Digitalrevolutionäre schließlich mehr oder weniger vollständig in einer Apple-ästhetisierten Welt der Nabelschau, in der Utopien, so scheint es heute, einzig technisch-funktional als „The Next Big Thing“ überlebten. Die übergeordnete Provokation blieb nicht selten als Grundgeste erhalten – aber immer auch irgendwie als Produkt und ein bisschen austauschbar.

Das Bibliothekswesen schloss weitgehend erst zu diesem Zeitpunkt auf, übernahm teilweise schnell die Phraseologik der 2.0-Sprache, in der es von Anfang an nur um Geschäftsmodelle, also Marktstrukturierung ging, die aber die Emanzipationsmetapher als voran geschobene Brechstange dazu benötigte, sich so zu immunisieren, dass sie jede Kritik sofort als reaktionär abwehren konnte.

Auf der anderen Seite kämpften ein paar Protagonisten mit noch stumpferen Waffen um die Beibehaltung eines vordigitalen Stands. Die Berliner Bibliothekswissenschaft war in dieser Zeit, auch das gehört zur jüngeren deutschen Bibliotheksgeschichte, derart in Selbsterhaltungs- und Neuausrichtungsbemühungen derangiert, dass sie selbst den bibliothekarischen Fachdebatten zum Thema kaum Impulse geben konnte. Es blieb am Abend eines Tages zumeist nur Affirmation, nicht selten mit einer Prise Servilität.

Mit der Durchsetzung des WWW als Konsumraum reduzierte sich der utopische Gehalt auf den Zentralwert des immer guten „Neuen“ und eine Rhetorik der vorreitenden Andersheit, die auch dann noch werbewirksames Verführungsmittel war, als die große Masse längst mitstrudelte. Der Schlüssel des Erfolges liegt möglicherweise in der permanenten technischen und gestalterischen Optimierung und/oder Variation der Endgeräte, was durch neue Produktzyklen immer zugleich Fortschritt signalisierte, wo man eigentlich nur das Display etwas breiter zog. Auch mit rein konsumistischer Hingabe konnte man sich lange Zeit als Teil einer aufbrechenden Zukunftsgesellschaft fühlen.

Fast unvermeidlich wurden in die Diskurse zur Aufgabe der Bibliotheken darauf nachjustiert. Konsum (bzw. Erlebnis) und die Herstellung der Anschlussfähigkeit an den Arbeitsmarkt (hier als Bildung verstanden) wurden die windschnittigen Pole, zwischen denen sich Bibliotheksarbeit im frühen 21. Jahrhundert zu entfalten hatte. Das Mittel wurde das, was alle(s) bewegte: Technologie. Die Freude am Aufbau neuer Infrastrukturen war unzerbrechlich und wo es Risse gab, wurden diese mit der Annahme, dass Bibliotheken garantiert aussterben, wenn sie nicht sofort aktiv werden, grob gekittet, wo man vielleicht ein bisschen mehr hätte kittlern sollen.

IV

Die Legitimationspflicht liegt bekanntlich selten auf Seiten der Revolutionäre und eventuelle Grundsatzfragen kann man immer zunächst hinter der Dringlichkeit des Augenblicks und später dann hinter den Erfolg vermeldenden Tatsachen vergraben. Wenn es nur neu ist und die Scheinobjektivität der Nutzungsstatistik eine Art Erfolg vermeldet, dann erübrigt sich meist jede weitere Analyse. Nicht nur, aber vor allem die Geschichte zeigt freilich, wie nachteilig sich eine Verlagerung von Richtungsentscheidungen auf das Maß der Masse (gern instrumentalisiert für die Interessen einer Elite) auswirken kann.

Das Problem auch der bibliothekswissenschaftlichen Diskurse war lange, dass es zwischen unwissender Ablehnung und nicht viel mehr wissender Affirmation so gut wie keine theoretisch grundierte Reflexionsarbeit geschweige eine aufklärte Kritik der Entwicklungen gab, die eine andere Annäherung und eine möglicherweise stärkere an übergeordneten Werten fundierte Innovationslenkung nach sich hätte ziehen können.

Nach wie vor werden vorwiegend externe Trends (oft ein bisschen unsystematisch) aufgegriffen, die, sofern möglich, die Grundlage einer bibliothekarischen Selbstoptimierung bieten. Eine gestaltende Rückbindung an die Gesellschaft findet dagegen nur äußerst eingeschränkt statt, wobei man sich gern auf eine mittelbare Wirkung beruft.

Dabei enthalten das Konzept der Bibliothek wie auch seine realweltliche Ausprägung ziemlich viel von dem, was es braucht, um unter Nutzung digitaler Technologien, tatsächlich ein Stück weit utopischer, d.h. gezielt an, wenn man so will, humanistischen Werten orientiert, gesellschaftsprägend zu wirken. Die Utopie für die Bibliotheken wäre etwas kleiner, weniger disruptiv gerichtet, als die Vorstellungen beispielsweise von Timothy Leary oder Howard Rheingold. In ihr ginge es eigentlich nur um das die forcierte Schaffung eines Bewusstseins, das zu einer kritischen und hinterfragenden Auseinandersetzung mit den scheinbar selbstverständlichen wirtschaftlichen und politischen Rahmungen der Lebenswelt befähigt. Die Bibliothek wäre in gewisser Weise in der permanenten Opposition, ein Raum, um ein „Es könnte und kann auch anders sein“ zu denken. Man könnte es eigentlich Aufklärung nennen.

V

Der Zeitpunkt könnte für eine entsprechend aktivere Positionierung richtiger nicht sein. Nach Edward Snowden gibt es offensichtlich ein interessantes Erwachen, das möglicherweise im Rückblick mehr von einer Zäsur haben wird, als wir heute ahnen. Dass die Reaktionskette auch in der Politik eher emotional (erst Überraschung, dann Empörung) ausfällt, zeigt, wie notwendig ein differenzierendes und abgeklärtes Bewusstsein in dieser Richtung wäre.

Was die aktuelle Debatte eigentlich nur offenbart, ist, dass die klassischen, vordigitalen Machtverhältnisse wieder- bzw. im Web ebenfalls hergestellt sind. Der scheinbare Alternativraum wurde ganz klassisch erobert. Das WWW ist heute ein Marktplatz und zugleich eine ausgezeichnete Kontrollbasis, wobei die dahinterliegenden Prozesse der Marktakteure und der staatlichen Kontrolle fast auf identische Weise funktionieren, wie Tilman Baumgärtel unterstreicht:

„Das Geschäftsmodell von Google basiert im Grunde auf einem Data-Mining, das demjenigen, das die NSA betreibt, vergleichbar ist. Der Unterschied ist lediglich, dass die NSA Terrorverdächtige identifizieren will, während Google sein gesammeltes Wissen über seine Nutzer analysiert, um ihnen auf sie geschnittene Werbebotschaften zu präsentieren.“

Das ist kein Ende der Utopie, sondern eine wenig überraschende, aber geschickt vollzogene Gegenrevolution. Das erhoffte Shangri-La wurde ganz traditionell kolonialisiert. Die harmlose politischen Spätrudimente der digitalen Aufbruchseuphorien (mustergültig: die Piratenpartei) zeigen, wie wenig es braucht, um solche Bewegungen zu marginalisieren.

Letztlich, so eine Erkenntnis mutmaßlich bereits der Steinzeitpsychologie, wollen die Menschen vor allem etwas, was bequem ist und sie ansonsten nicht weiter fordert. So haben sich alte Macht- und Kontrollprinzipien nach wenigen Jahren der Überforderung und Verwirrung nicht nur mit den neuen Strukturen arrangiert, sondern sie nahezu kampflos übernommen. Die meisten neuen Milliardäre dieser Wirtschaft – und das unterscheidet sie erstaunlicherweise kaum von den Oligarchen des Russlands der 1990er Jahre – sind die, die sich besonders opportun verhielten und reibungslos dem sie umgebenden Normensystem (in diesem Fall des Spätkapitalismus) fügten. Ihr revolutionäres Anderssein reduziert sich auf popkulturelle Effekte, eine an Don’t be evil-Nullsätzen ausgerichteten Geschäftsethik und dass sie frech in Billiglohnländern gefertigte Sneaker dort tragen, wo man früher schon in braunen Oxfords schief angeschaut wurde. Man kann ihnen das gar nicht vorwerfen: Keiner dieser Akteure hatte jemals etwas anderes im Sinn, als eine in der Regel genial einfache Idee zur Optimierung einer sozialen Praxis (Informationssuche, Gespräch, Selbstinszenierung) zu entfalten. Weltverbesserung fängt hier im ganz Kleinen und Praktischen an. Und endet auch dort. Allerdings sind die Konsequenzen gewaltig.

VI

Was wir nun sehen – obwohl man es sich, wie Tilman Baumgärtel anmerkt, „eigentlich schon in den Tagen der Morgenröte des Netzes denken“ konnte – ist eine Art Daten-Totalitarismus. Die NSA benutzt zur Krönung, wie wir erfahren, Open-Source-Programme, lange das Königsbeispiel des freien, altruistisch gerichteten und kollaborativen Geistes der neuen Netzkultur. Die türkische Polizei vervollständigt derweil ihre Festnahmelisten anhand von Web 2.0-Profilen.

Dass wohlmeinende Vorkämpfer den Boden für äußerst unsympathische und am Ende menschenfeindliche Regime bereitet haben (bzw. dass die in der Regel einen Hauch weniger idealistischen unter den Vorkämpfern in dieser schließlich auch mitwirkend aufgingen), ist freilich für die Menschheitsgeschichte sehr gewöhnlich. Neu ist die offensichtliche Totalisierbarkeit einer Daten-Macht, die uns in Hinblick auf unsere Kommunikationen, also auf unsere Sozialität und damit unsere Einbettung in der Welt, regulierbarer macht als jemals zuvor. Es besteht eine ziemlich direkte technologische Linie von der Volltextsuche über die semantische Analyse zum Geospacing zur Exekution per Drohne. Dafür, dass wir, d.h. also auch die Bibliotheken und die Bibliothekswissenschaft, das wissen, kämpfen wir mit ziemlich soften Bandagen. Nicht einmal zu einer Diskussion über die datenpolitische Rolle, die das Bibliothekswesen und die Bibliothekswissenschaft übernehmen könnte, kam es bisher.

Es ist verständlich, dass man sich nicht unnötig außerhalb des Kerngeschäfts exponieren möchte (man wird angreifbar) und dass man genauso wenig das Bedürfnis verspürt, außerhalb des Funktionsrahmens, dem die Gesellschaft einem zugesteht, Verantwortung zu übernehmen (man ist ohnehin schon voll ausgelastet). Eigensicherung, so der Eindruck, geht vor Gestaltungswillen. Daher bleibt es oft bei unverfänglichen, ein bisschen  selbstbeweihräuchernden Wahlsprüchen wie „Wir öffnen Welten“ (Bibliothekartag 2014), in denen man alles Mögliche verpacken kann und mit denen man niemandem weh tut. Eine tatsächliche gesellschaftliche Bedeutung ergibt sich daraus freilich noch nicht automatisch. Und  durchgängig überzeugend ist diese Art von Anspruchsdenken, gegossen in nicht in jedem Fall ganz zündendes Bibliotheksmarketing, in Rückbindung an die Realität derzeitiger Wissenskulturen nur mit Einschränkung. Die benötigen die Bibliothek als Weltöffner nämlich nicht zwingend. Die Geschichte winkt dagegen derzeit mit mehr als einem Zaunpfahl dahin, wo sich Bibliotheken ihrer/unserer Zeit gemäß und wirksam nicht nur in sondern auch für eine Öffentlichkeit positionieren könnten.

(Berlin, 05. Juli 2013)

Der Krieg in unserem Pad. Über militärische Konflikte und Social Media.

Posted in LIBREAS aktuell, Sonstiges by Ben on 17. November 2012

von Ben Kaden

Eine jedenfalls für mich sehr aufsehenerregende Entwicklung ist der außerordentliche Einsatz von Social-Media-Werkzeugen durch die Israel Defense Forces als Begleitung der aktuellen Militäreinsätze im Gaza-Streifen. (vgl. auch diesen Beitrag auf heise.de) Vom Twitter-Feed über einen – fast schon traditionell anwirkenden – YouTube-Kanal bis hin zu einem Tumblr-Blog wird die Weböffentlichkeit massiv und gezielt mit Informationen versorgt. Man könnte in gewisser Weise von einem Trend zum Warketing sprechen. Eindeutige Info-Grafiken bieten sich dafür geradezu an und ergänzen die fotografische Berichterstattung, die die realweltlichen Schäden gezielt dokumentieren.

Das sich dahinter befindliche Anliegen ist selbst mit wenig diskursanalytischen Gespür klar erkennbar: Die Informationsströme zum militärischen Vorgehen werden zwar nicht vollständig kontrolliert, aber doch maßgeblich gelenkt und beeinflusst. Je mehr Nachrichten über diese Kanäle gestreut werden, desto stärker kann man auf das Bild des Einsatzes in den Augen der (westlichen) Öffentlichkeit, vor der man hinsichtlich des eigenen militärischem Vorgehens grundsätzlich eine Legitimationspflicht hat, einwirken.

Dass diese Pflicht existiert, ist ein zentraler Verdienst der Demokratie. Und sie sollte durchaus weitaus überzeugendere Argumente einfordern, als beispielsweise, dass der Einsatz so minimalinvasiv wie möglich erfolgt und Kollateralschäden weitgehend vermieden werden. Einerseits ist das für Außenstehende kaum tatsächlich zu überprüfen und andererseits ist dieses Bekenntnis heute ohnehin nur die Anerkennung einer Selbstverständlichkeit militärischer Interventionen. Auf einer zweiten Ebene dient die Betonung dieses Aspekts zur Verstärkung einer Gut-Böse-Dichotomie, zumal ein diesbezügliches Fehlverhalten (vermeintlich oder real spielt hier fast keine Rolle) des Gegenübers oft überhaupt erst die Gegnerschaft herstellt und den Einsatz erforderlich macht. Die Erfahrung zeigt jedoch, dass häufig dieselben Argumente von beiden Seiten angeführt werden. Die Grausamkeit des Anderen und damit verbunden das eigene Recht auf Selbstverteidigung verschmelzen an diesem Punkt und machen die Situation für die Außenstehenden, die nicht zuletzt über Social-Media-Nachrichten direkt einbezogen werden, undurchschaubar. Man kämpft heute offensichtlich stärker denn je nicht nur gegen einen Opponenten und das Einverständnis der eigenen Bevölkerung sondern zugleich um die Zustimmung einer externen Öffentlichkeit (=der Weltöffentlichkeit). Unter anderem auch damit, der Berichterstattung des Gegners ein diesbezüglich manipulatives Interesse vorzuwerfen bzw. nachzuweisen. (vgl. dieses Beispiel) Die gerechte Krieg muss im globalen (bzw. wenigstens westlichen) Diskurs allgemein als gerechtfertigt interpretiert werden. Die mediale Begleitung erfüllt vor allem den Zweck, dies mit immer neuen Nachrichten, die als Argumente gelten sollen, abzusichern.

Die gestreuten Meldungen selbst dienen wiederum als ein Baustein der Berichterstattung in der Presse (vgl. dieses Beispiel bei der Frankfurter Allgemeinen Zeitung) Demzufolge ist es auch hinsichtlich der mittelbaren Informationssteuerung zum Konflikt von außerordentlicher Bedeutung, möglichst viele Nachrichten kontrolliert zu streuen. Zumal dann, wenn Korrespondentennetze so ausgedünnt sind, dass Massenmedien und Presse nur bedingt eigenständig Informationen und Eindrücke vor Ort einholen können. Derartige Konflikte im 21. Jahrhundert sind de facto immer, mitunter vielleicht sogar zunächst vorrangig, Echtzeit-Kommunikationsprozesse im Web und davon ausgehend in den Massenmedien.

Erstaunlich ist hierbei die Kommodifizierung des Konflikts. Denn er wird über dieselben Kanäle und mit ähnlichen Strategien auf den Aufmerksamkeitsmärkten kommuniziert und damit in gewisser Weise als „Event“ durchgesetzt, wie es mit Produktinnovationen, Sportmeisterschaften oder Wahlen geschieht.

Ob YouTube wirklich kriegsentscheidend sein könnte, ist schwer zu beurteilen. Aber es ist für einen „Krieg der Bilder“ bereits eine etablierte Oberfläche – was die Frage aufwirft, welche Macht der Institution zukommt, die diese Oberfläche kontrolliert. Welchen Stellenwert kann also ein privatwirtschaftliches Unternehmen in einem derartigen Zusammenhang z.B. als Torwächter erhalten?

Je stärker politische Entscheidungen auch in Angelegenheiten von der Tragweite der derzeitigen Entwicklungen im Nahostkonflikt in Abhängigkeit von solchen Plattformen stehen, desto dringlicher wird die Auseinandersetzung mit einer deratigen informationsethischen Grundfrage, zumal zu erwarten ist, dass im Sinne eines Cyberwars hier direkt und entlokalisiert ein weltumspannender Nebenschauplatz entsteht, was nebenbei ganz neue Anforderungen an die IT-Sicherheit stellt. Der Konflikt wird nicht mehr nur in den Zeitungen oder in den Rundfunknachrichten verhandelt, sondern Teil der Oberflächen, über die wir auch (unterschiedlich intensiv) unser digitalen Sozialleben von der Partnerschaft bis zum Büroalltag verwalten, organisieren und abbilden.

Dass Konflikttrigger mittels derartiger digitaler Vernetzungen nahezu in Echtzeit benutzt werden können, um an verschiedenen Ecken der Welt gleichzeitig bestimmte Wirkungen hervorzurufen, zeigte das Geschehen um das „Innocence of Muslims“-Video. Da derartige mediale Auslöser nahezu immer Interessen geleitet forciert und also zur Manipulation in welcher Stoßrichtung auch immer eingesetzt werden können, wird auf Seiten der Empfänger, die im Social-Media-Kontext vor allem in ihrer Rolle als Multiplikatoren interessant sind, eine sehr hohe Beurteilungs- und Medienkompetenz sowie ein stabiles kritisches Grundverständnis für diese Prozesse notwendig. Man benötigt folglich eine auf derartige Phänomene vorbereitende informationsethisch grundierte Informationskompetenz.

Es gab gestern in meinem Leipziger Seminar zum Electronic Publishing eine interessante Diskussion darüber, inwieweit die Vermittlung derartiger Beurteilungs- und Nutzungsfähigkeit für digitalen Kommunikationsumgebungen ein Bestandteil der Curricula des Schulwesens sein sollte. Bereits ohne die hier umrissene Problematik scheint solch ein Schritt überaus plausibel. Dass er perspektivisch vermutlich notwendig wird, dürfte spätestens dann auf der Hand liegen, wenn die digitalen Kommunikationsnetzwerke als ubiquitäre Begleitstruktur des Alltags zum Austragungsort von Image-Kampagnen geworden sind, die nicht etwa das nächste Tablet bewerben, sondern eine Truppeninvasion. Dann nämlich spätestens gehört die Befähigung zur kritischen kommunikativen Auseinandersetzung mit prinzipiell manipulativ ausgerichteten Nachrichten- und Kommunikationsströmen in digitalen Social Networks zur elementaren demokratischen Handlungskompetenz.

(Berlin, 17.11.2012)

It’s the frei<tag> 2012 Countdown (16): Kurt Drawert (2), Digitale Geisteswissenschaft und Bibliotheken

Posted in LIBREAS aktuell, LIBREAS.Debatte by libreas on 30. Juli 2012

Ben Kaden

Man erinnerte mich unlängst und nicht unbegründet daran, dass der LIBREAS-frei<tag>-Countdown mit Texten versehen werden sollte, die auch etwas wahlweise mit der Unkonferenz zum Stand der Bibliotheks- und Informationswissenschaft oder derr Summer School des LIBREAS Vereins zu tun haben sollte.

Immerhin meine kleine Glosse zu Kurt Drawert verfehlte diesen Anspruch recht deutlich. Er bereichert aber mein Leben wiederum um die Erfahrung, wie es ist, gelesen und nicht ganz so verstanden zu werden, wie ich es meine. So schreibt Armin Steigenberger auf lyrikzeitung.com:

„Es scheint, dass derjenige, der auch nur irgendwas gegen das Internet vorbringt, heute sofort unter Generalverdacht steht, was ich eigentlich genauso eindimensional finde. Insofern ist Ben Kadens Replik in summa eine ziemlich vorhersehbare Reaktion und an neuen Argumenten, die mich wirklich überrascht hätten, kommt gar nichts.“

Hier kollidieren natürlich Erwartungshaltungen und fast naturgemäß driften Meinen und Verstehen zielstrebig auseinander. In welcher Hinsicht ich generell verdächtige, erschließt sich mir auch nach dem Wiederlesen meines Textes nicht. Gleiches gilt für den Zweck der Pauschalisierung „das Internet“, gegen das zu opponieren freilich genauso sinnvoll wäre, wie der Kampf gegen Bahnschienen, Webstühle, Windmühlen und Schnellstraßen.

Darum geht es aber Kurt Drawert auch nicht. Sondern ihn treibt die Überlegung (oder Angst), wie (dass) sich die Rezeption verändert, wenn sich das Träger- und Abbildungsmedium ändert. Dahingehend geschieht ohne Zweifel viel und die Rezeptionsforschung stürzt sich hoffentlich begeistert auf diese Veränderungen. Und hoffentlich weniger voreingenommen als Kurt Drawert in seinem tristen Text.

Dass dieser den konkret Handelnden und die Mannigfaltigkeit der Wahrnehmungs- und Rezeptionswelten hartnäckig ausklammert, ist für mich der trübste, fast blinde Fleck seines Essays. Dass er zudem den Untergang der Literatur durch Digitaltechnologie prophezeit, ist eine so traurige wie grundlose Schlussfolgerung. Und der bebende Brustton, mit dem diese Einschätzung in den Diskurs eingeworfen wird, liegt so fernab jedenfalls meiner Lebenswirklichkeit, in der man Werkzeuge als Möglichkeiten betrachtet und nicht als auf des Herzens liebste Dinge gerichtete Dolche, dass ich mehr mit Erstaunen als mit Gegenrede reagieren kann. Neue Argumente sind zudem in dieser Urdebatte der digitalen Gesellschaft schon deshalb schwer zu finden, weil ich gar keinen Antagonismus à la „Freiheit des Netzes vs. Freiheit der Buchrezeption“ sehe.

Selbst wenn ich Technologiekritik gemeinhin hoch schätze, vermag ich weder das Problem noch den Pessimismus Kurt Drawerts nachzuvollziehen. Jedenfalls, solange unsere Kultur noch so etwas wie die Lyrikreihe des Hochroth-Verlags hervorbringt und ich die Option habe, meine Abendlyrik in einem stillen Zimmer vom Papier abzulesen. Ich wüsste nicht, welcher Techniker mir das nehmen wollte. Und daher bleibt mir die ganze Aufregung fremd – in einer unangenehmen Weise.

Nun bin ich fast schon wieder dabei, das Thema zu verfehlen. Aber man kann nicht zuletzt in Anschluss an Kurt Drawert (unter Hilfestellung von Armin Steigenberger) immerhin eine Einstiegsthese für die Unkonferenz daraus formulieren:

Digitale Medien verändern die Rezeptionspraxis, „weil das Internet als ‚Resonanzraum‘ kein störungsfreier Raum ist, sondern nebenher allerhand ‚Interferenzen‘ passieren, wo man auch permanent zusätzliche Infos bekommt, die man nicht bestellt hat, die aber die Rezeption, das „sich-Einlassen“ stören […]“ (vgl. http://lyrikzeitung.com/2012/07/29/119-gezwitschert-gegeigt-und-gesungen-2/)

(Die Tatsache, dass es on- und offline individuell große Unterschiede bei der Ausübung der bislang zentralen Kulturtechnik unserer Gesellschaft gibt, mag man vielleicht zunächst ausklammern.) Für die Texthermeneutik und das Close Reading ist diese Frage mindestens genauso relevant, wie für die Bibliotheken, die sich fragen, ob sie in einem Neubau lieber einen klassischen Lesesaal oder eine Kommunikationszone mit Café und Indoor-Spielplatz unterbringen sollen.

Und es wirkt auf die Frage zurück, wie wir schreiben sollen, wenn wir für das Netz schreiben. Armin Steigenberger betont beispielsweise in seiner Replik zu meiner Drawert-Lektüre, dass sich die Besprechung des Aufsatzes Kurt Drawerts in einem Weblog womöglich verbietet:

„Hinzu kommt die Tatsache, dass Drawerts NZZ-Artikel nicht im Netz verfügbar ist, was gewissermaßen gewollt ist – alles andere wäre ja wieder eine Einladung zum Entreißen, würde seine These nur belegen, dass eben alle Texte verlieren, sobald sie online sind und somit zu Verkürzung und Überlassung einladen. Denn diesen Text im Blog zu besprechen wäre vergleichbar damit, eine Blogdiskussion über die These abzuhalten, ob Blogdiskussionen nicht per se haltlos sind: eine contradictio in adiecto. Insofern wird Drawerts Artikel nun selbst „entrissener“ Text, in Ausschnitte zerbröckelt und unterlegt mit Bockwurst und Bier.“

Diese Argumentation überzeugt mich leider kaum. Denn (a) ist die Rekontextualisierung nach Gusto weder ans Web noch an Weblogs gebunden, sondern ein Leitelement schriftsprachlicher Debatten und vermutlich die Basis aller Kultur. Und (b) wäre die Verweigerung sich dem Diskurs zu stellen, indem man einen Beitrag zum Diskurs zwar trotzig präsentiert aber eben nur offline und daher um Diskursferne bemüht, diskursethisch untragbar. Und (c) ist ein Weblog einfach nur eine neutrale Publikationsfläche, die, wie ein Blatt Papier, vom Gossip bis zur Weltformel alles in Schrift fassen kann, was in Schrift zu fassen ist.

Gern gestehe ich dagegen ein, dass man meinen Text leicht als Bestätigung der These Kurt Drawerts lesen kann. Ich würde mir allerdings wünschen, dass man etwas anderes daraus mitnimmt. Nämlich den Aufruf zu mehr Gelassenheit in diesem Diskurs.

Kerstin Holm - Manfred Heidegger

Manfred auch? Die Grenzen automatischer Verfahren Digitaler Geisteswissenschaften lassen sich in fast jeder Buch anschaulich bereits durch Oberflächenlektüre abschätzen. Denn welche automatische Textanalyse würde hier korrekt schlussfolgern, dass der russische Komponist Wladimir Martynow nicht etwa einen – obendrein recht lebendigen – Ferienhausvermieter aus dem Oberallgäu zu einer zentralen Autorität seiner geistesgeschichtlichen Sozialisation zählt, sondern jemanden von der Schwäbischen Alb, der wusste, wie uns die Technik ins Gestell zwingt. Man mag das Problem als spitzfindig empfinden, aber wir benutzen die digitalen Verfahren ja gerade zum Zwecke der Spitzfindigkeit, d.h. um auch das zu entdecken, was unserem Auge sonst entginge. Hier hat das händische Blättern noch gereicht. Dem Lektorat Der Anderen Bibliothek ist der kleine Fehler auf Seite 189 vermutlich ziemlich peinlich. Abgesehen davon ist die Ausgabe von Kerstin Holms „Moskaus Macht und Musen“ (Berlin: AB – Die Andere Bibliothek, 2012) jedoch ein gelungenes Beispiel dafür, warum wir von Buchkultur sprechen.

Auf einer solchen Basis könnte man sich dann nämlich den Fragestellungen wie der widmen, wie viel Verflüssigung, Bricolage und Versetzung von Textinhalten wir eigentlich für welchen Zweck zulassen wollen? Die wird nämlich nicht zuletzt akut im Umfeld dessen, was man Digital Humanities nennen.

Die Hamburger Tagung, die vermutlich als ein Schlüsselereignis der Digitalen Geisteswissenschaften in Deutschland gelten kann, brachte es immerhin zu zwei Artikeln in derselben Ausgabe der Frankfurter Allgemeinen Zeitung. Und beide Texte versuchen etwas, was die Protagonisten dieses neuen methodologischen Spektrums bisweilen etwas vernachlässigen: die Metasicht auf Sinn und Unsinn, auf die Wechselbeziehung von Machbarem und Wünschbarem.

Wolfgang Krischke (Wege und Abwege digitaler Forschung. In: FAZ, 25.07.2012, S.N3, nicht frei online) betrachtet die Entwicklung relativ nüchtern:

„Von einem neuen Paradigma kann […] kaum die Rede sein, in manchen Bereichen der Linguistik bedient man sich der elektronischen Datenverarbeitung schon seit der Lochkarten-Ära.“

Allerdings räumt er selbst ein, dass die Möglichkeiten einer statistischen Analyse von Sprache heute doch – vor allem quantitativ – ein wenig mehr zulassen, als die Lochkartenpioniere vermutlich überhaupt ahnen konnten. Und er betont an der schlichten und interessanten, rein quantitativ aber kaum greifbaren Forschungsfrage:

„Wie verändert sich beispielsweise die Bedeutung von „Freund“ durch den Gebrauch, der von diesem Wort in den sozialen Netzwerken gemacht wird?“,

dass eine Horizontlinie der Erforschung der Websprache und ihrer Folgen bereits durch urheber- und datenschutzrechtliche Regeln eingezogen wird. Immerhin: Die Notwendigkeit einer informations- und wissenschaftsethischen Diskussion der Digital Humanities lässt sich in diesem Zusammenhang – also nicht zuletzt für die Unkonferenz – exzellent veranschaulichen.

Dazu zählt zudem eine weitere Frage, nämlich die, ob es nicht geradezu geboten ist, aussterbende Sprachen als generelles Kulturgut so gut und lückenlos wie nur möglich mit den vorhandenen Technologien zu dokumentieren, selbst wenn das am Ende vielleicht mit dem konkreten „Überleben der bedrohten Idiome“ nicht mehr zu tun hat, als eine Nachzucht  einer in freier Wildbahn verschwundenen Tierart im Zoo. (Oder gar nur einem taxidermischen Präparat im Naturkundemuseum.)

Und ebenfalls wissenschaftsethisch interessant ist die Rolle von Google, das Korpus und N-Gram-Viewer als Zentralbausteine gewisser Facetten digitaler geisteswissenschaftlicher Forschung bereitstellt. Hier wirkt ein Unternehmen, wenn auch sicher ein sehr besonderes, massiv gestaltend auf eine Wissenschaftslinie ein, von der gern nicht selten betont wird, sie sei – möglicherweise analog zur Google-Suche – perspektivisch die einzige und alternativlose Option.

Thomas Thiel (Eine Wende für die Geisteswissenschaften? In: FAZ, 25.07.2012, S. N5) nimmt sich der Entwicklung aus einer wissenschaftsadministrativen bzw. -infrastrukturellen Position an und zeigt, dass Digital Humanities mehr meinen muss, als Google bietet. Er betont die für die Bibliothekswissenschaft zentrale Dreiheit von Digitalisierung, Standardisierung und Langzeitarchivierung (inklusive Qualitätssicherung). Wenn man das Fach sowie die wissenschaftlichen Bibliotheken also naheliegend auf die Rolle einer Zentralinstanz der digitalen Geisteswissenschaften orientiert, dann rutscht es automatisch in die Aufgabe, nicht nur Publikationen, sondern Korpora bzw. geisteswissenschaftliche Primärdaten zu sammeln, zu erschließen, vorzuhalten und nach Bedarf verfügbar zu machen. Die Digital Humanities (DH) könnten demzufolge der Bibliothekswissenschaft endlich eine fixe Forschungsrichtung vorgeben. Und dem wissenschaftlichen Bibliothekswesen eine Perspektive für die Zeit nach der Hegemonie der Printkultur.

Dazu muss sich das „Methodenfeld“ aus dem „Quellgebiet von Computerlinguistik, Computerphilologie und Fachinformatiken“ (Thomas Thiel) jedoch erst einmal als solches etablieren. Wobei nicht nur nicht notwendig, sondern überhaupt nicht zweckmäßig scheint, womit Jan Christoph Meister zitiert wird, nämlich der „empirische[n] Wende für die Geisteswissenschaften“ und dem Abschied vom „Paradigma der hermeneutischen Einzelforschung“. Hier wird erneut ein Ausschlussszenario ins Spiel gebracht, wo es völlig unnötig, in jedem Fall verfrüht ist. Thomas Thiel ordnet den bisherigen Stand der DHs zutreffend eher als „anwendungsorientierte Hilfswissenschaft“ als als „Speerspitze einer umfassenden Transformation der gesamten Geisteswissenschaften“ ein:

„Dass sie große Erkenntniszusammenhänge erschließen können, zeichnete sich nicht einmal schemenhaft ab.“

Ich sehe vielmehr auf lange Sicht als Ideal eine mehrschichtige Durchdringung quantitativer und metrischer Verfahren mit interpretativen, wie ich es jüngst in einem Kommentarthread, skizzierte:

 „In einem zugespitzten Szenario könnte die Entwicklung vielleicht dahin gehen, dass wir auf der einen Seite große, tiefenerschlossene Datenbestände haben, aus denen auf der anderen Seite zahllose kleine und in verschiedene Richtungen zielende temporäre Interpretationen erfolgen und permanent diskutiert werden. Publikationen fassen diese Deutungen und Argumentationen eventuell sogar in festen Zeitabständen als gesichertere Referenzpunkte zusammen, zielen aber selbst nicht mehr Innovation, sondern nur auf Kumulation und Dokumentation. (Beispielsweise in eine aktualisierten Form von Referatemedien, die nicht mehr Publikationen, sondern Argumente, Schlüsse und Diskussionen sammeln, ordnen und in dieser Ordnung verfügbar machen.)

So wie es in bestimmten Geisteswissenschaften kanonisierte Texte gab und gibt, die über zeitstabil neu gelesen werden, so könnte ich mir vorstellen, dass es auch einen Kanon von Open Data-Datensätzen gibt, mit denen alle Disziplinen ähnlich verfahren. Messende und interpretative Disziplinen verschmelzen demnach. Und zwar nicht nur in der Form, dass sich Geisteswissenschaften zunehmend quantitativer Verfahren bedienen. Sondern auch, dass eine Form von Daten-Hermeneutik (möglicherweise mehr in Anschluss an die so genannte Objektive Hermeneutik) in die anderen Disziplinen dringt. (Implizit spielt nach meiner Erfahrung Interpretation seit je fast überall die entscheidende, nämlich Schlüsse grundierende Rolle. Nur erfolgt dieser methodische Schritt oft nicht zureichend reflektiert, d.h. im Bewusstsein, dass eine Schlussfolgerung immer ein interpretatives Moment enthält, das man auch methodologisch elaborieren kann.)“

Inwieweit in diesem Szenario langfristig die rein interpretativen geisteswissenschaftlichen Publikationen es noch leicht hätten, sich zu behaupten, oder ob sie sich nicht nach und nach in Richtung einer eher literarischen Abbildungs- und Erkenntnisdisziplin emanzipierten, die selbst mehr Wert auf Originalität in Form und Darstellung als an formalwissenschaftlichen Anspruch und Strenge legt, bleibt selbstverständlich einer von zahlreichen weiteren offenen Aspekten. In jedem Fall berechtigt uns nichts, ihnen jetzt (schon) die Tür zu weisen.

29.07.2012

Das Fach am Dienstag: Impulse von NY.Times, BBK und JDoc

Posted in LIBREAS.Referate by Ben on 10. Januar 2012

Ein Überblick zum 10.01.2012.

von Ben Kaden

„The general field of humanities education and scholarship will not take up the use of digital technology in any significant way until one can clearly demonstrate that these tools have important contributions to make to the exploration and explanation of aesthetic works” – Jerome McGann, 2002

„Get into the digital humanities and get a job. Not a bad slogan.“ – Stanley Fish, 2012

I Sterblichkeit, Digital Humanities, eResearch und Bibliotheken

So geht es zu am Dienstagabend: Während Stanley Fish im Opinionator-Blog der New York Times Jerome McGanns 2002 unterstrichene Kernerkenntnis zum Einsatz digitaler Technologien als Quintessenz einer Reflektion über Sterblichkeit, Textlichkeit und den Digital Humanities heranzieht, entwirft Norbert Lossau bei seiner Antrittsvorlesung im Berliner Bibliothekswissenschaftlichen Kolloquium eine klare Richtung für die Bibliotheks- und Informationswissenschaft(en) – eingangs in Richtung Singular, ausgangs im möglicherweise gewünschten Traditionsplural – und zeichnet den Bibliotheken einen Kampf um Akzeptanzsicherung in digitalen Forschungsumgebungen auf.

Auch wenn er den Ausdruck nicht gebraucht, wird schon anhand der Zahlen aus der Budgetierung unmissverständlich klar, dass digitale Forschungsumgebungen immer Big Science sein müssen. Und die wird nur, so die Annahme, über Umschichtungen im Finanzbedarf finanzierbar sein. Wollen die an Bedeutung verlierenden Universitätsbibliotheken – in den STEM-Fächern spielen sie kaum mehr in größerem Umfang auf, so die Botschaft – ihre Mittel nicht einfach fortgeschichtet bekommen, führt für sie kein Weg an der Anpassung an die Erfordernisse der eResearch vorbei, die bei Norbert Lossau nicht etwa elektronisch heißt, sondern inklusive aller benennbaren Open-Komponenten, enhanced sein wird. Ein schönes Wort, im dem sich viel containern lässt.

Die Perspektive des Göttinger Direktors und jüngsten Honorarprofessors am Institut für Bibliotheks- und Informationswissenschaft lautet nun und völlig nachvollziehbar, dass sich Bibliotheken stärker in Forschung und Lehre ihrer Universitäten einbringen müssen. Am Ende der Entwicklung steht, dass die idealerweise dreifach qualifizierten Bibliotheksmitarbeiter (Bibliothekskompetenz, fachwissenschaftliche Kompetenz, informatische Kompetenz) feste Akteure (embedded librarians) in den Forschungsprojekten sind. (vgl. dazu auch Kaden, 2011, S. 348f.)

Die im Auditorium anwesenden angehenden Fachkräfte haben vielleicht nicht unbedingt mit Freude vernommen, dass in der Praxis an den für diese Entwicklung neuralgischen Punkten in der Regel nicht-bibliothekarische Experten (mit bibliothekarischer Zusatzausbildung) zum Einsatz kommen. So ein richtig mitreißendes Plädoyer für die Zukunft der bibliotheks- und informationswissenschaftlichen Fachausbildung konnte man aus der Vorlesung entsprechend leider nicht herauslesen. Aber am Ende doch ein klares Bekenntnis. Die Vision für die Rolle der Universitätsbibliotheken im Forschungsumfeld nahm sich allerdings eher wie der Entwurf einer Überlebensstrategie aus, die vorwiegend darin besteht, sich in eine Entwicklung zu fügen, die auf Bibliotheken zur Not auch verzichten kann.

Es ist einsichtig, dass die traditionelle Universitätsbibliothek, wie wir sie noch als Institution analoger Zeiten kennen, in der erweiterten Forschung mit digitalen Mitteln nicht bestehen kann. Allerdings ist diese Entwicklung generell schon in der nachmonographischen Wissenschaft angelegt und die nicht-digitaltechnologischen Komponenten dieser Trends findet man bereits im Weinberg-Report. Viele der abstrakten technologischen Ideen dagegen bei Vordenken wie Paul Otlet.

Insofern erscheint enhanced Research sogar mehr als Mittel dokumentarischer Praxen als als Fortsetzung der Bibliotheksarbeit. Für die Bibliotheken mag dies ein wenig tragisch erscheinen, denn die Chance des Schrittes von der Organisation und Verwaltung hauptsächlich der Form hinein in die Kuration der Inhalte der von ihnen verwalteten und vermittelten Medieneinheiten, also im Prinzip schon die vordigitale Virtualisierung des Geschriebenen, gab es schon lange vor dem ersten WWW-Zugang. Vielleicht zeigt sich hier auch als Defizit, dass die Bibliotheks- und Dokumentationswissenschaft gegenüber ihren Zielinstitutionen wahrscheinlich nie wirklich schlagkräftig genug war, um solche Vorlagen erfolgreich zu vermitteln. Und leider zeigt sie sich auch heute noch (als Bibliotheks- und Informationswissenschaft) mehr als Ausbildungs- und Projektdisziplin denn als wirklich umfänglich Erkenntnis und Orientierungswissen produzierendes und kommunizierendes Fach.

II Obsoleszenz und Klassifikation

Dass sie bei den in Deutschland recht schmalen Ressourcen ein äußerst weitläufiges Feld bearbeiten muss und daher naturgemäß nicht an jeder Stelle die tiefsten Furchen ziehen kann, unterstreicht die thematische Bandbreite der heute veröffentlichten Preprints zur Ausgabe 02/2012 des Journal of Documentation. Alle Beiträge verbindet, dass sie auf die eine oder andere Art kritisch sind. Und wer sich für informationsethische Fragen interessiert, findet hier eine ansprechende Sammlung.

Michael Buckland, der die Leistungskennzahl von einer Publikation im Jahr bereits in der ersten Woche des Jahres 2012 erfüllte, übertrifft das Soll in der zweiten Woche mit einem Grundsatzpapier zur Obsolescence in Subject Description. Die Terminologie der Sacherschließung – in diesem Fall die Library of Congress Subject Headings – ist wie die gesamte natürliche Sprache Ergebnis sozialer und kultureller Konstruktionen und deshalb von ständigen (semiotischen) Verschiebungen betroffen. Bezeichnungen veralten (Horseless carriages, Eskimos, Idiocy), Verweise werden politisch untragbar (Sexual perversion see also Homosexuality), Ausdrücke erfahren Differenzierungen (rabbit) und Umdeutungen und bekommen ganz neue Varianten zur Seite gestellt. Andererseits ist die traditionelle Anforderung an die Sacherschließungssysteme Zeitstabilität. Daraus ergeben sich ein Widerspruch und eine willkommene Herausforderung für alle, die mit Freude Kreise quadrieren. Ein nicht-dynamisches, kontrolliertes Indexierungsvokabular, so zeigt der Text zur terminologischen Obsoleszenz, lässt sich mit einem anderen Wort aus der O-Familie beschreiben: Oxymoron:

„A static, effective subject indexing vocabulary is a contradiction in terms.”

Vivien Petras, die am IBI (auch) auf diesem Gebiet forscht, wird sich freuen, dass  ihr kalifornischer PhD-Betreuer sie mit Dank zitiert (und zwar mit der hier annotierten Arbeit).

III Das Archiv als Bezeugung – das Beispiel Kambodscha

Der Aufsatz von Michelle Caswell bietet in gewisser Weise gleich den (bitteren) Anwendungsfall für das genannte Problem. Die Autorin setzt sich u.a. in Bezug auf die auch von Michael Buckland empfohlene Arbeit von Geoffrey C. Bowker und Susan Leigh Star (1999) mit dem ethnifizierenden Konzept der Roten Khmer (als Grundlage der Khmerization) sowie der Rolle der Klassifikation des Documentation Center of Cambodia bei der Aufarbeitung und Strafverfolgung hinsichtlich der Einordnung der Geschehnisse unter dem Regime als Genozid auseinander.

Zudem zeigt der Artikel allgemein auf, welche Rolle die Digitalisierung von Akten und die Datenanalyse in derartigen Kontexten für die historische Aufklärung spielen kann und welche Bedeutung den Archivaren zukommt. In diesem Fall war es offensichtlich die Berücksichtigung der Kategorie der Ethnizität im Datenbestand, die vor dem Rote-Khmer-Tribunal überhaupt erst eine Sensibilität für die genozidalen Prägung der Herrschaft herstellte. Die Archive sind für die Autorin aktive Bausteine in der Aufarbeitung von Geschichte:

„[R]ather than being impartial storehouses of information, archives are contested sites that, through the creation and application of descriptive standards, conduct the messy ethical business of sorting the past.”

Daraus erwächst freilich für die Archivare eine beträchtliche informationsethische Verantwortung:

„[T]his paper enjoins us to think critically about the consequences of identity-based classification systems and to consider how such systems may be strategically deployed to advance political goals.”

IV Der bibliotherapeutische Diskurs

Auch der Beitrag von Liz Brewster, Barbara Sen und Andrew Cox von der University of Sheffield beschäftigt sich mit einer politischen Fragestellung. Sie untersuchen mithilfe der Akteur-Netzwerk-Theorie (ANT) die Durchsetzung eines bibliotherapeutischen Projektes namens Book Prescription Wales (BPW). (sh. dazu auch hier)

Die Aufmerksamkeit liegt dabei nicht auf der Bibliotherapie selbst, sondern auf dem Verlauf des Legitimationsdiskurses zur Durchsetzung dieses Ansatzes. Die AutorInnen kommen zur Erkenntnis, dass, obschon die Wirkung bibliotherapeutische Verfahren erwiesen ist, die Evidenz basierte Argumentation in diesem Fall nicht ausschlaggebend war:

„The focal actor’s argument was that if the treatment need was to be met in a cost-effective manner, bibliotherapy delivered by GPs [General Practitioners] and libraries must be used and would benefit all actors in the network […]. The simplicity of Books on Prescription was a selling point of the scheme.“

und

„BPW is legitimised by drawing on key institutional agendas including cost-effectiveness and
reduced waiting times for treatment.”

V Social Discovery Tools

Louise Spiteri von der Dalhousie University führt uns mit ihrem Beitrag von der eher kommunikationswissenschaftlichen Diskursanalyse zurück zum bibliothekarischen Kerngeschäft. In ihrer Literaturauswertung beschäftigt sie sich mit Social Discovery Systems als Option, die Lücke zwischen Katalogisierern und Nutzern zu überbrücken, mit dem Ziel, die Katalogbenutzung für die zweitgenannte Gruppe angenehmer zu gestalten sowie in Rückkopplung den Katalogisierenden Erkenntnisse zum Informationsverhalten der Nutzer zu vermitteln. Das kann wiederum direkt auf die Systemgestaltung zurückwirken:

„User-contributed metadata in the form of tags, ratings, or reviews, provide cataloguers with the opportunity to observe directly how users interact with catalogue records and adapt them to meet their needs.”

Der Beitrag ergänzt den Obsoleszenz-Aufsatz Michael Bucklands in gewisser Weise um eine pragmatische Note: Nicht nur die Terminologie, sondern auch der Umgang mit dieser wird im Nachgang zum Web 2.0 dynamisiert die Klassifikation. Der hierarchische strukturierte Einkanal-Katalog wird zu Interaktionsfläche zwischen Informationsvermittler und Informationsnutzer. Dies wird auch, so das Fazit der Autorin, Veränderungen der Katalogisierungspraxis nach sich ziehen.

VI Informationsbedürfnisse von Obdachlosen

Weniger auf grundsätzliche Änderungen als auf ein Bewusstsein für die informationsethische Dimension öffentlicher Bibliotheken als, wenn man so will, gesellschaftlicher Teilhaberaum zielt die Untersuchung von Thomas Muggleton und Ian Ruthven vom informationswissenschaftlichen Fachbereich der University of Strathclyde. Sie untersuchten, wie sich Obdachlosigkeit auf informationelle Bedürfnisse auswirkt. Dafür interviewten sie Betroffene in Glasgow und konnten zweifelsfrei feststellen, dass für die Befragten die Benutzung öffentlicher Bibliotheken zur sozialen Teilhabe genauso wie zur Hebung des Selbstwertgefühls beiträgt. Zudem ermöglicht die konzentrierte Lektüre in der Bibliothek eine Form von Eskapismus und Zerstreuung, die, so die Autoren, in diesem Zusammenhang einen besonderen Stellenwert erhält:

„In the context of social isolation, unpleasant living conditions and traumatic life events, both past and present, the ability to switch off and distract oneself can be a vital corollary of serving more basic needs for food, clothing and shelter.”

Die informationellen Bedürfnisse obdachloser Menschen unterscheiden sich, so ein Ergebnis, nicht von denen derer mit festem Wohnsitz. Jedoch sind der Lebenszusammenhang und damit die Möglichkeiten, den Bedürfnissen zu entsprechen, grundverschieden.

VII Multimodale Suche und Grundschüler

Anna Lundh und Mikael Alexandersson  setzen sich mit dem Bildersuchverhalten von Grundschülern auseinander und verorten ihre Forschungsfrage in einem Umfeld, das sich als „multimodaler Informationskompetenz“ (multimodal information literacy) bezeichnen lässt. In ihrer ethnographisch angelegten Studie zeigen sie, welcher Problemlösungsverfahren sich die Untersuchungsgruppe bei diesem Prozess bedient. Sie kritisieren zugleich ein textzentriertes Verständnis des Informationsverhaltens. Die spielerische Auseinandersetzung der Kinder mit der Medienform Bild offenbart das Potenzial von Bildern als vielschichtiges, multimodales „semiotic tool“. Ihre Arbeit verstehen sie zugleich als methodologischen Beitrag für die Untersuchung eines multimodal ausgerichteten informationellen Handelns:

„Our study shows that in order to understand and question multimodal aspects of information activities, methods that make multimodal analyses possible must be employed.”

VIII Das verworfene Wissen

Schließlich befassen sich Gary P. Radford, Marie Louise Radford und Jessica Lingel mit der, wenn man so will, Bibliothek der ausgesonderten Bücher bzw. „libraries-which-are-not-libraries“. In Anknüpfung an Michel Foucault hinterfragen sie die Rolle der Bibliothek als institutionalisierte Autorität der Wissensverwaltung, die darüber entscheidet, was des Bewahrens wert ist und was deakzessioniert und also aus dem Bestand entfernt wird.

Mit diesen Repräsentanten des ausgeschlossenen Wissens werden zwei alternative Bibliotheksräume konkret gefüllt: die Reanimation Library in Brooklyn sowie die Public Library of American Public Library Deaccession von Julia Weist and Mayaan Pearl. (vgl. zu Julia Weist auch diesen Beitrag im LIBREAS-Weblog) Der Aufsatz der AutorInnen erörtet nun die kulturphilosophische Dimension dieser alternativen Bibliotheksräume:

„The Reanimation Library and the Public Library of American Public Library Deaccession take advantage of this process both figuratively and literally. In doing so, they effectively construct a bridge between disuse (discarded) and use (discovered), conventional (trash), and alternative (treasure), theoretical (as discourse formation) and practice (as a site of artistic creation).”

Das faszinierende Element dieser Auseinandersetzung liegt darin, wie sich aus einer einzigen Gemeinsamkeit heraus begründete Klasse (ausgesondert) ein Bestand ergibt, der möglicherweise Aussagen über die Lücken im Diskurs zulässt. Vielleicht kann man auf diese Weise mittels negativer Abzeichnung irgendwann wirklich semiotische Verfahren entwickeln. In jedem Fall entsteht damit ein ganz besonders, halb arbiträres Verzeichnis der Inhalte, die buchstäblich keinen Bestand haben sollen:

„The libraries described here find and demonstrate connections among deaccessioned books that the conventional library is unable to foresee or capture in its catalogs.”

IX Die endlose Wiederbelebarkeit des Wissens

In dem sie für die Makulatur vorgesehenen physischen Exemplare in neuer Form und neuem Kontext bewahren, unterlaufen die alternativen Bibliotheken nebenbei sogar in der physischen Welt die von Stanley Fish betonte Vergänglichkeit der Diskurse:

„To be mortal is to be capable of dying (as opposed to going on and on and on), and therefore of having a beginning, middle and end, which is what sentences, narratives and arguments have: you start here and end there with the completed thought or story or conclusion (quod erat demonstrandum).”

Nun könnte man im Sinne einer enhanced Discourse Research die Daten der deakquirierten Bestände auf eine Karte der aussondernden Bibliotheken sowie einen Zeitstrahl mappen und damit ein sehr differenziertes Bild des ausschließenden Umgangs mit Diskurselementen (Themen, Inhalten, Autoren, etc.) in Zeit und Raum gewinnen. Dieses Wissen sichtbar zu machen, käme einer Reanimation gleich. Digitale Inhalte ließen sich also nach Bedarf wiederbeleben.

Denkt man an dieser Stelle weiter, tritt in der Tat die theologische Dimension digitaler Geisteswissenschaften und das von Stanley Fish angedeutete Transzendieren der Sterblichkeit im Digitalen deutlich hervor. Das Rückkanalkabel fungiert hier auch als Rückreiseticket für den digitalen Styx – wenn denn auf der anderen Seite jemand ruft. Der Tod – wenigstens des Inhalts, wenn schon nicht des Autors – wird auf einmal reversibel.

Allerdings brauchen wir dafür auch die Reanimateure. Womit wir zurück zu Norbert Lossau gelangen, der heute Abend deren, wenn man so will, qualifikatorisch notwendige Dreifaltigkeit beschrieb: Sie müssen, um im Bild zu bleiben, (a) die Toten gut kennen, (b) das Boot zu navigieren vermögen und (c) wissen, wohin welche Strömung führt.

X Quellen:

Liz Brewster, Barbara Sen, Andrew Cox, (2012) Legitimising bibliotherapy: evidence-based discourses in healthcare. In: Journal of Documentation, 68 (2) (EarlyCite)

Michelle Caswell, (2012) Using Classification to Convict the Khmer Rouge. In: Journal of Documentation, 68 (2) (EarlyCite)

Michael Buckland (2012) Obsolescence in Subject Description. In: Journal of Documentation, 68 (2) (EarlyCite)

Stanley Fish (2012) The Digital Humanities and the Transcending of Mortality. In: Opinionator. New York Times, 09.01.2012

Ben Kaden (2011) Referenz, Netzwerk und Regelkreis. In: Information – Wissenschaft & Praxis. 62 (8), S. 343-350

Norbert Lossau (2012) eResearch und neue Forschungsinfrastrukturen: wie das Internet wissenschaftliche Bibliotheken verändert. Vortrag gehalten im BBK am 10.01.2012, Berlin. Abstract

Anna Lundh, Mikael Alexandersson, (2012) Collecting and Compiling: The Activity of Seeking Pictures in Primary School. In: Journal of Documentation, 68 (2) (EarlyCite)

Thomas Muggleton, Ian Ruthven, (2012) Homelessness and access to the informational mainstream. In: Journal of Documentation, 68 (2) (EarlyCite)

Gary Paul Radford, Marie Louise Radford, Jessica Lingel, (2012) Alternative Libraries as Discursive Formations: Reclaiming the Voice of the Deaccessioned Book. In: Journal of Documentation, 68 (2) (EarlyCite)

Louise Spiteri, (2012) Social discovery tools: Extending the principle of user convenience. In: Journal of Documentation, 68 (2) (EarlyCite)

50 Days of Lulz: Welche informationsethischen Fragen warf die Hackergruppe LulzSec mit ihren Aktivitäten auf? [Preprint]

Posted in LIBREAS preprints by Karsten Schuldt on 13. Juli 2011

von Karsten Schuldt

[PDF des Artikels „50 Days of Lulz“]

Im Mai und Juni 2011 operierte eine Gruppe von Hackern unter dem Namen LulzSec relativ offensiv und mit starker medialer Begleitung. Die Gruppe verkündete, sich vor allem über die schwache Sicherheit von Servern und Homepages lustig zu machen und hauptsächlich nach dem Prinzip zu operieren, selber Spaß zu haben. Als Methoden ihrer Angriffe benutzte die Gruppe vor allem DDoS-Attacken, offenbar ausgeführt von einem eigens aufgebauten Bot-Netz, sowie das Auslesen von Daten mittels SQL Injections. Beide Methoden wurden von anderen Hackern als relativ simpel bezeichnet, obgleich LulzSec immer wieder betonte, weitere Methoden zu benutzen. Dennoch erregt die Gruppe großes Aufsehen, zum einen da sie relativ viele Daten, zu denen sie Zugang gefunden hatte, veröffentlichte und sehr großen Organisationen – unter anderem das FBI – als Ziel ihrer Attacken aussuchte, zum anderen durch die Angewohnheit, die Öffentlichkeit beständig über ihre Attacken zu informieren.

Die Gruppe wurde von einigen auf Internetthemen spezialisierten Medien als „Grey Hat Hackers“ bezeichnet, da sie Elemente des Hackens, welches sich moralisch oder politisch motiviert und des Crackens, welches explizit Zerstörung in Daten und Servern anrichten oder einen finanziellen Gewinn aus den Onlineaktivitäten ziehen will, in sich vereinte.

Am 26.06.2011 Mitteleuropäische Zeit, beziehungsweise kurz vor dem Ende des 25.06.2011 in den nordamerikanischen Zeitzonen, verkündete LulzSec, sich nach 50 Tagen Aktivität selber aufzulösen. Über die Gründe für diese Auflösung wurde sofort spekuliert, wobei mehrere Stimmen davon ausgingen, dass die bislang anonym agierende Gruppe befürchten musste, kurz vor der Ent-Anonymisierung durch andere Hackergruppen oder aber durch Strafverfolgungsbehörden zu stehen. LulzSec selber verkündete, dass sie ihre Aktivitäten von vornherein auf diese 50 Tage angelegt hätte.

Die Existenz und die Aktivitäten dieser Gruppe sowie die Reaktionen auf diese von Seiten anderer Hackergruppen, spezialisierter Medien, der unterschiedlichen Internet- und Spiele-Communities und der von den Angriffen betroffen Firmen und Organisationen werfen eine Reihe von ethischen Fragen im Bezug auf Informationsnutzung, Datenschutz, Verantwortung, Hackerethik und Netzaktivismus auf. Es ist leicht ersichtlich, dass sich diese ethischen Fragen nicht nur für die Subkultur des Hackens, sondern für alle Einrichtungen und Individuen stellen, die sich mit den Internet befassen, insbesondere aber für Initiativen, die sich dem Netzaktivismus verschrieben haben. Angesichts dessen, dass diese Gruppe mit ihrem – unter Umständen auch vorläufigen – Ende eine klare Zäsur gesetzt hat, bietet sich dieses Beispiel für eine Übersicht zu den ethischen Fragen des Internetzeitalters an.[1] Im Folgenden sollen anhand von LulzSec diese Fragen kruz diskutiert werden.

(more…)