LIBREAS.Library Ideas

Ein Plädoyer für mehr Gerechtigkeit durch öffentliche Informationsinfrastrukturen

Posted in LIBREAS.Feuilleton by Karsten Schuldt on 11. Juni 2018

Zu: Safiya Umoja Noble (2018). Algorithms of Oppression. How Search Engines Reinforce Racism. – New York : New York University Press, 2018

Karsten Schuldt

 

Technologie ist nicht neutral. Ist das neu?

Technologie und Algorithmen sind nicht neutral und auch nicht einfach reine Widerspiegelungen gesellschaftlicher Verhältnisse. Was an Technologie entwickelt wird und was nicht; was als Problem definiert wird, welches Problem technisch – oder halt auf der Ebene von Software durch Algorithmen – zu lösen wäre und was nicht; was überhaupt als Problem wahrgenommen wird; auf welche Kritik von wem Rücksicht genommen wird und welche Kritik von wem ignoriert wird – all das ist gesellschaftlich. Und es wirkt dann, wenn es in Technologie umgesetzt ist, verstärkend auf die Gesellschaft zurück. Es entwickelt sich nicht in einem luftleeren Raum, in welchem nur Innovation und Genie zählen, sondern entlang von Machtstrukturen und gesellschaftlichen Diskursen. Ist das eine überraschende Aussage?

Das hier zu besprechende Buch von Safiya Umoja Noble thematisiert diesen Fakt in einer Weise, als sei er neu. Es gäbe in der Gesellschaft die Vorstellung, dass Technologie (in diesem Fall Suchmaschine-Technologie) neutral und fair wäre. Die Autorin berichtet, dass Ihre Studierenden (an der University of California) dies in ihrem Unterricht zum ersten und einzigen Mal in ihrem Studium hörten. Einen ähnlichen Eindruck vermittelt sie auch in ihren Vorträgen zum Thema (zum Beispiel auf der letzten re:publica 2018). Wenn dem so ist, ist es wohl wichtig, dass es diese Buch gibt. Es sind aber auch keine überraschenden Aussagen. Vielleicht sind dem Rezensenten einfach die beiden Wissenschaftsfelder, auf die sich die Autorin bezieht – Gender Studies und Library and Information Science – selber zu sehr bekannt, aber ihm schien, dass das Buch eher Bekanntes konkretisiert, als neues benennt.

Beispiele für Bias

Überzeugt dann aber diese Konkretisierung? Schon. Noble fokussiert auf Google beziehungsweise Alphabet, da dies einfach die grösste Firma im Bereich Suchtechnologien ist und die Ergebnisse dieser Technologie direkte Auswirkungen in der Gesellschaft haben. Sie zeigt, dass es offensichtliche Vorurteile gibt, die sich in den Suchergebnissen von Google widerspiegeln und damit auch in den Algorithmen der Maschine. Das prominent im Buch mehrfach thematisierte Beispiel ist eindrücklich: Die Autorin wollte 2011 mit ihren Nichten Quality-Time verbringen, suchte deshalb mit dem Schlagwort „black girls” nach Dingen, die diese interessieren könnten, fand aber fast nur Pornographie (und eine Pop-Band mit diesem Namen). Dies liess sich auf andere Gruppen und Themen ausweiten: „latina girls” lieferte ebenso vor allem Pornographie, aber nicht „asian girls” oder „white girls”; „three black teenagers” lieferte Polizeiphotos, „three white teenagers” Bilder von Gruppen von Jugendlichen, „unprofessional hairstyles for work” lieferte nur Bilder von Afroamerikanerinnen, „professional” nur von weissen Frauen. Es ist leicht ersichtlich, dass rassistische (und, in anderen Beispielen, sexistische) Denkstrukturen sich in diesen Ergebnissen spiegelten, nicht die Realität.

Noble problematisiert nun in ihrem Buch die Vorstellung, dies seien rein technische Probleme. Diese Position wird, wie sie zeigt, von Google beziehungsweise Alphabet eingenommen. Nicht einmal als Ausrede, sondern als Ideologie. Regelmässig verweist Google darauf, dass die Ergebnisse ihrer Maschine nicht einfach zu kontrollieren seien, sondern sich aus den Suchen in Google und den verwendeten Algorithmen ergeben würden. Gleichzeitig finden sich dann immer doch Lösungen, einige krude (so fand man nach einer gewissen Zeit unter „three white teenagers” dann auch Polizeiphotos), einige wirksamer (so findet sich heute unter „black girls” oder „latina girls” keine Pornographie mehr, ausser es wird explizit nach ihr gesucht). Für Noble ist aber klar, dass dies eine falsche Vorstellung davon ist, wie Technologie funktioniert. Welche Probleme schnell angegangen würden und welche nicht oder nur sehr langsam, hätte zum Beispiel auch mit der recht männlichen, weissen und asian-american Belegschaft von Google zu tun, auch mit der Vorstellung, dass diese Belegschaft sich meritokratisch gefunden hätte (also weil sie alle besser seien als andere). Gleichzeitig sei es aber auch ein Problem, dass die Öffentlichkeit Google mit einer fairen und interesselosen Infrastruktur gleichsetzen würde: Google sei eine Werbeplattform, die Suchen und Ergebnisse, die Technologie und Infrastruktur sei davon bestimmt. Die Öffentlichkeit – und dabei meint sie nicht nur einzelne Personen, sondern auch die Politik, Wissenschaft, Verwaltung – sähe in Google aber eine Infrastruktur, die grundsätzlich fair sei. (Dies sei nicht nur auf Google, sondern auch auf den ganzen Diskurs von Big Data zu beziehen.)

Suchergebnisse haben Konsequenzen

Weiterhin zeigt Noble, dass das alles nicht egal ist. Was gefunden wird, wenn gesucht wird, hat Einfluss auf die Wahrnehmung von Gruppen (oder auch, dass Menschen überhaupt als bestimmte Gruppen wahrgenommen werden), auf die Selbstwahrnehmung von Gruppen und von Individuen. Beispiel: Wenn „black girls” oder „latina girls” als Repräsentation ihrer selbst vor allem Pornographie finden, während andere Mädchen vor allem Angebote zur Freizeitgestaltung finden. Die Autorin zeigt dies auch noch am Beispiel von Dylann Roof, dem white nationalist welcher 2015 in Charleston neun Menschen (weil sie schwarz waren) erschoss und in seinem „Manifest” angab, dass sein Weg in die Radikalisierung mit einer Suche auf Google begann. Auch dessen Identität wurde dadurch geprägt, was zu finden war – white nationalist websites – und was nicht zu finden war – reale Informationen über Kriminalitätsraten oder Darstellungen, was an den Diskursen auf den white nationalist websites falsch war.

Das ist alles richtig. Es ist auch wichtig, dass es gesagt wird. Die Frage ist nur, ob es neu ist.

Für eine öffentliche Suchmaschineninfrastruktur

Neu ist aber wohl der Lösungsvorschlag von Noble. Sie zeigt, dass es zwar wichtig ist, solche Beispiele aufzunehmen und zu skandalisieren, dass es aber nicht darum geht, von Google zu fordern, dieses oder jenes abzustellen. Dies spielt in den Diskurs von Google selbst hinein, dass es sich nur um technische Probleme handeln würde. (Was nicht heisst, dass es falsch wäre, an den Ergebnissen etwas zu ändern.) Wichtig wäre, zu thematisieren, was hier passiert und warum. Nobel verweist darauf, dass es in der Bibliotheks- und Informationswissenschaft eine Tradition der Kritik von Kategorisierungen und Systemen der Wissenschaftsorganisation gäbe, insbesondere der DDC. An diese könne und müsse angeschlossen werden, wenn es um Suchmaschinentechnologien geht. Allerdings: eine Voraussetzung dieser Kritik sei, dass transparent ist, welche Kategoriesysteme in Bibliotheken verwendet werden – in die DDC kann man hineinschauen, aber in die Algorithmen von Google nicht (weil es eine Werbeplattform ist).

Die Lösung liegt für Noble darin, zu verstehen, welche Effekte Google auf die Gesellschaft hat und aus dieser Erkenntnis nicht etwa zu folgern, dass die Suche im Internet das Problem wäre, sondern die Struktur und Ideologie von Google. (Und anderen Firmen, aber der Fokus liegt bei Google.) Nicht ein „besseres Google”, sondern eine öffentlich finanzierte und getragene Suchmaschineninfrastruktur wäre zu fordern. Angelehnt ist diese Vorstellung erkennbar an Bibliotheken. (Für Europa klingt diese Forderung nicht so weit hergeholt. Die Europeana könnte – bei entsprechender Finanzierung – diese Infrastruktur mit aufbauen.) Nur dann sei es möglich auch zu wissen, was wieso und wie gesucht und gefunden wird; welche Probleme als solche definiert würden und welche nicht. Dies wäre politisch, aber darum geht es Noble ja: Die Vorstellung, ein Suchalgorithmus können neutral und damit unpolitisch sein, ist falsch. Damit muss man umgehen. Dadurch, dass eine solche Infrastruktur öffentlich würde, würde sie zum Beispiel nicht mehr an Werbeeinnahmen gebunden und es gäbe auch keinen Grund, die Algorithmen nicht öffentlich zu machen.1 Eine grosse Forderung, aber damit, dass Noble sie auf den Tisch legt, wird sie auch diskutierbar.

Kritik

Wie schon angedeutet, ist der Rezensent zwar vom Thema des Buches überzeugt, nicht aber davon, dass es inhaltlich etwas neues bieten würde. Wirklich neu ist nur der zuletzt genannte Vorschlag einer öffentlichen Suchmaschineninfrastruktur.2 Dieser Eindruck zieht sich auch durch das Buch selber. Die Hauptargumente und -aussagen finden sich praktisch in der Einleitung, später werden sie immer wieder neu aufgegriffen. Es wird eher in Kaskaden diskutiert (also immer wieder das, was schon gesagt wurde, aufgegriffen, ergänzt und dann in der nächsten Runde wieder aufgegriffen und so weiter), als das es einen roten Faden gäbe. Es scheint, dass dies in einem Universitätsseminar angemessen sein kann („Lernen durch Wiederholung”), für ein Buch scheint es weniger praktisch.

Zudem hat die Autorin die irritierende Angewohnheit, quasi alle Personen, von denen Studien oder anderes zitiert wird, mit Namen und Funktion, beispielsweise dem Institut bei dem sie arbeiten, vorzustellen, so als würde dies den Argumenten mehr Autorität verleihen – was aber nicht der Effekt ist.

Fazit

Wie gesagt scheint vieles von dem, was die Autorin darlegt, schon bekannt. Vielleicht nur in den kleinen Kreises der kritischen Bibliotheks- und Informationswissenschaft (aber dieses Blog erreicht vielleicht vor allem diesen Kreis). Es untermauert mehrfach das Wissen, dass Technologie und Algorithmen nicht neutral sind und dass sie, wenn unkritisiert, in einer rassistischen Gesellschaft vor allem die rassistischen Strukturen reproduzieren. (Noble argumentiert und sucht im Kontext der US-amerikanischen Gesellschaft, aber es ist ein leichtes, dies auf die deutsche, schweizerische, österreichische, liechtensteinische Gesellschaft und die Diskursstrukturen und Vorurteile hier zu übertragen.) Sie tut dies in zitierbaren und klaren Aussagen. Es gibt also keinen Grund, von diesem Buch abzuraten; aber es scheint doch an vielen Stellen zu lang.

Grundsätzlich in den Diskurs als potentielle Lösung aufzunehmen ist der Vorschlag, Suchmaschineninfrastrukturen, nach dem Vorbild von Bibliotheken, als öffentliche Infrastruktur einzufordern.

Fussnoten

1 Julien Mailand und Kevin Driscoll machen in ihrem in diesem Blog auch schon besprochenen Buch zum Minitel-System im Frankreich der 1980er-Jahre [Julien Mailland ; Kevin Driscoll (2017). Minitel: Welcome to the Internet (Platform Studies). Cambridge ; London: The MIT Press, 2017] ein ähnliches Argument: Ein Vorteil des staatlich organisierten Systems – gegenüber heutigen Plattformen wie Facebook, die einfach so Entscheidungen über Inhalte, die sie anzeigen oder nicht anzeigen treffen dürfen – sei gewesen, dass alle Entscheidungen darüber, was im System zugelassen wurde und was nicht, potentiell der öffentlichen Kontrolle (ergo: Beschwerden, Klagen, Einsichtsnahmen in Unterlagen) unterlag.

2 Hier stellt sich wirklich die Frage, wann und warum Bibliotheken aufgehört haben, über eine solche nachzudenken. Als noch Yahoo mit seinen Kategorien und Linksammlungen die Suche im Internet bestimmte, gab es solche Diskussionen und mit der Deutschen Internetbibliothek auch eine Infrastruktur, die dies versuchte. Nachdem einfache Suchen” zum bestimmenden Modus der Suche wurde, scheinen Bibliotheken aufgegeben zu haben. Heute ist wohl noch nicht mal bekannt, wie die Suchergebnisse in den Bibliothekskatalogen zustande kommen; auch das ist intransparent von den Anbietern der Katalogsoftware organisiert.

Die Zwiegesprächsregulationsmaschine. Boris Groys über Google.

Posted in LIBREAS.Referate by Ben on 27. Februar 2012

Anmerkungen zu: Boris Groys (2012) Google: Worte jenseits der Grammatik.  dOCUMENTA (13): 100 Notizen – 100 Gedanken Nr. 046. Ostfildern : Hatje Cantz. (Weitere Informationen zum Titel beim Verlag)

von Ben Kaden

„Die Sprache ist ja weder blosses Werkzeug zur präzise-korrekten Verständigung, noch lässt sie sich in Schablonen von Norm und Ethos pressen. Sie lebt, assimiliert fortlaufend neue Erfahrungen und Realitäten und ist darüber hinaus auch ein hoch emotionales Medium.“

So schreibt der Bankier, Pferdezüchter und Stiftungsrat Hans-Dieter Vontobel im Vorwort zu Broschüre „Sprachen der Jungen“ von Angelika Overrath (Zürich: Vontobel-Stiftung, 2011, mehr dazu bei der NZZ) und benennt damit genau das Verständnis, was wir gemeinhin von der dynamische Grundsubstanz unserer Kommunikationen haben sollten. Für die Alltagssprache von Angesicht zu Angesicht wird sich dies auch kaum ändern und wenn junge Menschen (in diesem Fall etwa um die 14 Jahre) in der S-Bahn einander zurufen: „Das ist doch voll ehec, Alter!“ dann beweisen sie durch die Übernahme durchaus Anschlusspunkte und Rekontextualisierungskompetenz zu übergreifenden gesellschaftlichen Diskursen. Anders stellt sich die Situation dagegen für die digital vermittelte Kommunikation dar. Boris Groys beschäftigt ich in einem kleinen als Positionierung zur Documenta 13 publizierten Aufsatz mit den Auswirkungen einer wenn man so will Googlefizierung der Kommunikation. Als Ausgangspunkt formuliert er die Prämisse, dass unser Leben ein beständiges Zwiegespräch mit der Welt und daher, wenn man so will, in jedem Moment kommunikativ sei. Für das Verhältnis zwischen Individuum und Welt drängen sich damit zwei Fragen auf:

  1. Wie stellen wir bestimmte Fragen an die Welt?
  2. Wie bestimmen wir, welche der Antworten, die uns die Welt gibt, als relevant erscheinen?

Die Diskussionen die sich bei einer allgemeinen Betrachtung aus dieser Annäherung ergäben, führten unweigerlich in die Elementardebatten der Kulturgeschichte. Mit dem Internet, dass uns als Kommunikationsraum ein zugleich ungreifbares (da virtuelles), aber doch in der Struktur erkennbares (dank der programmierten Basis) Modell von Welt bietet, können wir diese Dialogizität konkretisieren und konkret untersuchen. Man kann natürlich darüber streiten, ob die Aussage:

„Heute führen wir unser Zwiegespräch mit der Welt in erster Linie über das Internet.“

nicht auch vom Lebensstil abhängig ist und es nach wie vor Menschen gibt, die das Internet als Beigabe ihrer Kommunikationswelt benützen oder sogar überhaupt nicht.  Aber nicht erst seit Kathrin Passig (vgl. dazu u.a. diesen Kommentar) ist die Praxis, eigene Erfahrungen mit diesem Medienfeld zur Allgemeinverbindlichkeit hochzurechnen ein Kernbaustein der digitalen Diskurse zum Medienwandel. Die damit verbundene verkündete markerschütternde Dringlichkeit, sein Leben entsprechend zu ändern, wäre selbst hervorragender Gegenstand einer Reflexion über die Prozesse der Normkonstruktion in der digitalen Gesellschaft. Boris Groys stellt jedoch einen anderen Aspekt in den Mittelpunkt seines Aufsatzes. Er fragt nach den „spezifischen Regeln und Formate[n]“ die den Strukturrahmen des Zwiegesprächs bestimmen. Google, als zentrale Anfrageinstanz, erhält dabei einen besonderen Status: (more…)

Autorität und Schreibmaschine: Überlegungen zur Digitalkultur.

Posted in LIBREAS.Feuilleton by Ben on 1. April 2011

“I love the tactile feedback, the sound, the feel of the keys underneath your fingers”

In der Ausgabe des Times Literary Supplement vom 25. März 2011 bespricht der Medienwissenschaftler David Finkelstein unter der Überschrift „Textual liberation“ zwei aktuelle Bücher zur Veränderung des Schreibens unter digitalen Bedingungen. Das Thema ist nicht nur medientheoretisch, sondern auch bibliothekswissenschaftlich bedeutsam, betrifft doch der Übergang zum so genannten Read/Write-Web und die damit verbundene Wandlung der dominierenden Lese- und Schreibtechnologien und -praxen alles, was für Bibliotheken die Zeitstrahlsegmente Gegenwart und Zukunft markiert.

Nachfolgend spanne ich von diesem Rezensionstext ausgehend auf sanften 3000+ Wörtern einen regen Bogen ausgehend vom Zusammenhang zwischen dem digitalen Handeln und den dieses Handeln prägenden Institutionen hin zur Parallele von Schreibmaschine und digitalem Textwerk vor dem Hintergrund einer Studie aus dem Jahr 1932. An den Bibliotheken geht dieser Bogen ausnahmsweise etwas vorbei. (more…)

Kulturkurven für Achtjährige: Ein kurzer Blick auf Googles Ngrammatologie

Posted in Sonstiges by libreas on 17. Dezember 2010

(Dieser kleine Beitrag ist der großen Maxi gewidmet, unserer wunderbaren und heute Geburtstag feierenden Redaktionskollegin. Hier ist Deine Kurve!)

„The goal is to give an 8-year-old the ability to browse cultural trends throughout history, as recorded in books“

zitiert die New York Times den Harvard Junior Fellow Erez Lieberman Aiden, der mit anderen hinter dem Google Books Ngram Viewer steht. (Patricia Cohen: In 500 Billion Words, New Window on Culture. In: nytimes.com, 16.12.2010) Die Alterszuschreibung ist dabei weniger zufällig gewählt, als der kurzsichtige Zeitungsleser möglicherweise annimmt. Das „childparenting“-Portal von About.com weist für Achtjährige (auch in Hinblick auf die anstehenden Weihnachtsfestivitäten interessant) neben dem Fahrrad auch folgende zielgruppengeeignete Objekte aus:  „Science Kits, Craft Kits,…, Books…“. Und wo findet man schon mehr Bücher als bei Google Books und das auf der Kostenebene für den Gegenwert eines Internetzugangs?

Google Labs führt mit dem Ngram-Viewer in gewisser Weise „Science Kits“ und „Books“ zusammen und streut eine Prise Franco Moretti (=quantitative Literaturwissenschaft) dazu. Die Leute hinter dem Ngram-Viewer nennen die daraus resultierenden Erkenntnismethoden Culturomics und von dort dürften es nur noch wenige Schritte zu einer Culturmetrics zu nennenden aktualisierten Bibliometrie sein.

Der Ngram-Viewer zeichnet schon einmal ganz wunderbar den Verlauf der Häufigkeit des Auftretens von Zeichenketten im – so wird gesagt – 500 Milliarden Wörter starken Korpus der Google Book-Scans. Wirklich spannend wenn man Verläufe verschiedener Ausdrücke übereinander legt und damit die Tür zur Interpretation der Stellung der bezeichneten Phänomene innerhalb des Publikationsgeschehens des 20. Jahrhunderts (ins 21ste lappt der Korpus bis 2008) per Graphen öffnet.

Vergleicht man beispielsweise die zunächst etwas konkurrierenden und mittlerweile komplementär auftretenden „Bibliothekswissenschaft“ und „Informationswissenschaft“, erhält man folgendes Bild:

Die Informationswissenschaft betritt die Bühne des Publikationswesens ziemlich genau zum Zeitpunkt der  Shannon-Zäsur (Publikation der Mathematical Theory of Communication), schrammt eine Weile an der X-Achse entlang, um Mitte der 1960er Jahre abzuheben, Mitte der 1980er den Klimax zu erreichen und schließlich in ein sanftes Tal hinabzugleiten, das sich gen Millenium etwas aufhügelt.

Die Bibliothekswissenschaft saust dagegen schon 1920 mit einer gewissen Häufigkeit auf die Bühne, springt um 1930 über die 0,000010 % Marke (des Gesamtaufkommens an Wörtern), erlebt nach 1945 eine Hausse, die wahrscheinlich der Wachstumskurve des Wirtschaftswunders nicht unähnlich ist, um in den 1970er Jahren an die Decke der Darstellung zu stoßen. Danach bricht sie ein wie der Neue Markt im Herbst des Jahres 2000, kämpft sich aber interessanterweise mit dem Boom der Dot-Com-Industrien kurz davor tapfer nach oben. Was die obige Grafik verbirgt, sieht man, wenn man die Suche bis zum chronographischen Ende des Korpus (2008) erweitert: Etwa um 2002 bricht die Bibliothekswissenschaft ein und wir in Berlin wissen, was die lokalen Hochschulstrukturreformbemühungen zu diesem Zeitpunkt beabsichtigten…

Die Dokumentationswissenschaft zeitigt weniger Auf-und-Abs, hat es aber nie geschafft, auch nur die Linie der Informationswissenschaft zu tangieren.

Nun werden sich die Achtjährigen aller Altersstufen nur bedingt für die Schicksalslinien der beschrieben drei disziplinären Teile unseres Wissenschaftsblickwinkels beschäftigen. Sondern eher musikalische Phänomene vergleichen,  ihre Lieblingsportarten gegeneinander aufrechnen, die Popularitätsverläufe einzelner Haustierrassen nachzeichnen oder die Beliebtheit von Schriftstellern der Gruppe 47 aneinanderlegen. Oder ermitteln, dass Heckenbraunelle und Williams Christ bei der Häufigkeit ihrer Referenzierung im letzten Jahrhundert gar nicht so weit auseinander liegen.

Weitaus mitreißender als die Parallelität von Vögeln und Birnen ist aber das, was Rückschlüsse auf den Unterschied zwischen E- und P-Welt zulässt. Beispielsweise der Vergleich dieser zwei Basisbausteine unserer Kultur:

Das deutschsprachige Google-Internet positioniert das Verhältnis dagegen aktuell so: Rot=23 Millionen Treffer, Blau=8,87 Millionen Treffer. Das harmoniert wiederum mit den Trends, die uns die Kurve für englischsprachigen Druckerzeugnisse vorzeichnen (Wobei man allerdings berücksichtigen sollte, wie stark dabei aufgrund der erweiterten Semantik im Englischen der Feminismus in diese Kurven eingeflossen sein dürfte.)

Das Potential der Ngram-Visualisierung wird vermutlich bereits anhand der wenigen angeführten Beispiele deutlich, wobei es noch aussteht, die einflussnehmenden und mitunter verzerrenden Faktoren zu ermitteln. Für retrospektive Trendanalysen bietet sich damit jedoch in jedem Fall ein wundersames Werkzeug für gesellschafts- und kulturorientierte (undbibliotheksorientierte) Wissenschaften. Und die ideale Festtagsbeschäftigung für alle, auf die diese Beschreibung des zurückgezogenen achtjährigen Kindes auch in späterem Alter noch zutrifft:

„An introverted child may enjoy some limited group activity that is balanced with independent playtime. She often likes to read or play alone.“

Für die Generation des Post-Web 2.0, also die notorischen Facebookcases muss das Angebot noch mit entsprechenden Schnittstellen ausgerüstet werden, die aus dem Ngram-Buch-Vergleich ein Gesellschaftsspiel werden lassen. Denn für diese Akteure gilt laut About.com:

„The extraverted child will not be happy playing alone for long and she revels in group activities such as sports and games.“

Buchfluch gegen Google, ein Fundstück am Montag

Posted in Sonstiges by Ben on 14. September 2009

Das Thema Urheberrecht im Zeitalter der digitalen Reproduzierbarkeit und zwar insbesondere im Rahmen des Digitalisierungsunterfangens durch Google scheint nicht nur in erregte Debatten zu führen, wie wir sie vom Heidelberger Appell kennen. Im Nebeneffekt könnte es zur Renaissance eines buch- und buchdruckgeschichtlich hochinteressanten Phänomens kommen: dem Buchfluch. Der bekannteste bzw. am häufigsten bearbeitete Fall eines solchen Bücherfluches stellt wohl die Vorbemerkung Eike von Repgows zum Sachsenspiegel dar, der ausgelegt wurde, um diejenigen zu treffen, die heute gegen  § 14 des UrhG verstoßen würden. Mittlerweile ist von einem Fall zu berichten, der dieses Phänomen aktualisiert und auf die Digitalisierung und das kommerzielle Ausschlachten solcher Digitalisate anwendet. In einem amüsanten roten Buch namens „Hinz- und Kurzgeschichten“ eines Autors namens ‚Andi Leser‘ lässt sich folgender Eintrag entdecken:

Buchfluch 2.0

Buchfluch 2.0 - Quelle: Leser, Andi (2009) Hinz- und Kurzgeschichten. Berlin: Schaltzeit-Verlag.

Man darf a) gespannt sein, ob sich Google daran hält und b) falls es sich herausgefordert fühlt und das Digitalisat anfertigt, ob der Bannfluch seine Wirkung tut. Bei der Volltexterschließung könnte die automatische Indexierung angesichts so mancher in Form konkreter Poesie verfasster Textteile jedenfalls schnell an ihre Grenzen stoßen, etliche Fehlermeldungen produzieren und dadurch den ganzen Digitalisierungsprozess durcheinander bringen. Völlig substanzlos und aus dem Handgelenk scheint der Fluch also nicht verfasst zu sein. Dies gilt umso mehr, als dass der Autor ganz offen die Gefahr in Kauf nimmt, bei Eintreffen des Fluches, seine elektronische Kommunikationsplattform einzubüßen.

Mi;Nesta/Marketing library services to the Net Generation

Posted in LIBREAS.Referate by Ben on 6. September 2006

Jia Mi; Frederick Nesta: Marketing library services to the Net Generation. In: Library Management; Vol. 27 No 6/7 2006, S. 411-422

online

„Finding the right way to achieve balance between traditional values and the expectations and habits of the wired generations will determine whether libraries remain relevant in the social, educational and personal contexts of the information age.“ (S. 419)

Die beiden Bibliothekare Jia Mi und Frederick Nesta beleuchten in ihrem Aufsatz „Marketing library services to the Net Generation” Möglichkeiten die so genannte „Net Generation“ über Methoden des Bibliotheksmarketings zu erreichen und betrachten dabei die Verschiebungen bei der Nutzung von Bibliothek und WWW-Suchmaschinen. (more…)