LIBREAS.Library Ideas

Ein Plädoyer für mehr Gerechtigkeit durch öffentliche Informationsinfrastrukturen

Posted in LIBREAS.Feuilleton by Karsten Schuldt on 11. Juni 2018

Zu: Safiya Umoja Noble (2018). Algorithms of Oppression. How Search Engines Reinforce Racism. – New York : New York University Press, 2018

Karsten Schuldt

 

Technologie ist nicht neutral. Ist das neu?

Technologie und Algorithmen sind nicht neutral und auch nicht einfach reine Widerspiegelungen gesellschaftlicher Verhältnisse. Was an Technologie entwickelt wird und was nicht; was als Problem definiert wird, welches Problem technisch – oder halt auf der Ebene von Software durch Algorithmen – zu lösen wäre und was nicht; was überhaupt als Problem wahrgenommen wird; auf welche Kritik von wem Rücksicht genommen wird und welche Kritik von wem ignoriert wird – all das ist gesellschaftlich. Und es wirkt dann, wenn es in Technologie umgesetzt ist, verstärkend auf die Gesellschaft zurück. Es entwickelt sich nicht in einem luftleeren Raum, in welchem nur Innovation und Genie zählen, sondern entlang von Machtstrukturen und gesellschaftlichen Diskursen. Ist das eine überraschende Aussage?

Das hier zu besprechende Buch von Safiya Umoja Noble thematisiert diesen Fakt in einer Weise, als sei er neu. Es gäbe in der Gesellschaft die Vorstellung, dass Technologie (in diesem Fall Suchmaschine-Technologie) neutral und fair wäre. Die Autorin berichtet, dass Ihre Studierenden (an der University of California) dies in ihrem Unterricht zum ersten und einzigen Mal in ihrem Studium hörten. Einen ähnlichen Eindruck vermittelt sie auch in ihren Vorträgen zum Thema (zum Beispiel auf der letzten re:publica 2018). Wenn dem so ist, ist es wohl wichtig, dass es diese Buch gibt. Es sind aber auch keine überraschenden Aussagen. Vielleicht sind dem Rezensenten einfach die beiden Wissenschaftsfelder, auf die sich die Autorin bezieht – Gender Studies und Library and Information Science – selber zu sehr bekannt, aber ihm schien, dass das Buch eher Bekanntes konkretisiert, als neues benennt.

Beispiele für Bias

Überzeugt dann aber diese Konkretisierung? Schon. Noble fokussiert auf Google beziehungsweise Alphabet, da dies einfach die grösste Firma im Bereich Suchtechnologien ist und die Ergebnisse dieser Technologie direkte Auswirkungen in der Gesellschaft haben. Sie zeigt, dass es offensichtliche Vorurteile gibt, die sich in den Suchergebnissen von Google widerspiegeln und damit auch in den Algorithmen der Maschine. Das prominent im Buch mehrfach thematisierte Beispiel ist eindrücklich: Die Autorin wollte 2011 mit ihren Nichten Quality-Time verbringen, suchte deshalb mit dem Schlagwort „black girls” nach Dingen, die diese interessieren könnten, fand aber fast nur Pornographie (und eine Pop-Band mit diesem Namen). Dies liess sich auf andere Gruppen und Themen ausweiten: „latina girls” lieferte ebenso vor allem Pornographie, aber nicht „asian girls” oder „white girls”; „three black teenagers” lieferte Polizeiphotos, „three white teenagers” Bilder von Gruppen von Jugendlichen, „unprofessional hairstyles for work” lieferte nur Bilder von Afroamerikanerinnen, „professional” nur von weissen Frauen. Es ist leicht ersichtlich, dass rassistische (und, in anderen Beispielen, sexistische) Denkstrukturen sich in diesen Ergebnissen spiegelten, nicht die Realität.

Noble problematisiert nun in ihrem Buch die Vorstellung, dies seien rein technische Probleme. Diese Position wird, wie sie zeigt, von Google beziehungsweise Alphabet eingenommen. Nicht einmal als Ausrede, sondern als Ideologie. Regelmässig verweist Google darauf, dass die Ergebnisse ihrer Maschine nicht einfach zu kontrollieren seien, sondern sich aus den Suchen in Google und den verwendeten Algorithmen ergeben würden. Gleichzeitig finden sich dann immer doch Lösungen, einige krude (so fand man nach einer gewissen Zeit unter „three white teenagers” dann auch Polizeiphotos), einige wirksamer (so findet sich heute unter „black girls” oder „latina girls” keine Pornographie mehr, ausser es wird explizit nach ihr gesucht). Für Noble ist aber klar, dass dies eine falsche Vorstellung davon ist, wie Technologie funktioniert. Welche Probleme schnell angegangen würden und welche nicht oder nur sehr langsam, hätte zum Beispiel auch mit der recht männlichen, weissen und asian-american Belegschaft von Google zu tun, auch mit der Vorstellung, dass diese Belegschaft sich meritokratisch gefunden hätte (also weil sie alle besser seien als andere). Gleichzeitig sei es aber auch ein Problem, dass die Öffentlichkeit Google mit einer fairen und interesselosen Infrastruktur gleichsetzen würde: Google sei eine Werbeplattform, die Suchen und Ergebnisse, die Technologie und Infrastruktur sei davon bestimmt. Die Öffentlichkeit – und dabei meint sie nicht nur einzelne Personen, sondern auch die Politik, Wissenschaft, Verwaltung – sähe in Google aber eine Infrastruktur, die grundsätzlich fair sei. (Dies sei nicht nur auf Google, sondern auch auf den ganzen Diskurs von Big Data zu beziehen.)

Suchergebnisse haben Konsequenzen

Weiterhin zeigt Noble, dass das alles nicht egal ist. Was gefunden wird, wenn gesucht wird, hat Einfluss auf die Wahrnehmung von Gruppen (oder auch, dass Menschen überhaupt als bestimmte Gruppen wahrgenommen werden), auf die Selbstwahrnehmung von Gruppen und von Individuen. Beispiel: Wenn „black girls” oder „latina girls” als Repräsentation ihrer selbst vor allem Pornographie finden, während andere Mädchen vor allem Angebote zur Freizeitgestaltung finden. Die Autorin zeigt dies auch noch am Beispiel von Dylann Roof, dem white nationalist welcher 2015 in Charleston neun Menschen (weil sie schwarz waren) erschoss und in seinem „Manifest” angab, dass sein Weg in die Radikalisierung mit einer Suche auf Google begann. Auch dessen Identität wurde dadurch geprägt, was zu finden war – white nationalist websites – und was nicht zu finden war – reale Informationen über Kriminalitätsraten oder Darstellungen, was an den Diskursen auf den white nationalist websites falsch war.

Das ist alles richtig. Es ist auch wichtig, dass es gesagt wird. Die Frage ist nur, ob es neu ist.

Für eine öffentliche Suchmaschineninfrastruktur

Neu ist aber wohl der Lösungsvorschlag von Noble. Sie zeigt, dass es zwar wichtig ist, solche Beispiele aufzunehmen und zu skandalisieren, dass es aber nicht darum geht, von Google zu fordern, dieses oder jenes abzustellen. Dies spielt in den Diskurs von Google selbst hinein, dass es sich nur um technische Probleme handeln würde. (Was nicht heisst, dass es falsch wäre, an den Ergebnissen etwas zu ändern.) Wichtig wäre, zu thematisieren, was hier passiert und warum. Nobel verweist darauf, dass es in der Bibliotheks- und Informationswissenschaft eine Tradition der Kritik von Kategorisierungen und Systemen der Wissenschaftsorganisation gäbe, insbesondere der DDC. An diese könne und müsse angeschlossen werden, wenn es um Suchmaschinentechnologien geht. Allerdings: eine Voraussetzung dieser Kritik sei, dass transparent ist, welche Kategoriesysteme in Bibliotheken verwendet werden – in die DDC kann man hineinschauen, aber in die Algorithmen von Google nicht (weil es eine Werbeplattform ist).

Die Lösung liegt für Noble darin, zu verstehen, welche Effekte Google auf die Gesellschaft hat und aus dieser Erkenntnis nicht etwa zu folgern, dass die Suche im Internet das Problem wäre, sondern die Struktur und Ideologie von Google. (Und anderen Firmen, aber der Fokus liegt bei Google.) Nicht ein „besseres Google”, sondern eine öffentlich finanzierte und getragene Suchmaschineninfrastruktur wäre zu fordern. Angelehnt ist diese Vorstellung erkennbar an Bibliotheken. (Für Europa klingt diese Forderung nicht so weit hergeholt. Die Europeana könnte – bei entsprechender Finanzierung – diese Infrastruktur mit aufbauen.) Nur dann sei es möglich auch zu wissen, was wieso und wie gesucht und gefunden wird; welche Probleme als solche definiert würden und welche nicht. Dies wäre politisch, aber darum geht es Noble ja: Die Vorstellung, ein Suchalgorithmus können neutral und damit unpolitisch sein, ist falsch. Damit muss man umgehen. Dadurch, dass eine solche Infrastruktur öffentlich würde, würde sie zum Beispiel nicht mehr an Werbeeinnahmen gebunden und es gäbe auch keinen Grund, die Algorithmen nicht öffentlich zu machen.1 Eine grosse Forderung, aber damit, dass Noble sie auf den Tisch legt, wird sie auch diskutierbar.

Kritik

Wie schon angedeutet, ist der Rezensent zwar vom Thema des Buches überzeugt, nicht aber davon, dass es inhaltlich etwas neues bieten würde. Wirklich neu ist nur der zuletzt genannte Vorschlag einer öffentlichen Suchmaschineninfrastruktur.2 Dieser Eindruck zieht sich auch durch das Buch selber. Die Hauptargumente und -aussagen finden sich praktisch in der Einleitung, später werden sie immer wieder neu aufgegriffen. Es wird eher in Kaskaden diskutiert (also immer wieder das, was schon gesagt wurde, aufgegriffen, ergänzt und dann in der nächsten Runde wieder aufgegriffen und so weiter), als das es einen roten Faden gäbe. Es scheint, dass dies in einem Universitätsseminar angemessen sein kann („Lernen durch Wiederholung”), für ein Buch scheint es weniger praktisch.

Zudem hat die Autorin die irritierende Angewohnheit, quasi alle Personen, von denen Studien oder anderes zitiert wird, mit Namen und Funktion, beispielsweise dem Institut bei dem sie arbeiten, vorzustellen, so als würde dies den Argumenten mehr Autorität verleihen – was aber nicht der Effekt ist.

Fazit

Wie gesagt scheint vieles von dem, was die Autorin darlegt, schon bekannt. Vielleicht nur in den kleinen Kreises der kritischen Bibliotheks- und Informationswissenschaft (aber dieses Blog erreicht vielleicht vor allem diesen Kreis). Es untermauert mehrfach das Wissen, dass Technologie und Algorithmen nicht neutral sind und dass sie, wenn unkritisiert, in einer rassistischen Gesellschaft vor allem die rassistischen Strukturen reproduzieren. (Noble argumentiert und sucht im Kontext der US-amerikanischen Gesellschaft, aber es ist ein leichtes, dies auf die deutsche, schweizerische, österreichische, liechtensteinische Gesellschaft und die Diskursstrukturen und Vorurteile hier zu übertragen.) Sie tut dies in zitierbaren und klaren Aussagen. Es gibt also keinen Grund, von diesem Buch abzuraten; aber es scheint doch an vielen Stellen zu lang.

Grundsätzlich in den Diskurs als potentielle Lösung aufzunehmen ist der Vorschlag, Suchmaschineninfrastrukturen, nach dem Vorbild von Bibliotheken, als öffentliche Infrastruktur einzufordern.

Fussnoten

1 Julien Mailand und Kevin Driscoll machen in ihrem in diesem Blog auch schon besprochenen Buch zum Minitel-System im Frankreich der 1980er-Jahre [Julien Mailland ; Kevin Driscoll (2017). Minitel: Welcome to the Internet (Platform Studies). Cambridge ; London: The MIT Press, 2017] ein ähnliches Argument: Ein Vorteil des staatlich organisierten Systems – gegenüber heutigen Plattformen wie Facebook, die einfach so Entscheidungen über Inhalte, die sie anzeigen oder nicht anzeigen treffen dürfen – sei gewesen, dass alle Entscheidungen darüber, was im System zugelassen wurde und was nicht, potentiell der öffentlichen Kontrolle (ergo: Beschwerden, Klagen, Einsichtsnahmen in Unterlagen) unterlag.

2 Hier stellt sich wirklich die Frage, wann und warum Bibliotheken aufgehört haben, über eine solche nachzudenken. Als noch Yahoo mit seinen Kategorien und Linksammlungen die Suche im Internet bestimmte, gab es solche Diskussionen und mit der Deutschen Internetbibliothek auch eine Infrastruktur, die dies versuchte. Nachdem einfache Suchen” zum bestimmenden Modus der Suche wurde, scheinen Bibliotheken aufgegeben zu haben. Heute ist wohl noch nicht mal bekannt, wie die Suchergebnisse in den Bibliothekskatalogen zustande kommen; auch das ist intransparent von den Anbietern der Katalogsoftware organisiert.

Advertisements

Überlegungen zum Verhältnis von Mensch und Technik in Wissenschaftsinfrastrukturprojekten.

Posted in LIBREAS.Referate by Ben on 7. Januar 2013

zu:

Sonja Palfner, Ulla Tschida: Grid: Technologie und soziale Praxis. In: Technikfolgenabschätzung. Theorie und Praxis. 21 / Heft 2. November 2012. S. 50-53

Unter den Projekten zur Digitalisierung der Wissenschaftspraxis in der Bundesrepublik der 2000er Jahre ragt die D-GRID-Initiative markant hervor. Das begründet sich einerseits aus ihrem Anspruch heraus, Grid-Computing in enger Kooperation mit den Fachcommunities in der Fläche zu etablieren. Und andererseits aufgrund des erheblichen Fördervolumens, das sich freilich nach dem Anspruch richtete. Die enge Verzahnung zwischen informatischer Innovation und fachwissenschaftlichen Ansprüchen prädestinierte die Initiative für eine wissenschaftssoziologische Begleitforschung. Technologie ist unzweifelhaft grundsätzlich vor allem soziales Geschehen. Auch die Entscheidung des BMBF zur massiven Förderung genau dieses Ansatzes ist Ergebnis sozialer Interaktionen. Aktuell bewegen sich diese um die Frage, wie, wo und in welcher Form die entwickelten Infrastrukturelemente und forschungsbegleitenden Werkzeuge mitsamt der für sie notwendigen Weiterentwicklung verstetigt werden können? Die technischen Möglichkeiten selbst wirken gewiss dispositiv auf das Machbare. Was aber tatsächlich umgesetzt wird, resultiert aus einer komplexen Wechselwirkung diverser Faktoren – von Budgets über die Motivation, Interessen, Konkurrenzkonstellationen und Kompetenzen von Einzelakteuren bis hin zu rechtlichen Gesichtspunkten.

Sonja Palfner und Ulla Tschida, die die D-Grid-Initiative aus einer techniksoziologischen Perspektive beforschen, rücken in ihrem kurzen Beitrag für die Zeitschrift Technikfolgenabschätzung die Frage nach dem Verhältnis zwischen den Fachgemeinschaften und den Entwicklern ins Zentrum, eine Frage also, die sich zwangsläufig auch der Bibliothekswissenschaft stellt. Denn einerseits sind wissenschaftliche Bibliotheken grundsätzlich ebenfalls Dienstleister für die Wissenschaftspraxis. Und andererseits sind Digitale Bibliotheken durch und durch informatische Ensemble. Die Entwicklung Digitaler Bibliotheksdienstleistungen, die sinnvollerweise konsequent mit dem Ziel der tatsächlichen Inanspruchnahme durch die Bibliotheksnutzer erfolgen muss, bewegt sich folglich in einem Spannungsverhältnis ähnlich dem, das die Autorinnen anhand von drei Konstellationstypen aufschlüsseln.

Beim ersten Typ dominiert die Fachwissenschaft die Informatik. Die Entwickler sollen passgenaue Dienste nach den Bedürfnissen und Ansprüchen der Wissenschaftler entwickeln. Das Problem dabei liegt jedoch in der Dynamik exakt dieser Ansprüche. Die Autorinnen betonen, dass „ein etablierter Service […] durch die Forschung selbst quasi ständig aus der bekannten Routine gerissen werden [kann].“ (S. 53)

Geht man von einer idealtypischen Wissenschaft, also einem permanenten Erkenntnisfortschritt mit sich verschiebenden Forschungshorizonten aus, dann ist das nicht einmal ein Kann-Zustand, sondern elementar: Es gibt in der Wissenschaft bestenfalls zeitweilige Stabilisierungen und Konsolidierungen in Routinen, die aber naturgemäß je nach Überarbeitung der Thesen, Forschungsfragen und Erkenntniszielen eher früher als später selbst infrage gestellt werden. Dauerhafte Routinedienste für die Wissenschaft sind hierbei bestenfalls im Sinne von Basiskonzepten und vor allem von Standards für Begleit- und Nachweisdienste (Forschungsdokumentation, Datenarchivierung), also metawissenschaftlich, denkbar. Je konkreter die Forschungspraxis und das dazu entwickelte Werkzeug (bzw. je näher an der so genannten Forschungsfront), desto zwingender wird auch eine Weiter- oder gar Neuentwicklung dazugehörender Anwendungen werden.

Was bleibt, sind Lessons-Learned- und Best-Practice-Erkenntnisse, die den jeweiligen Anpassungen zugrunde liegen. Bei einer engen Verzahnung von Bibliothek bzw. Dokumentation mit Forschungsprojekten wäre es beispielsweise ein Embedded Librarian, der mit einem diesbezüglichen Erfahrungswissen hinzugezogen wird und eine Grundsolidität der für ein Projekt notwendigen technischen Begleitdienste garantiert. Und der vielleicht entscheidet, ob auf etablierte Anwendungen zurückgegriffen werden kann/sollte oder Neu- bzw. Weiterentwicklungen unumgänglich sind. Denn ohne Zweifel gibt es trotz des oben Gesagten weite Bereiche der Wissenschaftspraxis, die methodische Nachnutzungen auch aus (wissenschafts-)ökonomischer Sicht als pragmatische Lösung zweckmäßig erscheinen lassen. Wer mit Projektwissenschaft vertraut ist, weiß, dass ein kompromissloses Streben nach neuer Erkenntnis in der Praxis eher die Ausnahme als die Wissenschaftsregel darstellt. Offen bleibt dennoch auch dann, ob bzw. wann man die Forschungsfrage den zur Verfügung stehenden Werkzeuge anpasst oder Werkzeuge zur Forschungsfrage entwickelt. Pauschal ist sie in einer hochdifferenzierten Wissenschaftswelt nicht zu beantworten.

Die zweite Konstellation bezeichnen die Autorinnen als „Service in the making“ und meinen vermutlich einen Ansatz im Einklang mit der beschriebenen Entwicklung: Eine Softwarelösung wird konkret für ein Problem oder einen Forschungsansatz entwickelt. Entwicklerkapazitäten wären unmittelbar und auf Augenhöhe mit den fachwissenschaftlichen Kapazitäten in ein Projekt einzubinden.

Für Bibliotheken könnte man analog eine permanente Interaktion mit den Bibliotheksnutzern parallel stellen. Hier wäre also direkt eine Bibliothekswissenschaft angesprochen, die die Praxen und Entwicklungen in der Wissenschaftskommunikation systematisch analysiert und zu Hinweisen und Leitlinien für die Praxen und Entwicklungen im Bibliothekswesen weiterverarbeitet. Wenn der Bibliothekswissenschaft in diesem Zusammenhang eine Aufgabe zufällt, dann die, den Akteuren der wissenschaftlichen Literatur- bzw. Informationsversorgung – vorrangig aber eben nicht nur Bibliotheken – Orientierungswissen zur Verfügung zu stellen.

Der dritte Konstellationstyp invertiert schließlich das Verhältnis des ersten. Die fachwissenschaftliche Herausforderung dient hier nur als Aufhänger für die Produkt- oder Serviceentwicklung. Die Autorinnen sprechen von der „Materialisierung des informatischen Erkenntnisgewinns.“ (S. 53) Löst man dies von der Wissenschaftspraxis ab, findet man sich schnell im Bereich kommerzieller Software-Entwicklung, zum Beispiel bei Social-Media-Anbietern, die Erkenntnisse der Sozialen Netzwerk-Analyse benutzen, um die Algorithmen hinter ihren Plattformen zu optimieren.

In der Realität finden sich die Konstellationen selten trennscharf ausgeprägt. Vielmehr dürften sie sich selbst dynamisch entwickeln. Persönliche Motivationen dürften ebenso wie Ressourcenlagen und bestimmt auch Opportunitätsüberlegungen eine wichtige Rolle bei der Ausprägung der Schwerpunkte in diesem Wechselspiel zwischen Fachwissenschaftlern und Entwicklern einnehmen. Zumal auf einer Individualebene in der Praxis häufig Doppelrollen übernommen werden. Nicht selten dominieren Akteure, die sowohl einen fachwissenschaftlichen wie auch einen informatischen Hintergrund besitzen. Kombinationsstudiengänge fördern korrespondierend solch interdisziplinäre Grundausrichtungen, wobei sich die wissenschaftssoziologische Überlegung anschließt, inwieweit sich hierdurch bestimmt wissenschaftliche Eliten gezielt etablieren (können). Angesichts der wahrscheinlichen Intensivierung von Verfahren aus den so genannten Digitalen Geisteswissenschaften (bzw. Digital Humanities) ist so beispielsweise die Kombination einer geisteswissenschaftlichen Abschlusses mit einem computerwissenschaftlichen berufsstrategisch sicher eine bessere Wahl, als sich allein beispielsweise auf die Literaturwissenschaft zu konzentrieren. Interdisziplinarität meint in der heutigen Wissenschaftslandschaft möglicherweise weniger den Spagat zwischen zwei Disziplinen und mehr den zwischen einer fachwissenschaftlichen (theoretischen) und einer wissenschaftspraktischen Qualifikation.

Welche der drei Konstellationen sich tatsächlich wie entfaltet, lässt sich naturgemäß durch die Begleitforschung erst im Nachgang eines Projektes abschließend ermitteln. Sie kann aber fraglos, analog u. a. zur Diskursanalyse, die bestimmte Trends in sich konkret vollziehenden Diskursen zu erkennen und zu konstatieren und so auf den Diskurs Einfluss zu nehmen vermag, schon während der Durchführung eines Projektes, feststellen, wie sich Verteilungen entwickeln (Dominanz der Fachwissenschaft oder Dominanz der Informatik) und auf Abweichungen von einer angestrebten Ideallinie in diesem Verhältnis mit dem Ziel einer Korrektur hinweisen. Dies setzt selbstverständlich voraus, dass entsprechende Schwerpunkte und auch Parameter zwischen den Beteiligten ausgehandelt wurden. Beziehungsweise mitunter sogar, dass zunächst einmal ein Verständnis für die soziologische Grundierung dieses Verhältnisses zwischen Wissenschaft und Service für die Wissenschaft besteht. Also eine Sensibilität für die soziale Bedingtheit der Beziehung zwischen dem forschenden Menschen und den technischen / technologischen Dispositiven (Infrastrukturen, Bibliotheksdienste, Software) seiner Forschung sowie denen, die für die Bereitstellung und Entwicklung dieser Dispositive zuständig sind (Rechenzentren, Bibliotheken, Entwickler).

( Ben Kaden / Berlin / 07.01.2013 )

(Anmerkung: Ben Kaden ist aktuell wissenschaftlicher Mitarbeiter im TextGrid-Projekt.)

Have and Have-Nots? (The New Digital Divide, I)

Posted in LIBREAS.Feuilleton by Karsten Schuldt on 12. März 2012

Von Karsten Schuldt

Zu: Eubanks, Virginia / Digital Dead End : Fighting for Social Justice in the Information Age. — Cambridge, Massachusetts ; London, England : MIT Press, 2011 (978-0-262-01498-4).

 

Digital Dead End: Fighting for Social Justice ist vor allem ein Beitrag zu einer – längst notwendigen – Debatte um den New Digital Divide. Nicht die Frage allein, ob alle Menschen einen Zugang zu Digitalen Medien haben, sondern die Frage, wie diese Technologie für unterschiedliche Menschen funktioniert, welche Gesellschaft sie evozieren, welche Machtverhältnisse sie produziert und reproduziert (sollten) im Mittelpunkt dieser Debatte stehen. Oder anders: Wie Menschen Technologie nutzen, wie diese Nutzung von ihrer sozialen Position determiniert ist und was sie ihnen tatsächlich ermöglichen oder nicht ermöglichen kann. Gleichzeitig ist dieser Beitrag ein sehr US-amerikanischer. So schafft es die Autorin beispielsweise, über Armut, Rassismus und Geschlecht zu sprechen, ohne die Worte Klasse oder Schicht wirklich zu benutzen. Die postmoderne Sicht auf die Individuen, die der Autorin eigen ist, schafft es zwar, die individuellen Geschichten zu schreiben und Potentiale zu benennen; soziale Strukturen aber kann sie höchstens benennen, nicht wirklich kritisieren. Alle Veränderung, die sie beschreiben kann, ist individuell. Insoweit steckt die Autorin ganz offensichtlich in einem anderen emanzipatorischen Diskurs, als den europäischen. Das sollte bei einer Lektüre der Buches mit bedacht werden.

Ausserdem ist dieses Buch hochgradig politisch. (more…)