LIBREAS.Library Ideas

Vom schlechten Lesen und wie die Neurowissenschaft dieses verabschiedet

Posted in LIBREAS.Referate by Ben on 17. Januar 2009

Anmerkungen zu:

Stein, John (2009): Our reading’s bad – but not that bad. In: Standpoint. Issue 8 (January 2009) S. 54
Online: www.standpointmag.co.uk/node/726/full

von Ben Kaden

Zum Einstieg der Ausstieg. John Stein, emeritierter Professor für Neurowissenschaften an der University Oxford, schließt seinen Ausflug in die Lesetheorie mit folgender Passage:

However, if the finer points of spelling and the complicated rules of where to put an apostrophe are really instruments of social control and establishing status, one has to ask whether these skills are really going to be necessary in the 21st century. Now that computers can become an extension of one’s cognition in the same way as a violinist’s bow becomes an extension of his hand, PCs could perhaps do the dogsbody work of reading and re-enfranchise our poor readers, allowing their brains to do the things they’re much better at. Perhaps we should abandon social control by the tyranny of the complicated rules of grammar and illogical spelling and recognise that tomorrow’s children may not need to learn to read at all.

Mit radikalen Thesen fängt man sich die Aufmerksamkeit ziemlich sicher. Aber manchmal ist es schon des Guten reichlich. John Stein holt im allgemein als konservativ gestempelten britischen Magazin Standpoint mit seinen Standpunkt mächtig weit aus, wenn er für die Abschaffung der Rechtschreibung (oder ihrer komplizierten Elemente) eintritt und mehr noch das Ende des Lesens voraussagt, welches, von ihm anscheinend nicht ganz unbegrüßt, die Computertechnik herbeiführen soll.

Sein Forschungsschwerpunkt betrifft das Phänomen der Dyslexie, was die Motivation des Ansatzes in gewisser Weise erklärt. Die Argumentation aber nicht. Dyslexie erweist sich als ein akutes und kontrovers diskutiertes Thema. Immerhin sind bis zu einem Fünftel der Menschheit betroffen, wobei es je nach Sprachkultur (bzw. Orthografie, vgl. DOI:10.1126/science.1057179) Unterschiede zu geben scheint. Allerdings führt Stein an, dass im Vereinigten Königreich 30 Prozent der Bevölkerung das Lesevermögen von 11-Jährigen besitzen. Ob er in der absoluten Zahl von 20 Millionen auch die unter 11-Jährigen berücksichtigt, wird nicht differenziert. Ebenso, ob ein solch begrenztes Lesevermögen als dyslexisch einzustufen ist oder motivational bedingt ist. Und wo die Grenze zu ziehen wäre. Im Jahr 2001 sprach der Autor von „5-10% of children, particularly boys, are found to be dyslexic“ (DOI:10.1002/dys.186) Vermutlich meint er also in der Gesamtabschätzung beides, aber generell dreht es sich darum, herauszufinden „who will find reading most difficult“. Es gibt einen Weg in Form einer Methode, die Stein in seiner wissenschaftlichen Laufbahn sehr stark vertreten hat und es hier auch wieder vornimmt. Allgemein scheint die Dyslexie auf der physiologischen Ebene in einer eingeschränkten Fähigkeit zur Verarbeitung bestimmter visueller Information zu beruhen. Diese Annahme bildet die Grundlage von Steins „magnocellular theory of dyslexia“ (vgl. DOI:10.1016/S0166-2236(96)01005-3). Wie sie wissenschaftlich bewertet wird, lässt sich sicher in den entsprechenden Journals nachverfolgen. Die Popularisierung seiner Überlegungen in einer Publikumszeitschreift dürfte nicht allzu nachhaltig wirken. Der Grund dafür liegt gerade im Herauslösen aus dem wissenschaftlichen Umfeld, also im Untermischen einer eher fragwürdigen Ausdeutung sozialer Differenzierungseffekte aufgrund von Lesefähigkeit sowie einem eigenwilligen Verständnis von den Möglichkeiten der Computertechnologie.

Stein stellt zutreffend fest, dass der Mangel an Lesekompetenz die Entwicklungs- und Handlungsoptionen in einer durch und durch auf Sprachsymbolen und Texten basierenden Kultur deutlich einschränken kann. Entsprechend liegt das Ziel aller Leseförderung darin, die Menschen in einer textuellen Umwelt verstehensfähiger und damit sozial kompetenter werden zu lassen, also die Teilhabemöglichkeiten an der Gesellschaft zu erhöhen. Die neurobiologische Einschränkung der Lesefähigkeit zieht demnach oft deutliche Konsequenzen im sozialen Kontext nach sich. In der Mehrzahl der Schulfächer spielen Lesen, Verstehen und Schreiben von Texten eine zentrale Rolle, mit der Folge, dass Schüler, die damit Probleme haben, an sie gestellte Anforderungen schwieriger erfüllen können. Leider wird diese konkretisierbare Facette von Stein gar nicht berührt. Ihm geht es um einen angenommenen allgemeinen sozialen Ausschlusscharakter von Rechtschreibung.

Neurobiologisch geht er davon aus, dass das Lesen generell eine Zumutung darstellt, denn das menschliche Gehirn ist eigentlich nicht so recht zum Lesen gemacht:

„It is the most complex skill that most of us who don’t aspire to be concert pianists or advanced mathematicians have to master.“

Rhetorisch ist der Autor jetzt bei der Mehrheit, die vom Lesenlernen sehr gefordert ist: Aus 30% mit niedrigen Lesefähigkeiten sind „most of us“ geworden, was natürlich die Dringlichkeit von Steins Ansatz unterstreicht. Nun steht die große Masse einer kleineren Elite, denen das Lesen und vielleicht auch noch das Musizieren und Mathematik leichter fällt, gegenüber. Warum Lesen im Vergleich zu anderen Fähigkeiten herausragend komplex ist, wird leider nicht begründet. Die berühmte Erfahrung zeigt jedoch, dass allein schon das sichere Bewegen im Raum hochgradig komplex ist. Man merkt es nur nicht mehr, weil es ab früher Kindheit verinnerlicht ist. Sprechen – mitsamt der komplizierten Grammatik – ebenso. Und so mancher verinnerlicht das Lesen in gleicher Weise und wundert sich daher, dass es so außergewöhnlich komplex sein soll.

Das Problem für das Gehirn liegt, so Stein, in der detaillierten Sequenzierung von Einzelbuchstaben. Nicht jedermanns Wahrnehmung bewältigt diese ohne Probleme, zumal wenn es Unterschiede zwischen Klang und Schreibweise eines Wortes gibt. Als Gewährsmann führt er einen Mönch an, der sich im 13. Jahrhundert deutlich und schriftlich belegt über die körperliche Last, die er beim Lesen empfindet, beschwert. Das Lesen mit gebeugtem Rücken ging ihm buchstäblich an die Nieren. Man sollte daher vielleicht besser über die Körperhaltung als über den Rezeptionsprozess reflektieren. Ein stützendes Argument ergibt sich aus dem Zitat jedenfalls nicht zwingend. Eher eine Assoziation mit der Grundschulzeit.
Stein meint aber eigentlich, dass der Mensch nicht so auf eine derart feingliedrige Wahrnehmung ausgerichtet sei, wie sie das Erkennen, Aufgliedern und Wiederzueinanderordnen der Buchstaben erfordert. Die Lettern sind kleine visuelle Partikel, welche in die richtige Reihenfolge gesetzt werden müssen, um die korrekte Entsprechung zu finden. Man könnte nun über das Verhältnis von Bedeutung und Zeichen und die Möglichkeiten, Bedingungen und Grenzen sprachlicher Abstraktion sprachphilosophieren, aber die semantische Ebene interessiert Stein wenig. Konkret („a tree is a tree“) oder abstrakt? ist keine Frage, nicht einmal ein Thema. Ihn stört der dem Menschen seiner Meinung nach nicht sonderlich zupass kommende Zwang zum Detail, dem auch noch negativ anhaftet, dass er den Blick auf das Ganze verdeckt:

„Often children and dyslexic poor readers are better at seeing large-scale relations across whole scenes and information fields than good readers. That may be why dyslexics so often make good artists and entrepreneurs“

Wie hart der wahre Kern dieser Aussage ist, soll lieber nicht beurteilt werden, aber die mögliche implizierte Schlussfolgerung erscheint doch ein wenig abenteuerlich: Wer gut und exakt liest, verliert sich in der Einzelheit und wem dies nicht gelingt, der behält eher den Überblick. Die Alltagserfahrung lehrt, dass beides auch zusammengeht. Absolut ist diese These also sicher nicht brauchbar und obendrein relativiert die Anspielung auf den Erfolg Steins eigene Annahme der sozialen Differenzierung aufgrund von Lesefähigkeit: Er unterstellt in Hinblick auf die Rechtschreibung, dass diese bewusst vertrackt gehalten wird, um soziale Unterschiede zu zementieren. Je schwieriger die Rechtschreibung, d.h. je mehr sich Schreibung und Aussprache unterscheiden, umso deutlicher wird der Zweck „to define how well educated you were“:

„So to keep the in-crowd privileged, spelling had to be kept fiendishly difficult.“

Obwohl es natürlich einen Unterschied zwischen privilegiert und erfolgreich geben kann. Was Sprache angeht, nimmt man jedoch landläufig an, dass es gerade im Vereinigten Königreich die Aussprache ist, die den Unterschied macht. Darüberhinaus, wiederum ein Erfahrungswert, ist davon auszugehen, dass es auch ganz andere, nicht in Schriftzeichen fixierte Codes und Verhaltensweisen gibt, die soziale Grenzen ziehen. Es empfiehlt sich durchaus, wieder einmal den Bourdieu aus dem Regal zu nehmen. Und schließlich folgen selbst bzw. gerade Slang und Jugendsprachen, denen man orthodoxes Befolgen von Duden oder OED (Oxford English Dictionary) beim besten Willen nicht unterstellen mag, genau diesem Ziel: Insider von Outsidern zu unterscheiden. Dem „Spelling“ solch eine Funktion unterschieben zu wollen ist vielleicht sogar legitim. Es aber darauf zu begrenzen überhaupt nicht.

Dass Stein schließlich ausgerechnet mit der Lesefähigkeit aufräumen möchte, um die Gesellschaft zu egalisieren, wirkt – vorsichtig formuliert – etwas wunderlich. Selbst wenn 20 Millionen Briten Probleme mit dem Lesen haben, so kommen doch 40 Millionen weitere damit anscheinend statistisch recht gut zurecht. Es ist nicht ganz nachvollziehbar, wieso Stein annimmt, dass diese 2/3 eine Kulturtechnik aufgeben wollen, die sie gut beherrschen und die ihnen vermutlich im Alltag auch weiterhilft, z.B. wenn sie den Standpoint lesen. Es ist ebensowenig nachvollziehbar, wieso andere Faktoren, die Ungleichheit – und dies vermutlich weit wirksamer – produzieren und reproduzieren in keiner Weise zum Aspekt der Lesefähigkeit ins Verhältnis gesetzt werden. Der Zusammenhang wird schlicht unterstellt und dann unglücklicherweise zur Tyrannei ausgerufen.

Was bleibt, ist ein Tyrannenmord und als Dolch im Gewande fungieren die digitalen Kommunikationsmedien, die gern verkürzt als „Computer“ beschrieben werden, und die, wie man oft, aber nicht explizit bei Stein, hört, das Schreiben und Lesen verdrängen.

Nun ist der Computer aber viel näher an der Schrift, als beispielsweise das Fernsehen, das während der zweiten Hälfte des 20. Jahrhunderts schon ziemlich viel Zeit hatte, das Publikum auf textferne Informationsvermittlung zu orientieren. Das Radio noch länger. Den Computer jedoch – und nicht etwa das Fernsehgerät – sieht Stein als Erweiterung der Kognition, analog zum Violinenbogen, der dem Violinisten die Hand erweitert.
Der Vergleich stimmt und er stimmt nicht. Der Computer ermöglicht tatsächlich eine aktive, schnelle und direkte Interaktion und dies mit einer neuen Wahrnehmungssphäre. Aber bezogen auf Kommunikation ist er nicht ausschließlich: Eine andere Kommunikation, ein anderer Zugang zum Text, ist möglich. Der Violinist kann die Violine nur sinnvoll mit dem Bogen spielen. Er muss diesen führen, will er Musik machen. Die Gleichsetzung von Kognitionswerkzeug Computer und Musikinstrument erfolgt also entweder sehr unreflektiert oder mit der Implikation, dass der Computer alternativlos sein wird.

Dies wird häufiger in den virtuellen und gedruckten Raum gestellt, scheint aber nur die klassische Diskussion ums Fernsehen zu wiederholen. Und selbst wenn dem so wäre, fänden sich keinerlei Anzeichen, dass der Computer so wirkt, wie es Stein sich vorstellt: Als ein Instrument, dass den Leseprozess automatisiert und das Gehirn für „Zweckmäßigeres“ freisetzt. Was sollte das sein? Eigenartigerweise vernachlässigt Stein, dass der Leseprozess selbst als Bestandteil des Kognitionsprozesses erscheint, auch bei der Computernutzung. Vielleicht meint er auch nur, dass die Regeln von Orthografie und Grammatik bei der digitalen Kommunikation gelockert werden, an Unschärfe gewinnen durfen und man ein Informationsbedürfnis nur irgendwie in den Computer einwirft und dieser dann im semantischen Netz das passende Befriedigung heraussucht und mundgerecht vorsetzt oder vorliest. Es gibt so manchen Vorteil, der in den Erwartungen an das Semantic Web – bislang meist fern jeder Realisierung – eine Rolle spielt. Dass der Computer dem Menschen jegliche Textarbeit und damit die Möglichkeit der Informationsauswahl aus den Händen nimmt, ist ein ziemlich zweifelhafter.

Jedes Verstehen von Text setzt einen kognitive und individuelle Kontextualisierung voraus, die wiederum im Semantic Web nach dem angedeuteten Szenario eine Übereinstimmung des individuellen Verständnishorizontes mit einer maschinenlesbaren Entsprechung erfordert. Die Unschärfe im Denken muss automatisch in eine Schärfe im Retrieval umgesetzt werden. Gerade dies wäre aber nur über den mühsamen Umweg des Zeichens überhaupt annähernd in Umsetzung zu denken. Das Eichhörnchen der Befreiung vom quälenden Lesen könnte sich mühsamer nähren, als Stein es wahrhaben möchte. Von der Erwünschtheit eines solchen Zieles ganz zu schweigen. Der Reduktionismus auf die soziale Differenzierungsfunktion von Lesefähigkeit führt zu einer Ausklammerung der tatsächlichen Funktion von Rechtschreibung und Grammatik: Satzzeichen, Apostrophe, Neben- und Hauptsätze und auch spezifische Schreibweisen erfüllen durchaus sinnstrukturierende Aufgaben, die im Idealfall gerade auch bei einer Phonetisierung von Geschriebenem helfen sowie die Betonung ins richtige Verhältnis zum Gemeinten zu setzen. Es geht darum, die semantische Relation von Gedanken und Ausdruck möglichst eindeutig gestaltbar zu machen. Zurecht nimmt man an, dass Computer eindeutiger funktionieren, als die menschliche Sprache. Allerdings sind auch noch weniger fehlertolerant.

Auf welcher Seite sich also eine Tyrannei auftäte, ist noch einmal zu hinterfragen. Stein bezieht sich vermutlich im Kern auf eine bestimmte Form sozialer Bewertung, die sich in einer Rechtschreibnote niederschlägt. Aber so problematisch Einschätzungen dieser Art in vielen Fällen auch sind, so sinnvoll vielleicht auch die von ihm so propagierte Methode magnozellulär orientierter Lehrformen – wie auch immer diese konkret aussehen – sein mag: In der Schlußfolgerung schießt er sehr über das Ziel hinaus und mitten in den Widerspruch hinein: Warum noch eine neue Methode und große Anstrengungen zur Verbesserung der Lesefähigkeit, wenn sie die nächste Generation gar nicht mehr benötigt?

Fazit: Die recht krude geschusterte Argumentation Steins scheitert daran, dass er eine spezifische Möglichkeit der Anwendung von Sprache, nämlich die der sozialen Differenzierung auf der Grundlage der Kompetenz im Umgang mit Rechtschreibung und Grammatik, maßlos überbetont und die eigentliche Funktion von Sprache, nämlich Verständigung, idealerweise über eindeutige, bestimmten Regeln folgende Formulierungen, nahezu ausklammert. Der Ausflug in die Neurophysiologie ist zu knapp gehalten, um überzeugen zu können und wie Computer den zur bloßen Zwecktätigkeit degradierten Leseprozess für den Menschen übernehmen sollen, bleibt draußen vor dem Bildschirm. Dass gerade dieser reglementierte Leseprozess Teil des Denkens sein könnte und die Grundlage auch für den Gedanken an das Ende des Lesen erst möglich macht, wird nicht reflektiert. Die Ablösung eines relativen Extrems (richtig schreiben und lesen) durch ein absolutes (nicht mehr schreiben und lesen) scheint wirklich nicht erstrebenswert. Man neigt beinahe dem ersten Online-Kommentar zum Thema beizupflichten: „You’re nuts.“ Was Stein und Standpoint mit dem Beitrag wirklich im Schilde führen, ob sie provozieren wollen, bleibt unklar. Auf der syntaktischen Ebene, also der der „complicated rules of grammar and illogical spelling“ ist der Text übrigens einwandfrei.

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit deinem WordPress.com-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s

%d Bloggern gefällt das: