Show Less
Open access

Denkrahmen der Deutschdidaktik

Die Identität der Disziplin in der Diskussion

Series:

Edited By Christoph Bräuer

Auch wenn die Deutschdidaktik sich endgültig als akademische Disziplin etabliert hat, gehen die Meinungen, welchen Stellenwert sie in der Ausbildung von Professionalität oder Lehrkompetenz haben könnte, auseinander. Weder gibt es Konsens darüber, was die Hochschulbildung zur Professionalisierung leisten kann, noch ist der systematische Ort im Rahmen der wissenschaftlichen Disziplinen geklärt.

Der Band greift diesen Selbstverständigungsprozess auf und lenkt den Blick sowohl auf die geschichtliche Entwicklung, die gegenwärtige Gestaltung als auch auf die zukünftige Ausrichtung. Mit der Kompetenzorientierung sind neben den an Inhalten zu erwerbenden Kompetenzen von Schülerinnen und Schülern auch die von zukünftigen Lehrkräften zu erwerbenden Kompetenzen in den Blick geraten. Zugleich wird die kompetente Lehrperson als Faktor effektiven (Fach-)Unterrichts stärker wahrgenommen und mit dieser Fokussierung der Wunsch nach einer fachdidaktischen Profilierung der Lehramtsausbildung verbunden.

Show Summary Details
Open access

Didaktische Konstrukte und Konstruktvalidität in der Deutschdidaktik (Jakob Ossner)

Jakob Ossner

Didaktische Konstrukte und Konstruktvalidität in der Deutschdidaktik

Didactic constructs and construct validity in German didactics

Abstract: The paper examines the construct validity of didactic literacy models and explains why the task of German didactics is to provide teachers with clear constructs on which they can base didactic teaching decisions and select appropriate and expedient materials and methods.

1 Vorbemerkung

Grundsatzdiskussionen sind gewöhnlich Zeichen einer Krise. Daher scheinen sich solche für die Fachdidaktik nach der bildungspolitischen Wende nach 2000 erübrigt zu haben. Seitdem ist die Fachdidaktik im Aufwind, auch wenn man die Beschwörung der Wichtigkeit und Notwendigkeit der Fachdidaktik selbst als ein Krisenphänomen deuten kann. Im Ensemble der Bildungswissenschaften hat nun auch die Fachdidaktik die Aufgabe, Zahlen zu liefern, denn, so unisono die Klage: „Wir wissen zu wenig.“ Die Vorstellung einer evidenzbasierten Deutschdidaktik leuchtet am Horizont. Wie in der Medizin nur noch das verordnet, verschrieben und therapiert werden soll, wofür es Erfolgsevidenz gibt, weil große Studien den Erfolg gezeigt hätten, so soll in der Schule auch nur noch das durchgeführt werden, was die nötige Effektstärke aufweist.

Der Grundgedanke ist bestechend, die Details sind höchst komplex, wie beispielsweise Hatties Daten zu Problemlösen und problembasiertem Lernen zeigen. Während Ersteres eine Effektstärke von d = .61 hat, hat Letzteres eine von d = .15, also keinen Effekt (vgl. Hattie 2013). Über den Grund kann man nur spekulieren. Was die Evidenzbasierung so schwierig macht, das ist die Relativität der Daten. Genau das macht die Hattie-Studie so brisant. Es werden Daten, die aus ganz verschiedenen Forschungsgebieten stammen, die unter ganz verschiedenen Fragestellungen gewonnen wurden, von dieser ihrer Relativität befreit und nur noch auf ein Maß, das der Effektstärke, hin befragt. Nun erscheinen die Dinge absolut. Man erfährt bei Hattie nicht, ob das problembasierte Lernen nur deswegen so schlecht abgeschnitten hat, weil nur Klassen, die sich an die 7-Sprung-Methode←147 | 148→ gehalten haben, untersucht wurden oder auch Klassen, die den Grundgedanken aufgenommen haben, ohne sich der Langeweile des immer Gleichen auszusetzen.

Bevor die Fachdidaktik Erfolgsdaten liefert, muss sie sich um die Datengewinnung sorgen sowie um eine angemessene Interpretation der Daten. Für eine empirische Wissenschaft ist es entscheidend, dass der Denkrahmen, innerhalb dessen Daten erhoben werden sollen, ausgewiesen ist. Man schreckt erst auf, wenn die Daten nicht zu stimmen scheinen, um anzumelden, was da noch hätte bedacht werden müssen.

Hinsichtlich der jeweiligen Konstruktvalidität stehen Theorie und Empirie in einem Bedingungsverhältnis: Empirische Daten bereichern die Theorie, aber das theoretische Konstrukt bedingt das empirische Testkonstrukt. Ich erspare mir die Hinweise darauf, wie häufig Fragestellungen ausgeklammert werden müssen, weil sie in kein Testformat passen oder Daten über zweifelhafte Rating-Verfahren geglättet werden.

Vielleicht ist es wieder Zeit, nach Schulungen in empirischem Arbeiten, nachdem die Fachdidaktik gelernt hat, wie die Psychologie zu funktionieren, sich auf die eigene Aufgabe zu besinnen.

2 Themenfelder für eine Fachdidaktik

Als eine praktische Wissenschaft bemüht sich die Fachdidaktik um Antworten auf die Frage: „Was soll im Unterricht des Faches Deutsch getan werden?“ Lässt man den grundsätzlich ethischen Rahmen, den jede Praxis bedenken muss und in den vor allem Rollendefinitionen auf der Grundlage eines Menschenbildes eingehen, vorläufig weg, so hat man hier mit dem zu tun, was Kant einen hypothetischen Imperativ nennt. Es geht also um die Frage, welches die geeignetsten Mittel für einen vorgestellten Zweck sind.

Wenn man diesem Gedanken folgt, dann sind die unmittelbaren AnsprechpartnerInnen der Fachdidaktik die Lehrkräfte; ja, sie wären es auch noch dann, wenn die Antwort auf die Frage „Was soll getan werden?“ wäre: „Kinder lernen umso mehr, je weniger sie belehrt werden“ (Bredow/Hackenbroch 2013, 100). Denn selbst in diesem extremen Fall muss z. B. immer noch die Anlauttabelle verfertigt und verteilt werden und vor allem müssen im Verlaufe des Lernprozesses Texte von SchülerInnen gelesen und Anregungen gegeben werden.

Wenn die Lehrkräfte die AnsprechpartnerInnen sind, so sind die SchülerInnen die wesentlichen Größen, ohne die die Frage „Was soll getan werden?“ nicht beantwortet werden kann. Allerdings sind die SchülerInnen nicht als abgefüllte Kompetenzpäckchen fassbar, ihre Entwicklung ohne den Kontext des Unterrichts, der diese Entwicklung initiiert und vorantreibt, nicht beschreibbar. Das Urmodell←148 | 149→ der Lese- und Schreibentwicklung von Frith mit einer ausgeprägten logographemischen Phase, formuliert auf der Grundlage des englischen Schulunterrichts, entpuppt sich bald als nicht so geeignet für deutsche Schulen, die in den 80er Jahren, in denen das Modell erstellt wurde, längst die synthetische Methode oder Methodenintegration praktizieren (vgl. Wimmer/Hummer 1990).

Vielleicht ist hier der wesentliche Unterschied zur Psychologie: Diese interessiert sich (u. a.) für die Lernergebnisse. Wenn in PISA Länder miteinander verglichen werden, so ist nur das Ergebnis interessant, der dieses Ergebnis hervorbringende Unterricht dagegen kaum. Er kommt erst ins Spiel, wenn man mit dem Ergebnis nicht zufrieden ist und das Ergebnis verbessern möchte. Fachdidaktik beginnt demnach nach PISA. Vielleicht wäre es aber gut, wenn Fachdidaktik vor PISA sich anstrengen würde, indem es Konstrukte liefert, die nach mehreren Dimensionen hin transparent sind. Dann wüsste man genauer, was gemessen wird.

Der Aufschrei der Literaturdidaktik gegen PISA war, dass die Art des Lesens, die PISA maß, nicht besonders interessant sei, dass gegenüber dem Konzept, Lesen als Informationsentnahme zu modellieren, die Emotionalität des Leseaktes (vgl. Abraham et al. 2003) bzw. Lesen als kulturelle Praxis (vgl. Fingerhut 2002; Hurrelmann 2002) fokussiert werden müssen. Bis heute hat aber die Literaturdidaktik kein Textmodell, das über das van Dijk und Kintsch (1983) hinauswiese, bereitgestellt. Was man aber sehen kann, ist, dass sich heute ein Literaturunterricht des Gesprächskreises gegen einen Leseunterricht mit Lesetraining absetzt. Das ist keine begrüßenswerte Entwicklung.

Ein Zweites kommt hinzu. Die häufigste empirische Untersuchungsform ist, wenn ich es recht sehe, heute die Interventionsstudie, die den Erfolg von Konzepten oder Methoden messen möchte. Dabei kommen oft sehr überraschende Befunde heraus, mitunter ganz gegensätzliche, wie man schon früh sehen kann. Ich erinnere an die Studie von Klotz (1996) zu Grammatische Wege zur Textgestaltungskompetenz, in der Klotz nachwies, dass Grammatikunterricht für etwas gut sein kann, während sich etwa zur gleichen Zeit in der Studie von Melenk (1998) zur Rechtschreibkompetenz zeigte, dass grammatisches Wissen zur Lösung von Interpunktionsproblemen nicht tauglich zu sein scheint.

In Didaktik Deutsch 35 von 2013 vergleichen Neubauer & Kirchner zwei Modelle der Rechtschreibförderung bei DrittklässlerInnen. Eines nach Reuter-Liehr (2006; 2008), das Kinder Wörter in Silben zerlegen lässt, und eines von Schulte-Körne und Mathwig (2001/2004), das nach dem Vokalquantitätsansatz arbeitet. Bei Reuter-Liehr lautet die Anweisung: „Ich schreibe den Mitlaut doppelt, wenn ich ihn beim genauen Einhalten der Silbenpause zweimal sprechen muss“; bei Schulte-Körne: „1. Enthält das Wort einen lang gesprochenen Selbstlaut? (Nein),←149 | 150→ 2. Hörst du anschließend mehrere Mitlaute) (Nein), 3. Hörst du nur einen Mitlaut, dann verdoppele ihn.“ (Zit. nach Neubauer/Kirchner 2013, S. 49).

Auf den ersten Blick scheint hier alles bestens zu sein. Tatsächlich aber werden zwei Konzepte verglichen, die in einer 3. Klasse schlecht zu vergleichen sind. Reuter-Liehr modelliert die Doppelkonsonantenbuchstabenschreibung, häufig auch „Schärfungsschreibung“ genannt, rein phonographisch. Schulte-Körne dagegen orthographisch, als besondere Regel des Deutschen. In der 3. Klasse eine phonographische Regel anzubieten, ist nicht unangebracht, aber ein Schritt zurück in das Anfangsstadium des Schreibenlernens. Ganz anders bei Schulte-Körne, dessen Regel ganz andere Anforderungen hat, nicht zuletzt weil sie die Vokalquantität als unterscheidbar ansetzt und rein kognitiv formuliert ist.

Untersucht wird also weniger, welches der beiden Konzepte besser abschneidet, sondern ob es sinnvoll ist, in der 3. Klasse noch einmal zwei Schritte zurückzugehen und mehr oder weniger noch einmal von vorne anzufangen. In der Tat zeigen sich dann auch bei den schwächeren SchülerInnen deutliche Effekte bei Reuter-Liehr. Daher wäre eine sinnvolle Ausgangfrage gewesen, ob nicht für schwächere SchülerInnen in einem Unterricht, der die Vokalquantität und Regelwissen fokussiert, ein silbisch orientierter Unterricht günstiger wäre. Dazu aber hätten die beiden Konstrukte analysiert und dann sinnvoll gegeneinandergestellt werden müssen.

Diese Bemerkungen zielen sowohl auf das didaktische Konstrukt, hier bezogen auf die Konsonantenbuchstabenverdoppelung, als auch auf die Durchführungsbestimmungen. Im Großen geht es dabei um das Curriculum; im Kleinen um das Material für den Unterricht, für Förderung bis hin zur konkreten Stunde.

Beides verweist auf zu treffende Entscheidungen auf der Grundlage von Zielen – zuerst von Fundamentalzielen, in denen ernsthaft gesagt wird, was erreicht werden soll und auch geprüft wurde, ob es erreicht werden kann und dann von Instrumentalzielen, die geeignet sind, die Fundamentalziele zu erreichen. Bevor darauf zurückzukommen sein wird, ein weiterer Gedanke.

Bekanntlich kann das Erreichen eines Handlungsziels nicht logisch aus Umständen geschlossen werden, also in dem Sinne, dass jemand X tut und sich dann Y einstellt. Ob sich Wirkungen einstellen, ist in der Tat eine empirische Frage, die aber nur dann seriös beantwortet werden kann, wenn tatsächliche Wirkungsfaktoren in der Konstruktion des Modells identifizierbar sind. Um dies zu gewährleisten, muss das empirisch zu überprüfende Konstrukt so weit als nur irgend möglich transparent sein; das heißt nichts anders als dass die Entscheidungen, die zu einem Konstrukt führten, nachvollziehbar sein müssen.←150 | 151→

Vor welchen Problemen man dabei stehen kann, zeigt eine Betrachtung einer Untersuchung in Heft 36 von Didaktik Deutsch. Hier stellen Bangel und Müller ein Konzept zur Förderung morphologischer Bewusstheit vor, das zur Stärkung der semantischen Worterkennung konzipiert wurde und der inhaltlichen Leseförderung dienen soll (vgl. Bangel/Müller 2014). Mit dem Letzteren hat man ein hierarchisch sehr hoch angesiedeltes Instrumentalziel, ein Fundamentalziel kann es nicht sein, weil Lesen kein Wert an sich ist. Förderung dessen, was morphologische Bewusstheit genannt wird, ist auf alle Fälle ein Instrumentalziel. Die Bedeutung dieses Instrumentalziels wird nachzuweisen versucht, indem auf die Graphie der Wörter verwiesen wird, die im Deutschen von der Morphemkonstanz geprägt sei. Dazu gibt es alternative Ansätze, dass es sich nämlich nicht um eine Morphemkonstanz handele, sondern um eine Schemakonstanz auf der Grundlage phonologischer Wörter (vgl. Ossner 1996). Dieser Unterschied in der Herangehensweise ist bei der Morphemklasse der Derivationssuffixe auffällig, die nicht konsonantisch beginnt (-ig, -ung etc.) Diese Morpheme haben wiederum Auswirkungen auf Wortstämme, bei denen Schwa-Elision eine besondere Rolle spielt, beispielsweise Atmung trotz Atem, Handlung trotz handeln etc. Jetzt hat man keine einfache Morphemkonstanz mehr. Wiese (2000, S. 242 ff.) erklärt diese Phänomene über eine e-Epenthese; die Stämme sind also atm- und handl- und werden durch eine Schwa-Epenthese zu Atem und handeln. Wiese hat für das Phänomen eine phonologische Erklärung, weswegen es reizvoll wäre zu untersuchen, ob ein phonologisch ausgerichtetes Konzept weiter trägt als ein morphologisches. Und vielleicht könnte man dabei auch untersuchen, wo die Grenzen eines jedes Konzepts sind. Nimmt man beispielsweise an, dass die Silbifizierung von Wörtern auf der Grundlage phonologischer Wörter (zur Definition vgl. Yu 1992, S. 34) durchgeführt wird, so wird ein morphologischer Ansatz überflüssig (vgl. Ossner 1996, S. 390 ff.). Daraus folgen entsprechend andere didaktische Vorstellungen als bei einem Ansatz, der ein starkes morphologisches Prinzip unterstellt, insbesondere dann, wenn man dieses Prinzip unabhängig von der Phonologie denkt.

Alle diese Fragen werden in dem erwähnten Artikel überhaupt nicht diskutiert, vielmehr wird mit Verweisen auf Eisenberg, Furhop, Primus, Bredel, Müller, Hinney und mit dem Ausdruck „schriftstrukturell orientierter Sprachunterricht“ (mit Verweis auf Furhop/Müller und Hinney) so getan, als gäbe es nichts mehr zu erörtern. Dafür wird als Training ein relativ schlichtes Übungsprogramm zu „Wortfamilien bilden“, „Wörterstämme unterstreichen“, „Wörter in Bausteine segmentieren“ vorgestellt. Dabei wäre „schuld#ig“ von einigem Interesse, insbesondere dann, wenn, wie oben ausgeführt, zuvor ein Silbenkonzept des oben angedeuteten Zuschnitts unterrichtet wurde und die SchülerIinnen [ʃʊl | dɪç]←151 | 152→ als Gliederung internalisiert hätten. Vom einbettenden Unterricht erfährt man allerdings kaum etwas. Überhaupt hat man es in diesen Untersuchungen immer mit geschichtslosen SchülerInnen zu tun. Die Untersuchung setzt in der 5. Klasse an, was davor war, spielt offensichtlich keine Rolle.

Keine Rolle spielt aber offensichtlich auch, dass die Bestimmung von Morphemen seine Tücken hat; nicht nur atmen oder Handlung sind hier Beispiele, sondern selig, emsig, verlieren, Vernunft und vernünftig usw. Ob daher, um ein explizit genanntes Beispiel der Untersuchung von Bangel und Müller zu nennen, das Unterstreichen des Wortstammes #steh# in verstehen zur Bedeutungserkennung beim Lesen verhilft, darf man bezweifeln.

Als Erfolg werden unterschiedliche Effekte ausgewiesen (vgl. S. 54): Bei morphologischer Bewusstheit d = .71 in der Interventionsklasse, bei der Dekodierfähigkeit allerdings nur d = .26, also mehr oder weniger vernachlässigbar, und bei der Lesegeschwindigkeit ergibt sich sogar ein leichter, allerdings unter statistischen Gesichtspunkten vernachlässigbarer Überlegenheitseffekt bei der Kontrollklasse von d = .13. Dass das Erkennen von Wortstämmen und Wortbausteinen, sowie das Bilden von Wortfamilien einen Effekt haben, sollte allerdings nicht überraschen. Überraschend wäre, wenn 360 Min. Training nichts gezeitigt hätten. Allerdings hat dieses Training nichts oder nur mehr oder weniger Vernachlässigbares „in der Lernentwicklung der Schülerinnen und Schüler […] bezogen auf die abhängigen Variablen Dekodierfähigkeit und Lesegeschwindigkeit“ (S. 46) bewirkt. Eine Diskussion hierüber findet kaum statt. Insbesondere werden weder der Umstand, dass Ergebnisse aus dem englischen Sprachraum mit einer anderen (orthographischen) Wortstruktur nicht unmittelbar auf das Deutsche übertragen werden können, noch der, dass isoliertes grammatisches Training selten Erfolge in anderen sprachlichen Bereichen hat, diskutiert, vor allem aber wird das Untersuchungskonstrukt nicht selbst kritisch in den Blick genommen.

Was kann man an dem Beispiel lernen?

Es gibt Denkkollektive, die gerne unter sich bleiben und sich auch gerne gegenseitig zitieren und bestätigen.

Die Untersuchung basiert nicht auf einer sorgfältigen Konstruktvalidität. Um zu beurteilen, ob überhaupt und ggf. wie die gemessenen Effekte zu deuten sind, müsste man den Unterricht, den vergangenen und den gehaltenen, sowie das genaue Wortmaterial kennen.

Die hohe Effektstärke bei der sogenannten „morphologischen Bewusstheit“ gaukelt also etwas vor, gegenüber dem aber höchste Skepsis angebracht ist. Damit wird nicht die gemessene Effektstärke bezweifelt, sondern dass sie eine Entschei←152 | 153→dungshilfe sein kann. Es geht aber in der Didaktik darum, dass sie Entscheidungshilfen für das Unterrichten bereitstellt, und nicht darum, dass Entscheidungen über entsprechende Effektstärken abgenommen werden.

3 Ein einfaches Entscheidungsmodell

Im Folgenden geht es mir darum zu zeigen, dass für alle Arten von Handlungen Entscheidungen zu treffen sind. Dabei unterscheidet sich ein Testkonstrukt nicht von einem didaktischen Unterrichtskonstrukt und mein Augenmerk wird im Folgenden mehr auf Letzterem sein, weil mir die Aufgabe der Didaktik nicht darin zu bestehen scheint, dass sie viel testet, sondern valide Konstrukte für den Unterricht vorlegt, die in Entscheidungen einfließen können.

Bei Entscheidungen stellen sich letztlich immer dieselben Fragen.

1. Welche Handlungsalternativen habe ich?

2. Was sind die Ziele und welche maßgeblichen Bedingungen sind bei der Handlungsdurchführung zu bedenken?

3. Wie hoch ist der Wert einer Handlungsalternative unter einer bestimmten Bedingung einzuschätzen?

4. Wie wahrscheinlich ist, dass eine bestimmte Folge eintritt, wenn eine Alternative unter einer bestimmten Bedingung durchgeführt wird?

Wie in anderen praktischen Wissenschaften auch, sollte die universitäre Deutschdidaktik Entscheidungsstellen identifizieren und Studierende und dann Lehrkräfte befähigen, begründbare Entscheidungen zu treffen, indem sie zeigt, was im Einzelnen zu bedenken ist.

In eher seltenen Fällen wird dann die Lehrkraft alles selbst entscheiden müssen; meistens muss sie entscheiden, ob ein Angebot an Material als Grundlage für Handlungsalternativen für die jeweiligen Ziele brauchbar ist. Dabei wäre es sehr wünschenswert, dass das Material so transparent gemacht ist, dass es hinsichtlich der eigenen Ziele, der eigenen maßgeblichen Bedingungen und der vor Ort angenommenen Wahrscheinlichkeiten eingeschätzt werden kann.

In etwa kann man sich das Ganze – im Folgenden am Beispiel des Rechtschreibens, das durch das amtliche Regelwerk bestimmt ist – so vorstellen:

Abb. 1: Entscheidungsparameter

image

←153 | 154→

Um das Ganze transparent zu machen, werde ich es an einem Beispiel diskutieren, das gegenwärtig von einigem Interesse ist, der Behandlung der Doppelkonsonantenbuchstabenschreibung, die oben schon bei Neubauer und Kirchner anklang.

Bei der Auswahl des Stoffes haben Lehrkräfte die entsprechenden Vorgaben im Curriculum. Die Entscheidung einer einzelnen Lehrkraft ist hier vielleicht noch, wann im Schuljahr der Stoff behandelt wird. Vielfach wird diese Entscheidung aber heute in einem schuleigenen Curriculum von allen Lehrkräften meist für viele Jahre getroffen. Der Stoff „Konsonantenbuchstabenverdoppelung“ – vielleicht wird er auch „Schärfung“ oder „Schärfungsschreibung“ genannt – ist gewöhnlich für die 2. Klasse vorgesehen.

Interessant ist die Fassung dieses basalen Laut-Buchstaben-Bereichs. Hier sind eine Reihe wesentlicher Entscheidungen zu fällen, die ich im Folgenden in ihren grundsätzlichen Strukturen darzustellen versuche.

Gegenwärtig werden verschiedene Positionen für die Fassung der Doppelkonsonantenbuchstaben in der Schreibung angeboten. Dabei steht die Didaktik vor einem typischen Problem. Sie muss nämlich meistens erst den Kern der Positionen herauspräparieren, bevor die didaktische Argumentation im eigentlichen Sinne überhaupt beginnen kann. Im Wesentlichen kann man die Positionen so fassen: Die Doppelkonsonantenbuchstabenschreibung ist ein Phänomen der Schrift, als solche gehört sie in die orthographische Phase, weil sie über eine einfache, alphabetische Zuordnung von Buchstaben zu Lauten hinausgeht. In diesem Fall ist die Buchstabengemination im Wesentlichen eine Lesehilfe.

Die Gegenposition erklärt sie dagegen phonographisch, als Ergebnis der Zerlegung des Redestroms in Silben.

Dahinter steckt ein weiteres Problem von einiger didaktischer Brisanz. Was sind die basalen Einheiten für die Graphie: Wörter, das nimmt die erste Position an, oder Silben, das nimmt die zweite Position an.

Wie kann ein/e DidaktikerIn sich in diesem außerdidaktischen Lagerstreit, der keineswegs so klar vorliegt, wie er eben geschildert wurde, entscheiden? Dies ist keine einfache Frage, da es bis heute nur wenig Tradition in der Entscheidung solcher Fragen gibt.

Das Vorgehen des Didaktikers bzw. der Didaktikerin kann nur sein, dass er die Frage vor dem Hintergrund seiner Ziele verfolgt. Es geht ja nicht um einen abstrakten Streit, sondern um die Frage, mit welcher Modellvorstellung das Rechtschreiben am besten erlernt werden kann. Dabei muss man „am besten“ dreifach ausbuchstabieren:←154 | 155→

hinsichtlich der Rechtschreibung selbst: Gegenstandskonstitution;

hinsichtlich der Entwicklung einer Person: Personenangemessenheit und

im Rahmen der Institution: Potential für eine unterrichtliche Prozessierung im Rahmen der Institution.

Ich werde den letzten Gesichtspunkt im vorliegenden Fall vernachlässigen, da hier beide Positionen vor ähnlichen Problemen stehen, und die ersten beiden betrachten.

Hinsichtlich der Gegenstandskonstitution kann die Sprachdidaktik zuerst nur die verschiedenen Ansätze konstatieren. Welchen sie vorzieht, wird sie dann unter Anwendung des Occam’schen Rasiermessers und didaktischer Argumente zu entscheiden haben. Nach Occam ist diejenige Theorie, die mit den wenigsten Hypothesen und Termini auskommt und damit einfacher ist, zu bevorzugen. Eine in diesem Sinne einfachere Theorie muss allerdings nicht didaktisch einfach sein. Dies wird sie erst dann, wenn die gegenstandsbezogene Einfachheit nicht mit hoher Komplexität erkauft ist.

Vor diesem Hintergrund sollen nun zwei verschiedene Ansätze verglichen werden: Ein Ansatz, der auf der Drucksilbe basiert und in Form der Röber’schen sogenannten „silbenanalytischen Methode“ vorliegt, sowie ein Ansatz, der mit dem Konzept der Schallsilbe operiert.1

Die Syllabierung gemäß der Schallsilbe findet sich in ihrer klassischen Form bei Wiese (2000, S. 36):

Abb. 2: Ambisyllabische Konsonanten

image

In der historischen Sprachwissenschaft hat man dabei von der Schließung kurzer offener Tonsilben gesprochen, die im Übergang zum Neuhochdeutschen flächendeckend vollzogen wurde. Ein Wort wie lëder kann den Weg nhd. [le: | dər] oder←155 | 156→ plattdt. [lɛd | dər] gehen. Wird der Akzentvokal gedehnt, wird die Silbe offen, bleibt sie kurz, kommt es zu einer Ambisyllabifikation, wie in Abbildung 2 ausgedrückt. Vennemann (1986, S. 39) verweist hierbei auf das Prokosch’sche Gesetz, wonach „eine akzentuierte Silbe […] um so stärker bevorzugt [ist], je näher ihr Gewicht bei zwei Moren liegt. (Die optimale akzentuierte Silbe ist zweimorig.)“ Eine kurze Tonsilbe (akzentuierte Silbe) kann nur durch Ambisyllabifikation zweimorig werden – oder sie wird gelängt und kann dann offen sein.

Dagegen sieht die grafische Darstellung bei Röber so aus:

Abb. 3: Sogenannter „fester Anschluss“ bei Röber

image

Dagegen zeigt Abb. 4 die grafische Darstellung von Hüfte, wo die beiden Silben deutlich zu sehen sind:

Abb. 4: Sog. „loser Anschluss“ bei Röber

image

Zugrunde liegt hier die Maas’sche Phonetik, die ein „Spiralenmodell“ annimmt.

Mit einer Spirale wird eine abgeschlossene Silbe gegliedert;

beim losen Anschluss () ist ein entsprechender Abschluss möglich wie bei Rate:

image

Bei festem Anschluss (↵) wird der Vokal dagegen an das Folgesegment angeschlossen. Wenn dieses nicht im Endrand der gleichen Silbe steht, sondern als Anfangsrand der Folgesilbe fungiert (die zwangsläufig eine Reduktionssilbe ist) wird diese insgesamt in die Kontur der prominenten Silbe eingeschlossen wie bei Ratte:

image

(Maas 1999, S. 198)←156 | 157→

Das Problem in dieser Darstellung besteht darin, dass bei festem Anschluss zwar eine „prominente Silbe“ – so der Maas’sche Ausdruck für die akzentuierte Silbe – sowie eine „Folgesilbe […] (die zwangsläufig eine Reduktionssilbe ist)“ angenommen wird, aber dennoch alles zusammen eine Silbe (s. Sievers Darstellung der Drucksilbe) ist – Maas spricht vom Einschluss „in die Kontur der prominenten Silbe“. Dabei bleibt unaufgeklärt, ob es sich hier um ein Phänomen allein von Akzentsilbe und Reduktionssilbe handelt, wie die Klammer bei Maas nahelegt, oder ob dies allgemein gilt, also auch beispielsweise bei Rettung, wo die zweite Silbe nicht als Reduktionssilbe interpretiert werden kann.

Was soll didaktisch gelten? Zuerst einmal muss man feststellen, dass beide Ansätze dieselben Phänomene erklären, also keine der beiden Theorien eine größere oder geringere Reichweite hat. Allerdings ist die Darstellung nach Wiese um einiges einfacher. Nicht nur werden nicht zwei verschiedene Silbenvorstellungen (Schallsilbe und Drucksilbe) ins Spiel gebracht, alle Phänomene können mit einem Modell erklärt werden, das, kurz gesagt, davon ausgeht, dass eine Akzentsilbe des Deutschen die Gestalt (K)KVK hat (wobei K nach V auch als Länge interpretiert werden kann).

Die Frage der Didaktik ist nicht, ob Drucksilben sinnvolle Annahmen sind, vielmehr, ob Drucksilben für das didaktische Geschäft eine sinnvolle Annahme sind, weil auf diese Weise Phänomene erklärt werden können, die didaktisch einschlägig sind.

Die Didaktik kann also feststellen, dass der sog. „silbenanalytische Ansatz“ mit Drucksilben einigen Aufwand bedeutet. Zwei verschiedene Silbenbegriffe – denn der Ansatz braucht auch die Schallsilbe –, entsprechend ziemlich viele Häuschen- und Garagenmodelle. Dies sollte man nur dann übernehmen, wenn man mit dem alternativen Ansatz, der zumindest nach Occams Rasiermesser vorzuziehen ist, nicht weiterkommt.

Dies ist die Stunde der Lernenden und einer wirklich notwendigen Empirie. Wie gehen die Lernenden vor? Es gibt hierzu Untersuchungen (vgl. Berkemeier 2007). Auf zwei davon soll im Folgenden näher eingegangen werden.

Spiekermann (2002) untersucht den Einfluss des Dialekts auf die Schreibung im Schwarzwald (alemannisches Sprachgebiet), Hamburg (niederdeutscher Stadtdialekt) und Leipzig (sächsisches Dialektgebiet) bei ZweitklässlerInnen. Von der bisherigen Lerngeschichte erfährt man, dass die SchülerInnen mit einem Sprachbuch unterrichtet worden seien. Im Ergebnis stellt Spiekermann fest, dass, je nach Herkunft der SchülerInnen und den damit unterstellten dialektalen Sprechweisen, die SchülerInnen unterschiedlich „markierte und unmarkierte Schreibungen“ realisierten. Für diese Unterscheidung gilt die folgende Tabelle:←157 | 158→

Tab. 1: „Dehnungs- und Schärfungsschreibung – Modell“ (Spiekermann 2002, S. 198)

image

Im Ergebnis zeigen sich erhebliche Unterschiede zwischen den drei untersuchten Standorten. Im Folgenden die Tabelle der markierten Schreibungen, wobei nun allerdings nicht mehr zwischen losen und festem Anschluss, sondern zwischen Kurzvokal (=fester Anschluss) und Langvokal (=loser Anschluss) unterschieden wird (vgl. hierzu Fußnote 1).

Tab. 2: Normgerechte Schreibung in % bei sog. „markierten Fällen“ (Spiekermann 2002, S. 206)

image

Diese Unterschiede führt Spiekermann auf das dialektale phonologische System der Kinder zurück. Dies ist eine These, die allerdings weiter untersucht werden müsste. Besonders müsste dabei diskutiert werden, wie das stumme <h>, das auf keine phonologische Eigenschaft rekurriert und zahlenmäßig bei etwa der Hälfte der einschlägigen Fälle überhaupt realisiert ist (weswegen es in einigen didaktischen Ansätzen als idiosynkratisch behandelt wird, weil es nicht vorhersagbar ist), von den Kindern so unterschiedlich behandelt wird. Wie auch immer man den Sachverhalt ansieht, das stumme <h> bzw. Dehnungs-<h> kann nur per didaktischer Instruktion geschrieben werden. Das lässt darauf schließen, dass die 75 % richtiger Schreibungen bei den Kindern aus Leipzig aufgrund des Unterrichts erreicht wurden und nicht aufgrund von interner phonologischer Regelanwendung. Hier ist sehr gut belegt, dass die Rechtschreibleistungen in den neuen Bundesländern höher waren als in den alten (vgl. Brügelmann 1994).←158 | 159→

Bei der sog. „Schärfungsschreibung“ müsste man ebenso den konkreten Unterricht kennen. Wurden die Kinder nach dem Modell von Maas, auf dem die Untersuchung von Spiekermann fußt, unterrichtet oder wurde ein Modell unterstellt, das ambisyllabische Konsonanten in der Aussprache realisiert oder wurde Rechtschreiben mehr oder weniger nach dem Reichen-Modell gelernt (was die Benutzung eines Sprachbuches nicht grundsätzlich ausschließen würde).

Zu der hier interessierenden Frage kann also die Untersuchung von Spiekermann (2002) wenig beitragen.

Anders die Ausführungen bei Huneke (2000), der sein Augenmerk auf Vorschulkinder lenkt. Seine Ausgangsfrage ist genau die hier besprochene:

Eine andere Position zur Didaktisierung der Schärfungsschreibung nehmen Maas (1990 u. 1992, S. 289) und Röber-Siekmeyer (1993, S. 80–83, S. 185–190 u. 1998) ein. Sie gehen ebenfalls von der Silbe aus und schlagen vor, das Phänomen abstrahierend bewusst zu machen und schon im frühen Rechtschreibunterricht explizit zu thematisieren; dabei setzen sie aber voraus, dass ein Bezug auf silbisches Sprechen didaktisch nicht sinnvoll ist, da der intervokale Konsonant in natürlicher gesprochener Sprache nicht als ambisyllabisch wahrnehmbar sei. Vielmehr würden Kinder spontan etwa Mu-tter, Pu-ppe oder Mu::-tter, Pu::-ppe syllabieren, zumindest im Falle der Okklusive, die nicht ‘dehnbar’ sind. Eine Silbifizierung wie Mut-ter und Pup-pe trete erst auf, wenn eine intensive Auseinandersetzung mit den entsprechenden geschriebenen Formen bereits stattgefunden habe; entsprechende sprachliche Produktionen oder Wahrnehmungen seien eine der typischen Übertragungen von Wissen über die Schreibung auf die gesprochene Sprache und ihre Wahrnehmung. Sie seien somit Ergebnis des Schreibenlernens und könnten deshalb nicht seine Grundlage sein. Eine zusätzliche Erschwerung stellten außerdem die dialektalen Verhältnisse im ehemals niederdeutschen Sprachgebiet dar. Um diesen beiden Argumenten gerecht zu werden, muss sich eine empirische Prüfung an Probanden wenden, die noch keine intensiveren Erfahrungen mit geschriebener Sprache gemacht haben, also an Vorschulkinder. Außerdem sollte sie nicht auf einen einzigen Regiolekt beschränkt bleiben.

Röber-Siekmeyer (1998) schließt eine didaktische Modellierung an, die auf eine unterrichtlich recht aufwendige Bewusstmachung des „Bremsens“ oder „Quetschens“ des betonten, ungespannten Kurzvokals abzielt.

Aus didaktischem Interesse ist es also interessant zu erfahren, ob sich Kinder mit einer ihnen gut zugänglichen sprachanalytischen Operation einen intuitiven Zugang zur Wahrnehmung2 des Silbengelenks im Deutschen verschaffen können, ohne vorgängig schon entsprechende Schreiberfahrungen gemacht zu haben. (Huneke 2002, S. 6)←159 | 160→

Das Ergebnis:

Abb. 5: Vorschulkinder und Silbengelenk (Huneke 2002)

image

Als Ergebnis hält Huneke fest:

Grundschulkinder haben also einen intuitiven Zugang zum Silbengelenk. Sie können beim Syllabieren die Silbengelenke in zwei Komponenten aufspalten, und zwar unabhängig von einem Regiolekt und unabhängig davon, mit welchem Konsonanten ein Silbengelenk besetzt ist oder welcher Vokal vorausgeht. Diese Fähigkeit ist nicht erst ein Ergebnis der Begegnung mit Schrift, denn der weitaus überwiegende Teil von ihnen besitzt sie bereits vor Beginn des Schriftspracherwerbs; außerdem werden beim Sprechen auch die Silbengelenke aufgespalten, die in den Schreibungen gar nicht markiert sind. (Huneke 2000, S. 14)

Der Anteil derjenigen also, die ein Wort wie Hütte nicht in Silben zerlegen, ist ziemlich gering. Dies widerspricht der Fußnote 25 bei Maas, wo Maas zur Verteidigung des festen Anschlusses ausführt:

Das entspricht der gerade bei Grundschülern im Anfangsunterricht oft zu beobachtenden Unsicherheit, bei solchen Trochäen überhaupt zwei Silben wahrzunehmen, da die zweite Silbe (die fest angeschlossene Reduktionssilbe) ja eine Funktion in der prominenten Silbe erfüllt. Bei der beliebten didaktischen Methode des Silbenklatschens klatschen sie nur einmal […]. (Maas 1999, S. 196)

Das Beispiel zeigt nicht nur, dass gelegentliche Beobachtungen, zumal wenn sie theoretisch präfiguriert sind, empirische Forschung in der Didaktik nicht ersetzen können. Für das Entscheidungsmodell, das oben für die Didaktik als leitend bezeichnet wurde, bedeutet das Ergebnis, dass die Wahrscheinlichkeit, dass die Kinder Hüt | te silbifizieren, ziemlich hoch ist. Der Schallsilbenansatz mit realisierten Silbengelenken setzt also am Können und Vermögen der Kinder an. Das Modell bietet daher ein sehr gutes Fundament für ein Weiterlernen.

Man hat also ein empirisches Ergebnis, das didaktisch plausibel interpretiert werden kann bzw. an das man didaktisch gut anknüpfen kann; zudem ist dieses←160 | 161→ Ergebnis auch unter Heranziehen des Occam’schen Rasiermessers begrüßenswert. Man braucht nur einen einzigen Silbenbegriff (Schallsilbe) und muss nicht offen oder implizit mit der Schall- und der Drucksilbe operieren.

Dies ist allerdings noch nicht alles, was hinsichtlich der Fassung fachlicher Inhalte unter einer didaktischen Perspektive zu bedenken ist. In Ossner (2015a, b) habe ich versucht, drei Stichwörter für die Beurteilung von didaktischen Handlungen in die Diskussion zu bringen: Erklärkraft, systematische Tiefe und Perspektivenwechsel.

Erklärkraft: Die Gliederung in [hyt | tə] erklärt die Kürze des Tonvokals. Der Konsonant begrenzt den Vokal, der auf zeitliche Dauer angelegt ist. Daher werden die Vokale, wenn sie keinen Endrand haben oder isoliert gesprochen werden, grundsätzlich lang gesprochen.

Systematische Tiefe: Beim Schallsilben-Modell haben (fast) alle Tonsilben die Form (K)KVK, wobei ‚K‘ hier auch als Morenposition gedeutet werden kann. Dadurch kann auch Länge als ‚K‘ gezählt werden, was aus der Versmetrik hinlänglich bekannt ist. In diesem Sinne haben be: | tən und bεt | tən nicht nur in der zweiten, sondern auch in der ersten Silbe dieselbe Strukturgestalt: KVK. Bis auf wenige Ausnahmen (Monde, Wüste, Erde, Pferde, Herde, Geste…) haben alle Tonsilben diese systematische Gestalt. Kinder können also auf dem einmal eingeschlagenen Weg selbsttätig weiterdenken, sie können relativ früh selbständig werden und brauchen nicht immer die führende Hand der Lehrkraft; dies scheint mir hinsichtlich des letzten Fundamentalziels von Unterricht, das meines Erachtens in der Emanzipation der zu Bildenden besteht, von einiger Bedeutung. Unter allen Theorieangeboten sollte m. E. didaktisch immer dasjenige siegen, bei dem der Lernende selbständig weiterdenken kann, weil er ein System an die Hand bekommen hat, das ihm dies ermöglicht. Die Kunst des Lehrens besteht dann darin, eine Schülerin/einen Schüler auf eine systematische Spur zu setzen, die ihm seinen eigenen Weg ermöglicht. Selbstverantwortete Eigenständigkeit ist der Ausdruck von Emanzipation.

Kein unangekündigter Perspektivenwechsel: Zu den größten Problemen des Schriftspracherwerbs gehört ein ständiger Perspektivenwechsel. Mal wird die Angelegenheit von der Lautseite aus betrachtet, mal von der Schriftseite aus, ohne dass die Lernenden ausreichend darauf vorbereitet sind. An dem folgenden Zitat wird das Problem deutlich:

Schärfung (=Verdoppeln des Konsonanten, der zu Beginn der Silbe folgt) geschieht dann, wenn die betonte Silbe offen ist (=nicht mit einem Konsonanten endet) und einen kurzen Vokal hat. (Röber-Siekmeyer 1993, S. 89)←161 | 162→

In dieser Definition kommen ausschließlich phonologische Ausdrücke vor: Konsonant, (betonte) Silbe, Vokal. Also lautet die Anwendung dieser Regel auf ein Beispiel so: [mʊ | tər] *[mʊ | ttər]. Dies ist aber offensichtlich falsch. Gemeint ist allem Anschein nach etwas anderes: [mʊtər] [mʊ | tər] <Mu-tter>; verdoppelt wird bei dieser Sichtweise der Konsonantenbuchstabe, nicht der Konsonant. Diese Regel braucht im Übrigen den Zwischenschritt der Silbifizierung nicht, weswegen man den Ansatz in dieser Form auch nur sog. „silbenanalytischer Ansatz“ nennen sollte. (Zu einer ausführlichen Darstellung des Ansatzes vgl. Spiekermann 2002.) In der vorgelegten Form unterscheidet sich das Ganze nur vom Aufwand her vom § 2 des Amtlichen Regelwerks:

Folgt im Wortstamm auf einen betonten kurzen Vokal nur ein einzelner Konsonant, so kennzeichnet man die Kürze des Vokals durch Verdoppelung des Konsonantenbuchstabens.3

Während aber das amtliche Regelwerk klar zwischen Laut- und Schriftperspektive unterscheidet, geht dies bei Röber-Siekmeyer durcheinander. Hier wird stillschweigend von einer phonologischen Silbe zu einer graphischen übergewechselt, ohne diesen Schritt zu kennzeichnen. Dies macht die Angelegenheit für die Lernenden, die die Ebenenunterscheidung erst im Lernprozess nachzuvollziehen lernen, sehr schwierig.

Hinzu kommt, dass Schärfung phonologisch interpretiert werden kann: der Vokal bekommt eine scharfe Grenze; dagegen kann man aber nicht sagen, dass ein Vokal durch ein sog. „Dehnung-h“ lang würde. Vielmehr ist der Vokal schon lang. Die „Schärfungsregel“ kann aus der Perspektive des Schreibers formuliert werden, die „Dehnungsregel“ muss aber aus der Perspektive des Lesers oder der Leserin formuliert werden. Es wäre fatal, wenn jemand denken würde, dass Länge eines betonten Vokals, die er hört und spricht, in der Schrift durch <h> wiedergegeben würde.

Im Entscheidungsmodell heißt all dies, dass der Erwartungswert der Wünschbarkeit einer Handlung hoch anzusetzen ist, wenn Erklärkraft, systematische Tiefe und Perspektivität bedacht und eingehalten sind. Für diese Aussage gibt es einen←162 | 163→ mehrfachen Grund. Lernen ist Selbsttätigkeit, die durch die drei Parameter gefördert wird und Selbsttätigkeit fördert Selbständigkeit, also die Emanzipation des Lernenden gegenüber dem/der Lehrenden. Damit bekommen Lehren und Lernen eine ethische Dimension.

Unterricht bewegt sich dabei zwischen Skylla und Charybdis. Skylla ist die falsche oder zu frühe Selbsttätigkeit. Dies ist beispielsweise bei dem von mir gewählten Gegenstandsbereich typisch für den Spracherfahrungsansatz, insbesondere die Reichen-Methode. Das Gefährliche an dieser Methode ist, dass sie offensichtlich die soziale Schere öffnet, weil diejenigen, die die helfende Hand der Lehrkraft bräuchten, diese nicht bekommen.

Charybdis ist die Behütung und Gängelung, die Selbsttätigkeit verhindert, typisch der schon lange beschriebene Fibeltrott.

Beide – Spracherfahrungsansatz und Fibeltrott – nehmen den Lehrkräften Entscheidungen an der falschen Stelle ab. Wünschenswert wäre Unterrichtsmaterial, das den Lehrkräften Entscheidungen vor Ort ermöglicht. Dies kann, wie oben schon angedeutet, nur dann der Fall sein, wenn die Lehrkräfte Entscheidungsparameter erkennen und das Material so durchsichtig ist, das es angepasst werden kann, sodass die Lehrkräfte vor Ort den Unterricht prozessieren können.

4 Zusammenfassung

Zusammenfassend kann man den Gedankengang hinsichtlich der Fassung eines fachlichen Inhalts (hier des Silbenkonzepts) unter einer didaktischen Perspektive also so darstellen:

Abb. 6: Die Aufgabe der Sprachdidaktik

image

←163 | 164→

Damit sollte klar sein, was man sich unter einer didaktischen Konstruktvalidität vorstellen kann. (Was hier für ein Gegenstandsfeld gezeigt wurde, ist im Grundsatz nicht anders bei der Konstruktkonzeption einer empirischen Untersuchung.)

Es sollte eine Aufgabe der Deutschdidaktik sein, den Lehrkräften klare Konstrukte an die Hand zu geben, keinesfalls Modelle, die sie einfach übernehmen sollen. Auf diese Weise können transparente Materialien erstellt werden, die, je klarer und ausgewiesener die Konstrukte sind, desto besser vor Ort in der Schule angepasst werden können.

(Wozu die Deutschdidaktik vermutlich nicht besonders viel sagen kann, ist m. E., wie diese Konstrukte im Unterricht über die reine Sachlogik und Grundpfeiler des Lernens hinaus prozessiert werden sollen. Eine Wissenschaft ist kein guter Ort, an dem man lernen könnte, wie man mit konkreten Personen und einer Institution umgeht. Auch hier müssen dann Entscheidungen getroffen werden, die aber auf einer anderen Ebene liegen. Die Lehrkräfte hierin zu leiten, dazu ist die Deutschdidaktik als Wissenschaft überfordert, aber man kann Studierende und Lehrkräfte in diesem Bereich coachen.)

Für die gegenstands- und lerntheoretisch orientierten Entscheidungen kann die Fachdidaktik viel Unterstützung geben. Verlässlich und transparent ist Material, wenn die Gegenstandskonstruktion absolut durchsichtig ist, insbesondere der Auswahlprozess. Es wäre schön, wenn die DidaktikerInnen nicht auch Denkkollektive bilden würden, sondern Denkkollektive in der Wissenschaft kritisch beurteilen würden hinsichtlich ihrer Brauchbarkeit im didaktischen Prozess. Die Denkkollektive der Fachdidaktik sollten an einer anderen Stelle angesiedelt sein. (Die Rolle der Selbständigkeit im Lernprozess ist z. B. ein solcher Ort.)

In der Konstruktkonstruktion selbst braucht es eine starke Empirie, um das Können von SchülerInnen, auf denen die Konstrukte aufbauen, als Ausgangsbasis feststellen zu können. Ohne Empirie sind Wahrscheinlichkeiten für das Eintreffen Handlungsfolgen unter maßgeblichen Bedingungen nicht einschätzbar. Allerdings geht es jetzt nicht darum, ob etwas wirkt, sondern ob es wirken kann. Lehrkräfte brauchen nicht das Versprechen, dass sich der Erfolg einstellt, weil sie genau dieses oder jenes tun – sie wissen eh um die Wahrheit des lateinischen Sprichwortes si duo idem faciunt, non est idem – sondern Konstrukte, die sie selbst durchschauen können, damit sie vor Ort Wirkungen bei ihren SchülerInnen erzeugen können.←164 | 165→

5 Literatur

Abraham, Ulf/Bremerich-Vos, Albert/Frederking, Volker/Wieler, Petra (Hrsg.) (2003): Deutschunterricht und Deutschdidaktik nach PISA. Freiburg: Fillibach.

Adelung, Johann Christoph (1788): Vollständige Anweisung zur deutschen Orthographie nebst einem kleinen Wörterbuch für die Aussprache, Orthographie, Biegung und Ableitung. Leipzig. (Reprint: Hildesheim: Olms 1978).

Bangel, Melanie/Müller, Astrid (2014): Zur Entwicklung morphologischer Bewusstheit und basaler Lesefähigkeiten durch die Arbeit an Wort-(bildungs)strukturen. Erste Ergebnisse einer Interventionsstudie. In: Didaktik Deutsch. 19. Jg., H. 36, S. 42–63.

Berkemeier, Anne (2007): Die Bedeutung der Silbe in der neueren rechtschreibdidaktischen Diskussion: Versuch einer Synopse. In: (Schrift-)Spracherwerb und Grammati(kali)sierung, OBST. Jg. 2007. H 73, S. 81–96.

Bredow, Rafaela/Hackenbroch, Veronika (2013): Die neue Schlechtschreibung. In: Der Spiegel, 25. http://www.spiegel.de/spiegel/print/d-98091072.html. Abgerufen am 1.9.2015.

Brügelmann, Hans (1994): Rechtschreibung in freien Texten. Zur Entwicklung schriftsprachlicher Teilleistungen von Klasse 1 bis 4. In: Brügelmann, Hans/Richter, Sigrun (Hrsg.): Wie wir recht schreiben lernen. 10 Jahre Kinder auf dem Weg zur Schrift. Lengwil: Libelle, S. 149–168.

Fingerhut, Karlheinz (2002): Die Evaluation des Leseverständnisses durch die PISA-Studie und der Literaturunterricht in der Sekundarstufe I. In: Deutschunterricht. Jg. 2002. H. 3, S. 39–45.

Furhop, Nana (2006): Orthographie. Heidelberg: Universitätsverlag Winter.

Hattie, John (2013): Lernen sichtbar machen. Überarbeitete deutschsprachige Ausgabe von Visible Learning, bes. v. W. Bleyl und K. Zierer. Baltmannsweiler: Schneider.

Huneke, Hans Werner (2000): Intuitiver Zugang von Vorschulkindern zum Silbengelenk. In Didaktik Deutsch. 5. Jg., H. 8, S. 4–17.

Huneke, Werner (2002): Intuitiver Zugang von Vorschulkindern zum Silbengelenk – eine Grundlage für den Erwerb der Schärfungsschreibung? In: Tophinke Doris/Röber-Siekmeyer, Christa (Hrsg.): Schärfungsschreibung im Fokus: zur schriftlichen Repräsentation sprachlicher Strukturen im Spannungsfeld von Sprachwissenschaft und Didaktik. Baltmannweiler: Schneider, S. 85–105.

Hurrelmann, Bettina (2002): Leseleistung – Lesekompetenz. Folgerungen aus PISA mit einem Plädoyer für ein didaktisches Konzept des Lesens als kultureller Praxis. In: Praxis Deutsch. Jg. 2002. H. 176, S. 6–18.←165 | 166→

Klotz, Peter (1996): Grammatische Wege zur Textgestaltungskompetenz. Tübingen: Niemeyer.

Maas, Utz (1990): Die Rechtschreibung entdecken – am Beispiel von Dehnung und Schärfung. In: Praxis Deutsch. Jg. 1990. H. 101, S. 9–12.

Maas, Utz (1992): Grundzüge der deutschen Orthographie. Tübingen: Niemeyer.

Maas, Utz (1999): Phonologie. Einführung in die funktionale Phonetik des Deutschen, Opladen: Westdeutscher Verlag.

Melenk, Hartmut (1998): Aspekte der Kommasetzung in der 8. Klasse. Ergebnisse eines Forschungsprojektes. In. Didaktik Deutsch. Jg. 1998. H. 4, S. 43–61.

Neubauer, Skadi/Kirchner, Sabine (2013): Rechtschreibförderung von Grundschülern unter Berücksichtigung individueller Lernvoraussetzungen: Zwei Evaluationsstudien im Vergleich. In: Didaktik Deutsch. Jg. 2013. H. 35, S. 44–61.

Ossner, Jakob (1996): Silbifizierung und Orthographie des Deutschen. In: Linguistische Berichte. Jg. 1996. H. 165, S. 369–400.

Ossner, Jakob (2015a): Grammatik im Studium. In: Köpcke, Klaus-Michael et al. (Hrsg.): Deutsche Grammatik im Kontakt. Berlin: de Gruyter, S. 63–84.

Ossner, Jakob (2015b): Anforderungen an fachliches Wissen in der Deutschdidaktik. In: Anselm, Sabine/Janka, Markus (Hrsg.): Vernetzung statt Praxisschock. Göttingen: Edition Ruprecht, S. 100–112.

Reuter-Liehr, Carola (2006/2008): Lautgetreue Lese- und Rechtschreibförderung. Bd. 3, 4. Bochum: Winkler.

Röber-Siekmeyer, Christa (1993): Die Schriftsprache entdecken. Weinheim: Beltz.

Röber-Siekmeyer, Christa (1998): Mut zum Abstrahieren. Das Angebot von orthographischen Strukturierungen beim Lesen- und Rechtschreibenlernen in der Grundschule und seine Annahme durch Kinder. In: Oomen-Welke, Ingelore (Hrsg.): „…ich kann da nix!“. Mehr Zutrauen im Deutschunterricht. Freiburg. S. 137–159.

Schulte-Körne, Gerd & Mathwig, Frank (2001/2004): Das Marburger Rechtschreib-Training. Ein regelgeleitetes Rechtschreibprogramm für rechtschreibschwache Kinder. Bochum: Winkler.

Spiekermann, Helmut (2002): Der Einfluss des Dialekts auf die Schreibungen von Grundschulkindern. Überlegungen im Anschluss an eine empirische Untersuchung zum Vokalismus. In: Tophinke, Doris/Röber-Siekmeyer, Christa (Hrsg.): Schärfungsschreibung im Fokus: zur schriftlichen Repräsentation sprachlicher Strukturen im Spannungsfeld von Sprachwissenschaft und Didaktik. Baltmannweiler: Schneider, S. 186–221.←166 | 167→

van Dijk, Teun A./Kintsch, Walter (1983): Strategies of discourse comprehension. New York: Academic Press.

Vennemann, Theo (1986): Neuere Entwicklungen in der Phonologie. Berlin: Mouton de Gruyter.

Wiese, Richard (2000): The Phonology of German. Oxford: Oxford Univ. Press.

Wimmer, Heinz/Hummer, Peter (1990): How german-speaking first graders read and spell: Doubts on the importance of logigraphic stage. In: Applied Psycholinguistics. Jg. 1990. H. 11, S. 349–368.

Yu, Saek T. (1992): Unterspezifikation in der Phonologie des Deutschen. Tübingen: Niemeyer.←167 | 168→ ←168 | 169→


1 Den Ansatz, den Schulte-Körne & Mathwig wählen, und der unmittelbar auf der Fassung des § 2 des amtlichen Regelwerks beruht, werde ich nicht weiter verfolgen. Zum einen ist hinlänglich bekannt, dass Vokalquantität von den meisten SchülerInnen einer 2. Klasse nur sehr unzulänglich erfasst wird, was aber nicht gegen den Ansatz in höheren Klassen spricht. Zum andern sollen zwei Ansätze verglichen werden, die beide vor dem Hintergrund der Silbe operieren, wohingegen ein vokalquantitativer Ansatz direkt auf das Wort zielt. Es wird sich aber unten zeigen, dass der Röber’sche Ansatz ebenfalls als vokalquantitativer Ansatz gefasst werden kann.

2 Auf welche Sinne sich eine solche Wahrnehmung ggf. stützen kann, welche Form ihre Repräsentation hat und welcher Art resultierende sprachanalytische Wissensbestände und Kompetenzen sind, ist sehr schwer zu beurteilen. Aufgrund dieser Unsicherheit wird das Attribut intuitiv gewählt. [Fußnote bei Huneke].

3 Beide Darstellungen haben ein besonderes Problem mit <tz> und <x>; bei <tz> wird argumentiert, dass dies eigentlich <zz> sei, so wie <ck> eigentlich <kk> sei. Für das Letztere hat man einen eindeutigen historischen Befund, denn die Schreibung <ck> geht auf Adelung (1788) zurück. Dagegen ist <tz> das Ergebnis einer Silbengelenkschreibung (vgl. Ossner 1996). Entsprechend der These müsste man auch annehmen, dass <Hexe> eigentlich *<Hexxe> sei, was dann irgendwie wieder im Gegensatz zu <zz> vereinfacht worden sei. Hier sollte wiederum das Occam’sche Rasiermesser greifen.