Show Less
Open access

Schulentwicklung

Bildungspolitische Wunschvorstellung oder pädagogische Realität?

Silke Fischer

Die hier durchgeführte Querschnittsstudie evaluiert erstmalig, ob Schulen sich erfolgreich eigenständig – wie bildungspolitisch gefordert –, in sogenannte «problemlösende» Organisationseinheiten transformieren können, um ihren Unterricht im Rahmen der Schulentwicklung kontinuierlich weiterzuentwickeln. Die Ergebnisse dieser Studie stellen hierbei vor allem die Nachhaltigkeit von Schulentwicklung in Frage, da weder die Lehrpersonen noch Schulleitungsmitglieder an den evaluierten Berufsfachschulen der Meinung waren, dass Schulentwicklung den Unterricht und die beruflichen Fähigkeiten der Einzellehrperson überhaupt beeinflusst. Begründet liegt dieses Ergebnis u.a. in der von den Schulen vorgenommenen Implementierungsstrategie. So wird das Lehrerkollegium allgemein zu wenig in Entscheidungsprozesse involviert und beispielsweise nur unzureichend über den Zielerreichungsgrad und Maßnahmen abgeschlossener Schulentwicklungsprojekte informiert.

Show Summary Details
Open access

4 Untersuchungsdesign und -Methodik

| 123 →

4 Untersuchungsdesign und -Methodik

Nachdem in den vorangegangenen Kapiteln die theoretische Seite der Bereiche Lehrerweiterbildung und Schulentwicklung unter Bezugnahme auf den Status Quo im Kanton Zürich (s. Kapitel 1. EINLEITUNG; 3. THEORIE, BEREICHE UND INSTRUMENTE DER SCHULENTWICKLUNG sowie die aktuelle Studien-/Publikationslage (vgl. Kap. 2. AKTUELLER FORSCHUNGSSTAND – LEHRERWEITERBILDUNG UND SCHULENTWICKLUNG IN DER SCHWEIZ) hinreichend elaboriert wurde, soll dieses Kapitel über das Untersuchungsdesign und die -methodik zum empirischen Abschnitt, Teil B, dieser Arbeit überleiten.

Um die grundlegenden Entscheidungsprozesse in Bezug auf das Untersuchungsdesign und die -methodik, welche Forschungsverlauf und -ergebnisse entscheidend beeinflussen (s. auch Kap. 6.2 Kritische Würdigung der Untersuchung), möglichst anschaulich und nachvollziehbar für den Leser zu gestalten, sollen in diesem Kapitel die methodischen Grundüberlegungen sowie die gewählte Verfahrensweise offengelegt werden. Dazu wird im Kapitel 4.1 Anlage der Untersuchung, bevor die grundlegenden forschungsmethodischen Entscheidungen erläutert werden, eine kurze Einleitung zur Triangulation von quantitativen und qualitativen Forschungsmethoden gegeben, nach welchem die Auswahl der Untersuchungsregion, der -einheit und des -objektes dokumentiert und begründet werden.

Das darauf folgende Kapitel 4.2 befasst sich anschliessend mit der Vorstellung der in dieser Arbeit angewendeten Erhebungsinstrumente, Fragebogen-Methode und leitfadengestütztes Experteninterview, sowie mit Überlegungen, die zur Konstruktion derselbigen geführt haben. In Kapitel 4.3 wird dann der Erhebungsverlauf dieser Untersuchung chronologisch anhand der Phasen Organisation (Kap. 4.3.1), Pretest (Kap. 4.3.2) und Hauptuntersuchung (Kap. 4.3.3), nachgezeichnet. Kapitel 4.4 beschreibt das Zustandekommen der Stichprobe, die Stichprobe der quantitativen und qualitativen Erhebung und die einzelnen Schuleinheiten, an denen diese Stichprobe erhoben wurde, in Bezug auf Region, Träger, Anzahl Lehrkräfte samt einigen Angaben zur Lehrerweiterbildung und Schulentwicklung.

Zusammengefasst wird diese Vorgehensweise nachfolgend in Abbildung 12. ← 123 | 124 →

Illustration

Abbildung 12: Übersicht Kapitel 4.

(Quelle: Eigene Darstellung).

4.1 Anlage der Untersuchung

In Anlehnung an die in den vorherigen Kapiteln vorgestellten theoretischen Vorüberlegungen wurde für das Forschungsdesign dieser Arbeit ein „Mixed-Method-Design“106 in Form einer Methodentriangulation oder -mix, bestehend aus quantitativer und qualitativer Befragung anhand einer standardisierten Fragebogenbefragung (s. Kap. 4.2.1 Die Fragebogen-Methode) sowie leitfadengestützter Experteninterviews (s. Kap. 4.2.2 Das ← 124 | 125 → leitfadengestützte Experteninterview), ausgewählt, um die in Kapitel 2.6 Zielsetzung der Arbeit vorgestellte, übergeordnete Forschungsfragestellung „inwiefern trägt die schulinterne Lehrerweiterbildung dazu bei, die Ziele der Schulentwicklung (besser) zu erreichen?“ zu beantworten. Hierfür wurde diese in insgesamt 15 Hypothesen (H1a bis H12b) konkretisiert, welche den vier Untersuchungsbereichen Wissen/Allgemeines (I.), Ziel-/Konzeptentwicklung (II.), Abstimmung (III.) und Nachhaltigkeit (IV.) zugewiesen wurden (s. Kap. 2.6.1 Hypothesen).

Dem Abschnitt Wissen/Allgemeines (I.) wurden die ersten vier Hypothesen (H1a, H1b, H2a und H2b), dem Untersuchungsbereich Ziel-/Konzeptentwicklung (II.) die darauf folgenden vier Hypothesen (H3, H4a, H4b und H5), dem Bereich Abstimmung (III.) zwei Hypothesen (H6, H7) und Nachhaltigkeit (IV.) fünf Hypothesen (H8, H9, H10, H11a und H11b) zugeordnet. Eine Übersicht über diese bietet nachstehend Abbildung 13:

Illustration

Abbildung 13: Übersicht Hypothesen.

(Quelle: Eigene Darstellung). ← 125 | 126 →

Methodentriangulation

Triangulation bezeichnet im Kontext sozialwissenschaftlicher Forschung nach Flick (2008) „die Einnahme unterschiedlicher Perspektiven [Anmerkung SF: I.d.R. zumeist zwei (s. Flick, 2011, S. 323).] auf einen untersuchten Gegenstand […]“ (S. 12f.). Eine solche multiperspektivische Annäherung an ein Forschungsthema, welche einen Erkenntniszuwachses auf verschiedenen Ebenen generiert, wird in der Literatur auch als „Theorien-Triangulation“ (Denzin, 1989, S. 240f.) oder „Triangulation der Perspektiven“ (Flick, 1999, S. 38ff.) tituliert. Die Triangulation dient hier weniger der Validierung, sondern eher der systematischen Komplettierung von Forschungsresultaten und Verfahrensweisen als Strategie zur Wissenserweiterung, welche „die Breite, Tiefe und Konsequenz im methodischen Vorgehen erhöht“ (Flick, 1996, S. 251).

Mit Triangulation kann neben der Verknüpfung unterschiedlicher Perspektiven aber auch, wie in dieser Arbeit, der Einsatz verschiedenartiger Methoden gemeint sein (vgl. Garz & Kramer, 1991, S. 18f.). Essenziell ist dabei die konsequente Ausrichtung aller gebrauchten methodischen Zugänge auf denselben inhaltlichen Forschungsgegenstand oder, allgemeiner, die jeweiligen Forschungsfragestellungen. Beim Einsatz mehrer Datenerhebungsmethoden, „between-method-Triangulation“107 genannt (s. Denzin, 1989, S. 244), postuliert Flick (2008) die gleichberechtigte Co-Existenz aller eingesetzten Erhebungs- und Analyseformen (S. 12). Qualitative Methoden sollten demnach nicht allein als „Hypothesenlieferant“ exploitiert werden, sondern eigenständige, gleichwertig verwertbare Forschungsergebnisse generieren. Intention der Triangulation ist es daher, die Validität der Untersuchungsergebnisse zu erhöhen und somit einen „prinzipiellen Erkenntnisgewinn“ auf mehreren Ebenen zu ermöglichen, indem bestehende Mängel einer Analysemethode durch den erweiterten Informationsgewinn einer anderen Erhebungsweise ausgeglichen werden (Flick, 2008, S. 12; s. auch Pickel, 2009, S. 518). ← 126 | 127 →

Quantitative Befragung

Die Methode der quantitativen Befragung wurde vor allem aus forschungsökonomischen Gründen gewählt, weil demnach eine möglichst grosse Stichprobe von Zürcher Berufsfachschullehrpersonen erfasst werden sollte, die es aufgrund einer hinreichenden Teststärke ermöglicht, verallgemeinerbare Aussagen über die Grundgesamtheit (N) zu tätigen (s. Riesenhuber, 2007, S. 7). Die getätigten Aussagen unterschiedlicher Personen können auf diese Weise schnell miteinander verglichen werden. Vorteilhaft an dieser Methodenauswahl ist auch, dass der zu untersuchende Sachverhalt relativ umfassend, d.h. anhand mehrerer Variablen (s. Fragebogen im Anhang dieser Arbeit) gleichzeitig, erforscht werden kann (vgl. Fantapié Altobelli, 2011, S. 23). Die Entscheidung für ein Querschnittsdesign108, welches zeitpunktbezogen (t=1), im Sinne einer Momentaufnahme, Auskunft über die Verbindung von schulinterner Lehrerweiterbildung und Schulentwicklung an Zürcher Berufsfachschulen gibt, ergibt sich aus der Zielsetzung dieser Arbeit (s. Kap. 2.6 Zielsetzung der Arbeit) und den ökonomischen Restriktionen in Bezug auf zeitliche und finanzielle Mittel, welchen diese Arbeit unterliegt.

Qualitative Befragung

Die Methode der qualitativen Befragung in Form eines Experteninterviews, als Unterform des Leitfadeninterviews mit offenen Fragen, wurde ausgesucht, um tiefergehende Erkenntnisse von der (erweiterten) Schulleitung109 oder schulleitungsnahen Personen im Rahmen ihrer Funktionen als Experten für Schulentwicklung und schulinterne Lehrerweiterbildung bezüglich der unten abgebildeten Forschungsfragen zu gewinnen. Informelle Gespräche mit Experten für (schulinterne) Lehrerweiterbildung und Schulentwicklung u.a. aus dem Kanton Zürich, die über langjährige Praxis- und Forschungserfahrung auf beiden Gebieten verfügen, bestätigten die Annahme, dass die einzelnen Lehrkräfte [Anmerkung SF: Gemeint sind hier Lehrkräfte, die nicht der (erweiterten) Schulleitung angehören.] über diese Art von Faktenwissen110 (vgl. Ziel-/Konzeptentwicklungsprozess etc.) in den ← 127 | 128 → Handlungsfeldern Schulentwicklung und schulinterne Lehrerweiterbildung i.d.R. nicht verfügen (s. Kap. 4.3.1 Die Organisation), weshalb das Aufzeigen unterschiedlicher Perspektiven innerhalb dieser Thematiken lohnenswert erscheint. Das Expertentum der ausgewählten Personen bezieht sich explizit nur auf diese beiden schulinternen Wissensgebiete und nicht auf Expertise im Sinne der Experten-Novizen-Forschung111 zum Lehrberuf.

Untersuchungsregion

Wie bereits in Kapitel 2.5 Schlussfolgerungen und Forschungsdesiderate erörtert, erscheint angesichts der Unterschiedlichkeit der Schweizer Schullandschaften eine regionale Konzentration dieser Untersuchung ratsam zu sein. Als Analyseregion wurde bewusst der Kanton Zürich ausgesucht, da zum einen der Lehrstuhl für Berufsbildung an der Universität Zürich verortet ist und zum anderen die Autorin dieser Arbeit als Berufsfachschullehrperson hier tätig ist und somit über profunde Kenntnisse der schulischen Situation verfügt, was die „Glaubwürdigkeit und Kompetenz des Evaluators“ erhöht und dementsprechend zur „Nützlichkeit“ dieser Untersuchung beiträgt (s. Kontokollias, Reinke, Wierwille & von Saldern, 2010, S. 65). Aus ökonomischen Gründen wurden ebenfalls nur Schulen des Kantons Zürich in diese Arbeit mit einbezogen, da andere Schweizer Kantone zudem über abweichende gesetzliche Regelungen und Erlässe, z.B. unterschiedliche Einführungsgesetze des Berufsbildungsgesetzes (EG BBG) sowie speziell auf Lehrer zugeschnittene Personalgesetze (vgl. LPG des Kantons Zürich), verfügen, welche infolge andersartiger Voraussetzungen die Untersuchungsgegenstände schulinterne Lehrerweiterbildung und Schulentwicklung massgeblich beeinflussen, deren zusätzliche Analyse und Darstellung aber sicherlich über den Rahmen dieser Arbeit hinausgehen würde.

Untersuchungseinheit

Die Fokussierung auf die Berufsfachschule als Untersuchungseinheit erschien sinnvoll, da diese Ausbildungsinstitution, angesichts ihrer Nähe zur Wirtschaft, besonders unter Druck steht, (schulische) Innovation schnellstmöglich effizient implementieren zu müssen (s. Kap. 1.1 Problemstellung – ← 128 | 129 → Schulentwicklung durch (schulinterne) Lehrerweiterbildung?). Der Stellenwert des schulischen Qualitätsmanagements ist dementsprechend hoch. Zudem ist das Qualitätsmanagement in den Berufsfachschulen des Kantons Zürich bereits seit dem Schuljahr 2005/6 zwingender Bestandteil der schulischen Qualitätsentwicklung (s. Kap. 3.5.1.1 Intention und Funktion von Qualitätsmanagement). Nach Gräsel (2010) zeichnet sich das Bildungssystem, besonders aber das Schulsystem, durch eine gewisse „Innovationsträgheit“ aus (S. 9), weshalb sich Neuerungen verhältnismässig schleppend verbreiten. Von daher erscheint der Erhebungszeitpunkt, rund zehn Jahre nach der gesetzlichen Implementierung, günstig.

Untersuchungsobjekt

Lehrpersonen als direkt Betroffene sind für das Gelingen der Umsetzungsprozesse von Schul- und vor allem Unterrichtsentwicklungen eigenverantwortlich, weshalb es sinnvoll erscheint, die Sichtweise dieser in Bezug auf die eingangs eruierte Zielsetzung zu erfassen (s. Kap. 2.6 Zielsetzung der Arbeit). Auch die, in den in Kapiteln 2.3.1 Ausgewählte Studien zur Lehrerweiterbildung und 2.3.3 Ausgewählte Studien zur Lehrerweiterbildung und Schulentwicklung vorgestellten Studien, unterstreichen die prominente Rolle der Lehrkräfte in Bezug auf die Thematiken Lehrerweiterbildung und Schulentwicklung, da sich diese fast ausschliesslich auf die Nachfragerperspektive, d.h. die Sichtweise der Lehrpersonen, konzentrieren.

Daneben ist aber auch die pädagogische Steuerung und Koordination durch die Schulleitungen ein bedeutender Schlüsselfaktor für die Qualität und Effektivität einer Schulorganisation, so konstatiert Huber (1997): „School leaders matter, […], school leadership does make a difference“ (S. 503ff.). Die Perspektive der (erweiterten) Schulleitung bzw. schulleitungsnahen Personen soll daher ggf. konträr zur Sichtweise der Lehrpersonen durch den qualitativen Teil Eingang in diese Erhebung finden. Schlussendlich sind Lehrerweiterbildungs- und Schulentwicklungsbemühungen nur erfolgreich, wenn die verschiedenen Entwicklungsprozesse zielorientiert koordiniert und gesteuert werden und sich ein „kohärentes und effektives System aus innerschulischen Entwicklungsbemühungen ergibt“ (Bonsen, 2010, S. 199), welches alle involvierten Personen einer Schuleinheit gleichermassen umfasst. ← 129 | 130 →

4.2 Methoden der Datenerhebung

Für die in den Kapiteln 2.6 Zielsetzung der Arbeit, 2.6.1 Hypothesen und 4.1 Anlage der Untersuchung vorgestellten Forschungsfragen/-hypothesen erwies sich die Neukonstruktion von Erhebungsinstrumenten als zwingende Notwendigkeit, da auf keine bereits erprobten und somit validen Erhebungsinstrumente zurückgegriffen werden konnte (s. Kap. 2. AKTUELLER FORSCHUNGSSTAND – LEHRERWEITERBILDUNG UND SCHULENTWICKLUNG IN DER SCHWEIZ). Daher wurde ein Fragebogen für den quantitativen Teil zur Befragung von Lehrpersonen sowie ein Interviewleitfaden für die qualitative Befragung der Experten für schulinterne Lehrerweiterbildung und Schulentwicklung konstruiert. Die Überlungen, welchen den Entwicklungsprozessen dieser Instrumenten zugrunde lagen, werden im Folgenden beschrieben.

4.2.1 Die Fragebogen-Methode

Der Fragebogen gilt als bedeutungsvolles, in der Psychologie sogar als meistgenutztes Mittel zur Erhebung quantitativer Daten (Döring, 2003, S. 229; Mummendey & Grau, 2008, S. 13, Reinders, 2011, S. 53), was sicherlich auf seine vielseitige und ökonomische Verwendbarkeit zurückzuführen ist. In diesem Zusammenhang prägte Mummendey schon 1987, später auch in Zusammenarbeit mit Grau (s. Mummendey & Grau, 2008), durch seine ebenso genannte(n) Publikation(en) den konkreteren Terminus „Die Fragebogen-Methode“ zur besseren Abgrenzung zum unpräziseren Fachausdruck „Fragebogen“, da mit diesem teilweise auch andere Untersuchungsmittel, wie beispielsweise ein Interviewleitfaden, deklariert werden (S. 13ff.). Um zu verdeutlichen, dass an dieser Stelle auch wirklich ein Fragebogen im eigentlichen Sinne, d.h. nach Döring (2003), Mummendey und Grau (2008) sowie Reinders (2011) etc., und eben kein Interviewleitfaden gemeint ist, wurde dieses Kapitel 4.3.1 nach Vorgabe von Mummendey (1987) mit „Die Fragebogen-Methode“ bezeichnet.112 ← 130 | 131 →

Bei der Anwendung der „Fragebogen-Methode“ sollen Personen zu Antworten animiert werden, durch welche Informationen gewonnen werden, die vorher nicht in dieser Art und Weise verfügbar waren. Dazu werden allen Probanden die gleichen, sprachlich präzise strukturierten Merkmalsausprägungen, zur Beurteilung von Fragen, Einschätzungen und Auffassungen, Items genannt, über sich selbst, andere Personen oder Personengruppen vorgelegt (Mummendey & Grau, 2008, S. 13). Die hierbei vorgegebenen Antwortoptionen des Fragebogens sind i.d.R. geschlossen, also durch Ankreuzen von den Testpersonen auszuwählen. Die Items werden dabei allerdings nicht willkürlich erhoben und platziert, sondern folgen dem systematischen, einer Theorie zugrunde liegenden Erkenntnisinteresse des jeweiligen Forschenden (s. Reinders, 2011, S. 54). Die Konstruktion, Verwendung und Auswertung von Fragebögen sowie die Interpretation der erhobenen Daten unterliegen dabei strikten wissenschaftlichen Regelungen, welche z.T. kurz in den folgenden Teilkapiteln 4.2.1.1.1 Skalierung, 4.2.1.1.2 Aufbau und Strukturierung und 4.2.1.1.3 Inhalt erläutert werden.

Generell unterscheidet man zwischen „Online“- und „Paper-Pencil“-Fragebögen, also Fragebögen in Papierform. Im Rahmen dieser Arbeit kommt ein Fragebogen im „Paper-Pencil“-Format zur Anwendung, begründet wird die Wahl dieser Art des Fragebogens in Kapitel 4.3.3 Die Hauptuntersuchung.

4.2.1.1 Entwicklung des Fragebogens

Die drei sich anschliessenden Unterkapitel geben den Entwicklungsprozess des Fragebogens wieder. Im Kapitel 4.2.1.1.1 Skalierung wird die Auswahl des Skalenniveaus, die Skalenrichtung, die Kennzeichnung der Antwortkategorien, ungerade vs. gerade Skalen, die Anzahl der Antwortkategorien und die Anordnung, Strukturierung und Formulierung der Items diskutiert. Kapitel 4.2.1.1.2 erläutert den Fragebogen in Bezug auf Aufbau und Strukturierung, d.h. die Einteilung in Einleitung/Instruktion, Demographie, Einstieg/Aufwärmteil, Hauptteil und Schlussteil, bevor in Kapitel 4.2.1.1.3 der Inhalt des Fragebogens anhand der einzelnen Forschungsbereiche strukturiert wird. ← 131 | 132 →

4.2.1.1.1 Skalierung

Skalenniveau

Da in dieser Arbeit die subjektive Einschätzung von Berufsfachschullehrkräften bezüglich der Thematiken Schulentwicklung und schulinterner Lehrerweiterbildung zueinander in Bezug gesetzt werden soll, bot sich innerhalb des Fragebogens die Wahl einer eindimensionalen Rating- bzw. Schätzskala an, welche dazu dient, einen bestimmten Gegenstand betreffend eines bestimmten Merkmals anhand einheitlicher Abschnitte eines vorgegebenen Merkmalkontinuums zu beurteilen (vgl. Büttner, 2008, S. 286). Das Skalenniveau dieser Skalenart ist in der einschlägigen Forschungsliteratur nicht eindeutig geklärt (s. Hüttner, 1997, S. 109; Jamieson, 2004, S. 1217; Riesenhuber, 2007, S. 19). Einigkeit besteht jedoch darüber, dass diese mindestens ordinal113 skaliert ist. Unter der Annahme, dass alle Kategorien des Merkmalskontinuums äquidistant zueinander sind, d.h. gleiche Abstände zueinander haben, wird allgemein, wie auch in diesem Fragebogen, davon ausgegangen dass eine Intervallskalierung114 vorliegt, weshalb in der Auswertung auch parametrische Analyseverfahren Anwendung finden.

Skalenrichtung

Intuitiv erwartet der Proband im Rahmen der Skalierung eine aufsteigende Ordnung vom niedrigsten Wert links, der keine Zustimmung signalisiert, zum höchsten Wert rechts, welcher volle Zustimmung bedeutet. Porst (2009) begründet diese Anordnung der Skalierung damit, dass Personen in angloamerikanischen und europäischen Kulturen gelernt haben „von links nach rechts zu denken“, in dem sie auf diese Art und Weise z.B. auch lesen und schreiben (S. 87f.). Ausserdem ergibt sich hierbei zusätzlich der Vorteil, dass bei der Auswertung der Daten ohne Umkodierung direkt gerechnet werden kann, weshalb dieser Anordnung auch in diesem Fragebogen entsprochen wurde. ← 132 | 133 →

Kennzeichnung der Antwortkategorien

Dickinson und Zellinger (1980) konnten nachweisen, dass Testpersonen allgemein zufriedener sind, wenn nicht nur die Extrempunkte verbale Beschreibungen enthalten (zitiert in Moosbrugger & Keleva, 2008, S. 52f.). Aufgrund dieser Tatsache und um Missinterpretationen auf Seiten der Probanden zu vermeiden, wurden alle Skalenpunkte, nicht nur die Extremwerte, im Fragebogen für die Testpersonen sowohl numerisch wie auch verbal beschrieben. Darüber hinaus wurden bipolare Ratingskalen ausgewählt, bei welchen die Extrempunkte sich gegenseitig beschreiben (Greving, 2007, S. 69). Somit wurde einerseits sichergestellt, dass die Interpretation der Skala intersubjektiv konform erfolgt (Moosbrugger & Kelava, 2008, S. 52) und andererseits durch die zusätzliche Zuordnung von Ziffern, dass die Abstände der Skalenpunkte zueinander von den Testpersonen als äquidistant wahrgenommen werden (Gehring & Weins, 2009, S. 82f.). Zur verbalen Beschreibung der Skalenpunkte wurden Bewertungen (unwichtig/wichtig, schlecht/gut), Häufigkeiten (selten/oft) und Intensitätsangaben (schwach/stark) verwendet. Hierbei wurde explizit darauf geachtet, verbale Skalenstufen zu verwenden, die bereits in anderen Untersuchungen hinreichend getestet wurden.

Ungerade vs. Gerade Skalen

Die Entscheidung eine ungerade/gerade Skala zu nutzen, ist gleichzeitig mit der Entscheidung für bzw. gegen eine neutrale, mittlere, „weder-noch“-Position verbunden. Eine solche Mittelkategorie ermöglicht es den Probanden eine neutrale Position zu vertreten, wenn dieser eine ambivalente Meinung vertritt. Gemäss Greving (2007) resultieren anlässlich der Existenz einer mittleren Kategorie die folgenden zwei Problematiken (S. 71): Zum einen können Probanden diese Kategorie vermehrt gebrauchen, um die Befragung möglichst schnell zu beenden, zum anderen können Teilnehmer, die aufgrund von Unwissenheit eine indifferente Meinung zum Sachverhalt haben, ebenfalls diese Kategorie auswählen. So oder so besteht eine gewisse „Tendenz zur Mitte“ (Aschemann, 2001, S. 15; Jankisz & Moosbrugger, 2008, S. 60f.)

Zur Bewältigung dieser Schwierigkeiten propagieren einige Autoren (Greving, 2007, S. 71; Jankisz & Moosbrugger, 2008, S. 54) stattdessen für das Einfügen einer zusätzlichen „weiss-nicht“-Kategorie in den Fragebogen, welche diese Probleme zwar beheben, jedoch auch die ← 133 | 134 → Wahrscheinlichkeit, lückenhaftes Datenmaterial zu produzieren, erhöhen würde. Garland (1991) fand überdies heraus, dass das Weglassen einer neutralen Mittelkategorie dazu führt, dass die Probanden vermehrt negative Skalenpunkte als Antwortoption auswählen (S. 2). Hier gilt es auch zu bedenken, dass ohne eine neutrale Mittelkategorie diejenigen Probanden zu einer positiven/negativen Entscheidung gedrängt werden („Forced Choice“)115, die tatsächlich „mittelmässig“ meinen. Insgesamt würde das Weglassen einer Mittelkategorie die Ergebnisse daher wesentlich verfälschen bzw. unnötig polarisieren, weshalb in dieser Untersuchung eine ungerade Skala mit neutraler Mittelkategorie (Kategorie 4 – weder noch) Anwendung findet. Da zudem davon ausgegangen werden kann, dass die Probanden den Untersuchungsgegenstand zur Genüge kennen, wurde im Rahmen der Fragebogenkonstruktion auf das Einfügen einer „weiss-nicht“-Kategorie bewusst verzichtet.

Anzahl der Antwortkategorien

Eine allgemeingültig als richtig angesehene Kategorienanzahl lässt sich innerhalb der Literatur nicht generieren (vgl. Greving, 2007, S. 70). Gemäss Porst (2009) sollte die Kategorienanzahl von der Abstraktionsfähigkeit der potentiellen Probanden bestimmt werden (S. 85). Allgemein kann jedoch davon ausgegangen werden, „dass sich für mehr als sieben Skalenstufen kein Informationsgewinn in den individuellen Urteilsdifferenzierungen finden lässt“ (Moosbrugger & Kelava, 2008, S. 51). Jäpel (1985) definiert auch die nachfolgende Direktive (S. 151):

9 +/- 2 Kategorien bei allein stehenden Items,

7 +/- 2 Kategorien bei Itembatterien.

Um eine hinreichende Differenzierung respektiv Streuung im Antwortverhalten der Probanden zu generieren oder – nach Rohrmann (1978) – „um die Anwendungsmöglichkeit zu verbessern“ (S. 243), empfiehlt es sich im Rahmen dieser Untersuchung mit Berufsfachschullehrpersonen als Probanden mehr als fünf Antwortkategorien zu definieren, weshalb hier generell eine sieben-stufige-Ratingskala verwendet wurde. Tabelle 14 (s.u.) ← 134 | 135 → zeigt die verwendete Skala in Bezug auf die Beurteilung von Unwichtigkeit/Wichtigkeit der Items.

Tabelle 14: Beispielskalierung Fragebogen (7-Punkte-Ratingskala).

Illustration

(Quelle: Eigene Darstellung).

Eine Ausnahme hiervon bildet lediglich die letzte Itembatterie (VII. Kontakt mit Schulentwicklung und schulinterne Lehrerweiterbildung), da hier, die in der Psychologie gängige neun-stufige-Itemskala bei Häufigkeiten (nie/immer), benutzt wurde.

Anordnung und Strukturierung der Items

Da verschiedenartig beschriftete Ratingskalen (s.o.) zur Beantwortung der Items entwickelt wurden, war es aus Platzgründen nicht möglich, wie oft in der Literatur propagiert (vgl. Gehring & Weins, 2009, S. 84f.), die Items nach Themenkomplexen getrennt voneinander anzuordnen. Dies erschien jedoch nicht problematisch zu sein, da die Gefahr von Halo-Effekten116 durch eine Vermischung beider Themengebiete im Pretest (s. Kap. 4.3.2 Der Pretest) ausgeschlossen werden konnte.117 Es wurde jedoch darauf geachtet, dass kongruente Items zu den Themengebieten Schulentwicklung und schulinterne Lehrerweiterbildung im Fragebogen direkt nacheinander arrangiert wurden, was den Probanden kognitiv entlasten sollte. Zur besseren Übersicht für den Befragten wurden die so entstandenen Subteile des Fragebogens in Form von Itemblöcken oder -batterien118 anhand verschiedener Oberthemen von Schulentwicklung und schulinterner Lehrerweiterbildung ← 135 | 136 → (z.B. Einstellung, Wissen, Ziel-/Konzeptentwicklungsprozess, Zielerreichung und Auswirkungen) für den Probanden logisch strukturiert.

Um die Konzentrationsfähigkeit des Probanden bis zum Ende aufrecht zu erhalten, wechseln sich im weiteren Verlauf des Fragebogens einfachere Itembatterien (Wissen) mit aus Probandensicht schwierigeren zu beantwortenden Itembatterien (Ziel-/Konzeptentwicklungsprozess) ab, wobei darauf geachtet wurde, gerade zu Beginn des Hauptteils eine eher simple Itembatterie (Wissen) anzuordnen („Eisbrecher-Fragen“). Die zentralen respektiv eher kritischen Items (Ziel-/Konzeptentwicklungsprozess, Zielerreichung) wurden im mittleren Drittel des Fragebogens platziert, da laut Aschemann-Pilshofer (2001) hier die Konzentration und somit die Auskunftsbereitschaft des Probanden am höchsten ist (S. 18). Die Anordnung der Items innerhalb der jeweiligen Itembatterien erfolgte i.d.R. nach dem „Trichterprinzip“, was bedeutet dass unverfängliche Items zu Anfang und prekärere Items gegen Ende platziert wurden (Aschemann-Pilshofer, 2001, S. 18).

Formulierung der Items

Innerhalb des Fragebogens erschien es sinnvoll, die Items in Frageform zu formulieren, da im Gegensatz zur reinen Aussageform (z.B. trifft nicht zu/trifft zu), weitere Informationen durch den Einbezug eines zusätzlichen Adjektivs, wie z.B. unwichtig/wichtig oder schlecht/gut, gewonnen werden können. Bei der Ausformulierung der Items wurde den generellen Grundregeln der (wissenschaftlichen) Itemformulierung, wie beispielsweise keine doppelte Verneinung etc. zu benutzen, Rechnung getragen (s. Gehring & Weins, 2009, S. 77ff.; Mummendey, 1999, S. 63ff.).

4.2.1.1.2 Aufbau und Strukturierung

Dieser Fragebogen gliedert sich in Anlehnung an Reinders (2011) in die verschiedenen Abschnitte Einleitung/Instruktion, Demographie, Einstieg- bzw. „Aufwärmteil“, Hauptteil mit diversen thematischen Unterteilungen sowie den Schlussteil, welche nachträglich beschrieben werden (S. 55; s. auch Mummendey, 1999, S. 68ff.).

Einleitung/Instruktion

In der vorliegenden Untersuchung wurde den Probanden noch vor Beginn des eigentlichen Fragebogens zur gedanklichen Strukturierung ein Begleitschreiben ← 136 | 137 → (Einleitung) vorgelegt, in welchem die Zielsetzung sowie die Autoren119 dieser Untersuchung kurz vorgestellt wurden. Nachfolgend erfolgte unter der Rubrik 0. Ausfüllen, Inhalt und Gliederung, Begrifflichkeiten eine kurze allgemein gehaltene Instruktion zu diesen Punkten sowie dem Befragungsprinzip. Wichtig erschienen hier auch der Hinweis, dass es sich einerseits nicht um einen Wissenstest handelt, um etwaige Bedenken auszuräumen und andererseits die Aufklärung über personenschutzrechtliche Aspekte (Anonymität).120 Im Pretest (s. Kap. 4.3.2 Der Pretest) zeigte sich, dass die Definition des Begriffs Schulentwicklung redundant war, weshalb auf diese an dieser Stelle bewusst verzichtet wurde, wohingegen die Definitionen der schulinternen Lehrerweiterbildung und des Qualitätsteams von den Testpersonen als relevant eingeschätzt wurden. Diese sind jedoch recht knapp gehalten, um die Testpersonen in ihren Antworttendenzen nicht zu beeinflussen (Reinders, 2011, S. 55f.).

Demographie

Im Folgenden wurden die demographischen Angaben bewusst an den Anfang des Fragebogens gestellt. Die Entscheidung für diese Anordnung liegt in der mehrjährigen Erfahrung der Autorin im Rahmen von (wissenschaftlichen) Untersuchungen mit (Berufsfachschul-) Lehrpersonen begründet.121 Nachfolgende demographische Angaben wurden im Zusammenhang mit der Thematik dieses Fragebogens als bedeutsam angesehen und fungieren zugleich als unabhängige Variablen122: Geschlecht, Lehrerausbildung vollständig abgeschlossen, Zugang zum Lehrberuf, Unterrichtsfächer, Dauer der Lehrtätigkeit, Dauer der Schulzugehörigkeit, Pensum, Beschäftigungskategorie der Lehrperson sowie die Art der Funktionsstelle. Angesichts dessen, dass die Beantwortung für den Probanden so einfach wie möglich gestaltet werden sollte, wurden nur bei denjenigen demographischen Items geschlossene (standardisierte) Antwortkategorien vorgegeben, bei welchen diese zwingend notwendig erschienen ← 137 | 138 → (s. Items 1.1, 1.2, 1.3, 1.4, 1.8, 1.9), wohingegen für die Items 1.5, 1.6 und 1.7 ein offenes bzw. unstandardisiertes Antwortformat123 gewählt wurde.

Einstieg/Aufwärmteil

Nach dem anfänglichen Demographieteil wurden die Testpersonen mit sogenannten „Aufwärmitems“, die sich auf die persönliche Einstellung der Probanden hinsichtlich beider Themengebiete bezogen, konfrontiert. Diese Items sollten die Neugier und das Interesse des Probanden erregen, welches beides einen Einfluss auf die Sorgfältigkeit des Antwortverhaltens der Testpersonen hat (Gehring & Weins, 2009, S. 84; Reinders, 2011, S. 56f.). Zugleich dienen diese Items ebenfalls dazu, die Probanden an das Frage-Antwort-Schema des Fragebogens zu gewöhnen (Reinders, 2011, S. 57).

Hauptteil

Der nun folgende Hauptteil ist inhaltlich der essentiellste Abschnitt des Fragebogens, was auch vom Ausmass dieses Teils her deutlich wird (Reinders, 2011, S. 57). Zur besseren Strukturierung für die Befragten gliedert sich dieser in die nachstehenden Subkategorien: Wissen, Ziel-/Konzeptentwicklungsprozess, Zielerreichung und Auswirkungen. Alle Subteile grenzen sich für den Probanden deutlich voneinander ab und bereiten diesen mit einem Hinweissatz auf das entsprechende Unterthema vor. Die Anordnung und Strukturierung des Hauptteils wurde bereits oben unter Anordnung, Strukturierung und Formulierung der Items erläutert.

Schlussteil

Im Schlussteil des Fragebogens wird der Proband mit Items der Subkategorie Kontakt konfrontiert, welche für das Forschungsvorhaben zwar wichtig, jedoch nicht von essentieller Bedeutung sind. Die Beantwortung dieses Itemblockes ist zudem mit wenig Aufwand für den Probanden verbunden ist, weshalb diese am Ende des Fragebogens platziert wurde (s. Reinders, 2011, S. 58).

4.2.1.1.3 Inhalt

Die Zuordnung der einzelnen Items zu den Forschungsfragen und -bereichen (s. Kap. 4.1 Anlage und Aufbau der Untersuchung) zeigt nachstehend Abbildung 14. ← 138 | 139 →

Illustration

Abbildung 14: Inhalt Fragebogen.

(Quelle: Eigene Darstellung). ← 139 | 140 →

4.2.2 Das leitfadengestützte Experteninterview

Das Experteninterview gilt als eines der am meisten verwendeten Verfahren in der empirischen Sozialforschung (s. Bogner & Menz, 2002, S. 33; Meuser & Nagel, 2004, S. 326; Meuser & Nagel, 2009, S. 465; Pfandenhauer, 2007, S. 451), stillschweigend scheint in der wissenschaftlichen „Community“ Einigkeit darüber zu bestehen, dass dieses leitfadengestützt ist (vgl. hierzu Liebold & Trinczek, 2009, S. 32), daher auch die Benennung dieses Kapitels: Das leitfadengestützte Experteninterview. In dieser Arbeit wird es nicht als alleiniges Erhebungsinstrument, sondern als Methodenmix bzw. -triangulation zusammen mit der quantitativen Befragung verwendet (s. auch Kapitel 4.1 Anlage der Untersuchung; 4.2.1 Die Fragebogen-Methode).

Nach Liebhold und Trinczek (2009) gelten als Experten „im landläufigen Sinne Sachverständige, Kenner oder Fachleute […]“, „also Personen, die über besondere Wissensbestände verfügen“ (S. 33). Das Experteninterview ist daher dadurch gekennzeichnet, dass es auf diese exponierte Personengruppe abzielt, die über detailliertes und spezifisches Sonderwissen im Hinblick auf das derzeitige Forschungsinteresse verfügt (Liebhold & Trinczek, 2009, S. 33). Diesen Wissensvorsprung besitzen, die als Experten etikettierten Personen, zwar nicht alleine, allerdings ist dieses Wissen auch nicht jeder Person in diesem Handlungsfeld unmittelbar zugänglich (s. Meuser & Nagel, 1997, S. 484). Der ausgewählte Experte wird innerhalb des Interviews nicht als Einzelfall, sondern als Repräsentant einer Gruppe in seiner Funktion als Experte wahrgenommen, der über einen eindeutig abgegrenzten Ausschnitt der Realität interviewt wird (hier: Schulentwicklung bzw. schulinterne Lehrerweiterbildung). „Außerhalb [sic!] dieses Realitätsausschnitts agiert der Experte als ‚Mann auf der Strasse‘ oder als ‚gut informierter Bürger‘“ (in Anlehnung an Schütz (1972) zitiert in Liebhold & Trinczek, 2009, S. 34). Der Fokus des wissenschaftlichen Erkenntnisinteresses richtet sich dabei weder auf die Einzelperson noch deren Biographie, sondern selektiv „auf die Problemsicht des Experten innerhalb ‚seines‘ organisatorischen und institutionellen Zusammenhangs“ (Liebhold & Trinczek, 2009, S. 35).

Kennzeichnend für diese Interviewform ist gemäss Mayer (2008), dass ein genau ausformulierter Leitfaden mit offenen Fragestellungen („Prinzip ← 140 | 141 → der Offenheit“)124 das Interview strukturiert, auf Basis welcher der Experte frei Auskunft geben kann (S. 37). Durch die konsequente Orientierung am Leitfaden als „Gerüst“ des Interviews soll die Vergleichbarkeit und Strukturierung der Daten sichergestellt werden, wobei diesem auch im Hinblick auf die Eliminierung ineffektiver Themen im Experteninterview eine erhöhte Steuerungsfunktion zugewiesen wird (Mayer, 2008, S. 37f.). Expertenwissen ist oft implizit125 und muss aus den Antworten des Interviewpartners erst entsprechend kodiert werden. So entscheidet der Interviewer selbst, wann und in welcher Form Anknüpfungspunkte für ein Weiterfragen interessant und insofern lohnenswert erscheinen. Hopf (1978) beschreibt die Interviewsituation daher als „Prozess permanenter spontaner Operationalisierung“ (zitiert in Gläser & Laudel, 2006, S. 108).

Entgegen seiner hohen Nutzungsfrequenz findet das (leitfadengestützte) Experteninterview in der gängigen qualitativen Methodenliteratur allerdings vorwiegend, wenn überhaupt, als Mittel explorativer Ergänzung Erwähnung (Bortz & Döring, 2006, S. 308ff.; Diekmann, 2003, S. 439ff.). Ein ähnliches Bild zeigt sich auch im Rahmen wissenschaftlicher Studien sowie Qualifikationsarbeiten (Dissertationen, Habilitationen), in welchen sich diese Methodik der Datenerhebung bereits in eindrücklicher Art und Weise etabliert hat, aber sich die konkrete methodische Anwendung und Reflexion oftmals noch durch eine gewisse „Hemdsärmeligkeit“ auszeichnet (Meuser & Nagel, 2009, S. 465). Oder mit den Worten von Bogner und Menz (2002) ausgedrückt: „Experteninterviews werden oft gemacht, aber wenig durchdacht“ (S. 33).

4.2.2.1 Entwicklung des Interviewleitfadens

Interviewfragen lassen sich sowohl nach inhaltlichen (Inhalt/Gegenstand der Frage), wie auch nach funktionalen Aspekten (Steuerung Antwort/Gesprächsverlauf) strukturieren (vgl. auch Gläser & Laudel, 2006, S. 118ff.). In Kapitel 4.2.2.1.1 soll eine inhaltliche Strukturierung der Interviews nach Fragetypen vorgenommen werden, im darauffolgenden Kapitel 4.2.2.1.2 werden dann Aufbau und Strukturierung beider Interviewleitfäden erläutert, bevor Kapitel 4.2.2.1.3 einen umfassenden Überblick über den Inhalt beider Interviews vermittelt. ← 141 | 142 →

Die im Folgenden vorgestellten Interviewleitfäden dienten für die im Rahmen dieser Untersuchung geführten Interviews allerdings lediglich als Basis. Abhängig vom jeweiligen Interviewpartner wurde diese, soweit es lohnenswert erschien, folglich an der einen oder anderen Stelle erweitert bzw. reduziert, um auf die vom Experten gegebenen Antworten besser eingehen zu können. Ein generelles „Festkleben“ am Interviewleifaden hat demzufolge nicht stattgefunden.

4.2.2.1.1 Fragetypen

Inhaltlich kann man die geführten Experteninterviews gemäss ihrer Items dabei den nachfolgend aufgeführten Fragearten zuordnen (vgl. Tab. 15):

Tabelle 15: Fragetypen Interview.

Illustration

(Quelle: Eigene Darstellung).

Da die geführten Experteninterviews das spezifische, realitätsbezogene Sonderwissen der Experten über Schulentwicklung und schulinterne Lehrerweiterbildung abbilden sollten (s. 4.2.2 Das leitfadengestützte Experteninterview), bestanden diese mit rund 28 Items (s. Tab. 18) überwiegend aus Faktfragen, die sich auf überprüfbare Tatbestände beziehen. Als Unterform der Faktfrage kamen mit jeweils 14 Items Erfahrungsfragen, die in der Vergangenheit liegende Beobachtungen und Handlungen betreffen sowie mit 14 Items Wissensfragen, die akkumuliertes Wissen, also Wissen, welches nicht selbst erlebt wurde, erfragen, zur Anwendung (s. Gläser & Laudel, 2006, S. 118f.). Allerdings erfolgte die Zuordnung der Faktfragen in Erfahrungs- und Wissensfragen in Tabelle 18 dem grundsätzlichen Eindruck der ← 142 | 143 → Autorin, d.h. dass dieser nicht zwingend für alle Interviewpartner kongruent sein muss, was Erfahrung und was Wissen ist, obliegt schlussendlich dem persönlichen Erleben jedes interviewten Experten selber. Neben den Faktfragen bildeten die Meinungsfragen126, in welchen die Experten subjektive Bewertungen über Individuen (Lehrpersonen, Kollegium), Sachlagen (Wissensstand, kollegialer Austausch etc.) und Prozesse (Entwicklungsprozess Ziele/Konzept etc.) der Schulentwicklung und schulinternen Lehrerweiterbildung abgeben sollten, mit insgesamt 17 Items den zweitwichtigsten Fragetyp (s. Gläser & Laudel, 2006, S. 118f.). Gemessen an der Itemanzahl folgen mit 10 Items schliesslich die Hintergrundfragen, auch demographische Fragen genannt, welche notwenige Informationen über den jeweiligen Interviewpartner generieren. Der Interviewleitfaden für die Experten der Schulentwicklung ist somit um vier Items bzw. den Bereich Überprüfung Ziel-/Konzepterreichungsgrad SE länger als der Interviewleitfaden der Experten der schulinternen Lehrerweiterbildung.

4.2.2.1.2 Aufbau und Strukturierung

Aufbau und Strukturierung der Interviews richten sich allgemein nach den Vorgaben von Gläser und Laudel (2006, S. 140ff.). Nachstehend werden Vorspann, Demographie sowie die Anordnung der Items beider Interviews erläutert.

Vorspann

Vor dem Beginn es Interviews erschien es notwendig, dass sich die Autorin dieser Arbeit, welche gleichzeitig als Interviewerin fungierte, erst einmal bei den für die Interviews ausgewählten Experten vorstellte. Nach dem Prinzip der informierten Einwilligung127 wurden die Interviewpartner dann zunächst über die Zielsetzung der Arbeit, das Untersuchungsdesign, insbesondere über ihre Rolle im Rahmen dieser (s. Kap. 4.1 Anlage der Untersuchung) sowie über den Untersuchungsablauf informiert. Zudem ← 143 | 144 → wurde allen Experten (samt Schulen) Anonymität zugesichert und ihre Einwilligung zur Aufzeichnung des Interviews auf Tonband eingeholt.

Demographie

Der demographische Teil des Interviews wurde, wie auch beim Fragebogen (s. Kap. 4.2.1.1.2 Aufbau und Strukturierung) bewusst an den Anfang gestellt, da dem Experten hierdurch die Möglichkeit gegeben wurde sich in diese unnatürliche Gesprächssituation, bedingt durch das Aufnahmegerät, einzufühlen. Zudem wurden der Interviewerin aufgrund der demographischen Angaben wichtige Hinweise, z.B. durch die genaue Funktion des Experten in den beiden Themenbereichen, für den weiteren Interviewverlauf geliefert. Im Demographieteil wurden die folgenden Angaben der Interviewpartner, welche auch in den demographischen Angaben des Fragebogens enthalten sind, verkürzt abgefragt: Geschlecht, Alter, Pensum, Dauer der Lehrtätigkeit und Funktion im Rahmen der Schulentwicklung/schulinternen Lehrerweiterbildung. Das letzte demographische Item Funktion im Rahmen der Schulentwicklung/schulinternen Lehrerweiterbildung wurde ausgewählt, weil viele Personen instrinsisch motiviert sind und gerne über ihr Arbeits-/Aufgabengebiet sprechen (Gläser & Laudel, 2006, S. 144), wodurch ein angenehmes Interviewklima hergestellt werden soll.

Anordnung Items

Die folgenden Interviewfragen wurden in inhaltlich zusammenhängenden Themenblöcken (Wissen/Allgemeines Schilw/SE; Entwicklungsprozess Ziele/Konzept Schilw/SE; Abstimmung Ziele/Konzept Schilw & Ziele/Konzept SE; Überprüfung Ziel-/Konzepterreichungsgrad SE; Auswirkungen Ziele/Konzept Schilw/SE) so strukturiert, dass sie sich möglichst einem natürlichen Gesprächsverlauf annähern und sich somit nur wenig Unterbrüche im Interviewverlauf ergeben. Die Einteilung in Themenkomplexe hat aber auch den Vorteil, dass die Experten, welche den Interviewgegenstand zunächst einmal selbst rekonstruieren müssen, im Gesprächsverlauf mehr und mehr Wissen hierzu wiederherstellen können (Gläser & Laudel, 2006, S. 142).

Als erstes Item beider Interviews wurde auch hier ein „Aufwärmitem“, Item 1a gewählt, welches für die Experten besonders einfach zu beantworten ist, weshalb der Themenkomplex Wissen/Allgemeines Schilw/SE am Anfang positioniert wurde. Mittig wurden die etwas heikleren ← 144 | 145 → Themenbereiche Abstimmung Ziele/Konzept Schilw & Ziele/Konzept SE sowie Überprüfung Ziel-/Konzepterreichungsgrad SE arrangiert, da hier die Gefahr bestehen könnte, dass diese Items die Interviewsituation nachhaltig negativ verändern. Am Ende des Interviews wurde dann wieder ein leicht zu beantwortender Themenkomplex (Auswirkungen Ziele/Konzept Schilw/SE) platziert, um keinen unerfreulichen Eindruck beim Experten zu hinterlassen. Abschliessend wurde dem Experten noch die Frage gestellt, ob in Bezug auf das Interview aus seiner Perspektive noch etwas Wichtiges zu ergänzen sei. Laut Gläser und Laudel (2006) ist diese Abschlussfrage angenehm für den Interviewpartner, da dieser einerseits über den Inhalt selbst entscheiden darf und andererseits anhand dieser auch noch zusätzliche Informationen generiert werden können, welche in der Vorbereitung vom Interviewer nicht Bedacht wurden (S. 145).

4.2.2.1.3 Inhalt

Der Inhalt der beiden Interviews wurde kongruent zum Fragebogen (s. Kap. 4.2.1.1.3 Inhalt) konstruiert und setzt sich dementsprechend aus Fragen zu den folgenden fünf Inhaltsbereichen zusammen: Wissen/Allgemeines Schilw/SE; Entwicklungsprozess Ziele/Konzept Schilw/SE; Abstimmung Ziele/Konzept Schilw & Ziele/Konzept SE; Überprüfung Ziel-/Konzepterreichungsgrad SE; Auswirkungen Ziele/Konzept Schilw/SE.

Da es möglich sein sollte, das Interview innerhalb einer Schulstunde zu führen, wurde der Inhalt im Pretest (s. Kap. 4.3.2 Der Pretest) im Vergleich zum Fragebogen teilweise leicht verkürzt. Abbildung 15 und 16 zeigen die verschiedenen Dimensionen der Interviewleitfäden samt Items. ← 145 | 146 →

Illustration

Abbildung 15: Inhalt Interview SE.

(Quelle: Eigene Darstellung). ← 146 | 147 →

Illustration

Abbildung 16: Inhalt Interview Schilw.

(Quelle: Eigene Darstellung). ← 147 | 148 →

4.3 Ablauf der Untersuchung

Der Untersuchungsverlauf lässt sich, wie Abbildung 17 illustriert, in die verschiedenen Abschnitte Organisation, Pretest, und Hauptuntersuchung, bestehend aus Erhebung und Analyse (Dateneingabe und -auswertung), untergliedern. Diese einzelnen Untersuchungsabschnitte bzw. -phasen sollen an dieser Stelle kurz in den folgenden Unterkapiteln 4.3.1 Die Organisation, 4.3.2 Der Pretest und 4.3.3 Die Hauptuntersuchung erläutert werden.

Illustration

Abbildung 17: Ablauf der Untersuchung.

(Quelle: Eigene Darstellung).

4.3.1 Die Organisation

Die (eigentliche) Organisationsphase dieser Untersuchung dauerte insgesamt etwas mehr als ein Jahr. Ausgenommen hiervon sind lange Sondierungsphasen der einschlägigen Forschungsliteratur (s. Kap. 1. EINLEITUNG; ← 148 | 149 → 3. THEORIE, BEREICHE UND INSTRUMENTE DER SCHULENTWICKLUNG) sowie die Sichtung und Auswertung zahlreicher nationaler und internationaler Studien(-designs) zu den Thematiken Lehrerweiterbildung und Schulentwicklung, wovon eine kleine Auswahl in Kapitel 2. AKTUELLER FORSCHUNGSSTAND – LEHRERWEITERBILDUNG UND SCHULENTWICKLUNG IN DER SCHWEIZ detaillierter dargestellt wird.

Im Vorhinein zu dieser Erhebung wurde das Untersuchungsdesign (Forschungsfragestellungen, Probandenauswahl etc.) seit dem Sommer 2012 wiederholt mit Experten für Schulentwicklung und Lehrerweiterbildung aus den Bereichen Wissenschaft (Professoren, Doktoranden, wissenschaftliche Mitarbeiter etc.) und Praxis (Schulleitern, Lehrern, Mitarbeitern von Weiterbildungsanbietern etc.) aus dem Kanton Zürich und Nordrhein-Westfalen128 (BRD) in Einzel- und Gruppensitzungen zur Diskussionen gestellt, hinterfragt und aufgrund des vielfältigen Inputs kontinuierlich gedanklich weiterentwickelt (s. Kap. 4.3.2 Der Pretest). Inhalte dieser Gespräche waren stets die in Tabelle 16 zusammengefassten Eckpunkte.

Tabelle 16: Elemente der „Recherche“ in der Organisation.

Elemente der „Recherche“ in der Organisation
I. Studien LWB(Schilw)/SE
Bekanntheit bisheriger Studien
Stärken/Schwächen bisheriger Studien
II. Forschungsbereiche LWB(Schilw)/SE
Wünschens-/lohnenswerte Forschung in den Bereichen LWB(Schilw)/SE
Perspektiven Lehrpersonen, Schulleitung, Kanton in Bezug auf LWB(Schilw)/SE
III. Forschungsdesign/-fragestellungen
Stärken/Schwächen
Praktikabilität/Umsetzung
IV. Sonstiges
Eigene Anliegen der Gesprächs-/Diskussionspartner
Weiteres

(Quelle: Eigene Darstellung). ← 149 | 150 →

Die jeweilige Schwerpunktsetzung der Gespräche/Diskussionen wurde allerdings in Abhängigkeit vom Forschungsgebiet und -disziplin bzw. der beruflichen Stellung der Experten von diesen selber bestimmt. Insgesamt ergaben sich rund neun Expertengespräche/-diskussionen, davon fünf Gruppendiskussionen mit je zwei bis drei Teilnehmern129, deren Länge zwischen 55 Minuten bis ca. drei Stunden stark variierte.130

Nach der endgültigen Festlegung der Forschungsfragestellungen/-hypothesen (s. Kap. 2.6. Zielsetzung der Arbeit; 2.6.1 Hypothesen) wurde von Seiten der Autorin im Frühjahr 2013 das mba des Kantons Zürich kontaktiert. Der Beweggrund hierfür war Unterstützung von offizieller Seite einzuholen, um die Seriosität des Projektvorhabens zu unterstreichen und möglichst viele Schulen für eine Beteiligung an diesem zu gewinnen. Dies erschien insofern notwendig, da sich in den oben erwähnten informellen Vorgesprächen mit Schulleitern in Bezug auf das Studiendesign herausstellte, dass viele der Meinung sind, von Studienanfragen vor allem im Rahmen von Bachelor- und Masterarbeiten regelrecht „überschwemmt“ zu werden und daher generell bereits eher eine ablehnende Haltung hierzu entwickelt haben. Viele äusserten auch den Wunsch nach einer Gegenleistung für die Teilnahme, womit sie die Lehrpersonen ihrer Schule zu dieser bewegen bzw. motivieren könnten.

Anschliessend an diese erste Kontaktaufnahme zum mba wurde das Dissertationsvorhaben dem stellvertretenden Amtschef sowie dem Beauftragten für die Berufsfachschulen des Kantons in einem gut einstündigen Gespräch vorgestellt. Das mba unterstütze und befürwortete dieses Forschungsvorhaben, indem die Autorin hinterher dazu eingeladen wurde, dieses Dissertationsprojekt am 26. Juni 2013 auf der 86. Konferenz der Rektorinnen und Rektoren der Berufsfachschulen im Kanton Zürich kurz vorzustellen. Mündlich wurde folgende Stellungnahme vom mba an dieser Konferenz abgegeben: „Das mba ist ebenfalls an den Ergebnissen interessiert und bittet die Schulleitungen, am Projekt teilzunehmen.“ ← 150 | 151 →

Die Präsentation des Dissertationsprojektes an der 86. Konferenz der Rektorinnen und Rektoren der Berufsfachschulen im Kanton Zürich fand gemäss Traktandenliste gut 45 Minuten vor der Mittagspause statt und wurde medial durch „PowerPoint-Folien“ unterstützt. Inhaltlich war die Präsentation wie folgt gegliedert:

Vorstellung der eigen Person

Zusicherung der Anonymität

Offerierung einer schulbezogenen Ergebnisauswertung

Präsentation Dissertationsthema (Einstieg, theoretischer Exkurs LWB/SE, Forschungsfragestellungen)

Methodik (Vorstellung der Erhebungsinstrumente)

Erläuterung der weiteren Vorgehensweise (Zeitplan, erneute Kontaktaufnahme nach den Sommerferien etc.)

Möglichkeit zur Diskussion/ für Rückfragen

Im ganzem dauerte die Projektvorstellung rund 15 Minuten, woran sich noch fünf Minuten Diskussion anschlossen. Alle Konferenzteilnehmer erhielten angrenzend an die Projektpräsentation eine schriftliche Zusammenfassung des Dissertationsvorhabens sowie die Kontaktdaten der Autorin am Lehrstuhl für Berufsbildung der Universität Zürich für etwaige Rückfragen. Darüber hinaus bestand auch die Möglichkeit, Einsicht in den fertig gestellten Fragebogen samt Interviewleitfaden zu nehmen. Um dem oben geäusserten Wunsch zu entsprechen und somit den Nutzen einer Beteiligung für die Schulorganisationen zu erhöhen, wurde diesen eine eigene schulbezogene Ergebnisauswertung offeriert, welche sie als thematische Selbstevaluation beim mba einreichen können (s. Kap. 3.5.1.2 Bestandteile von Qualitätsmanagement) und demgemäss für ihre zukünftige Qualitätsentwicklung benutzen können.

Die Reaktion der Rektoren auf die Projektpräsentation war eher verhalten, was evtl. auch auf den Präsentationszeitpunkt, kurz vor der Mittagspause, und die Ankündigung der erneuten Kontaktaufnahme nach den Sommerferien zurückzuführen ist. Trotzdem war die kritische Haltung der Konferenzteilnehmer in Bezug auf „wieder ein Evaluationsprojekt“, so ein Teilnehmer, deutlich spürbar. Lediglich zwei Rektoren (Schule A, Schule B) sagten spontan zu am Projekt teilnehmen zu wollen.

Im August 2013, nach dem Ende der Sommerferien, wurden alle 28 kantonalen und privaten Berufsfachschulleiter im Kanton Zürich per standardisiertem Anschreiben mitsamt ihrer Schulen noch einmal persönlich ← 151 | 152 → zur Partizipation eingeladen.131 Generell bestand für alle Berufsfachschulen im Kanton Zürich die Möglichkeit, an dieser Studie teilzunehmen. Hieraufhin erfolgten auf Verlangen einiger Schulen bis Mitte September 2013 noch vereinzelt Präsentationstermine des Dissertationsvorhabens an Konventen oder Schulleitungssitzungen, welche in normierter Form dem oben erläuterten Präsentationsablauf folgten.

Alle Schulen, an denen das Projekt präsentiert wurde, entschieden sich hinterher auch zur Teilnahme. Der grosse Vorteil dieser Präsentationstermine war, dass die Lehrpersonen und Schulleitungen kritische Fragen direkt stellen und zusätzlich eine Vorstellung von der Person „hinter“ dem Forschungsvorhaben gewinnen konnten.132 Besonders wohlwollend wurde von den Lehrkräften das Angebot einer schulbezogenen Ergebnisauswertung und die dementsprechende Entlastung in Bezug auf die Erstellung der thematischen Selbstevaluation aufgenommen. Insgesamt erklärten sich anfangs sieben Schulen bereit, an dieser Untersuchung teilzunehmen.

Im weiteren Verlauf der Studie musste jedoch eine Schule, aufgrund mangelnder Unterstützung von Seiten der Schulleitung, was sich in Form einer sehr geringen Rücklaufquote von weniger als 10%133 in der quantitativen Erhebung sowie in der mangelnden Bereitschaft der Herausgabe der Kontaktdaten von den Experten für Schulentwicklung und schulinterne Lehrerweiterbildung äusserte, von dieser anfänglichen Stichprobe ausgeschlossen werden, weshalb nur sechs Schulen in die Auswertung dieser Arbeit miteinbezogen wurden. Um die Anonymität dieser sechs partizipierenden Schulorganisationen zu gewährleisten, werden diese im folgenden in chronologischer Reihenfolge, in welcher diese sich entschlossen an dieser Studie teilzunehmen, mit den Buchstaben von A bis F betitelt (z.B. Schule A, Schule B, Schule C usw.) und in Kapitel 4.4.1 Vorstellung der partizipierenden Schule detaillierter vorgestellt. ← 152 | 153 →

4.3.2 Der Pretest

“If you don’t have the resources to pilot test your questionnaire, don’t do the study.” (Quelle: Sudman & Bradburn, 1983, S. 283)

Unter einem Pretest versteht man laut Kuß (2012) „die Erprobung eines Fragebogens unter Bedingungen, die möglichst weitgehend der Untersuchungssituation entsprechen (S. 117).“ Porst (1998) kritisiert im Rahmen der wenigen existenten Definitionen zum Pretest inklusive der vorangegangenen von Kuß (2012) generell, dass sich diese zumeist nur auf das Erhebungsinstrument, den Fragebogen, konzentrieren, ein Pretest jedoch auch das Studiendesign allgemein (Stichprobenziehung, -realisierung, Auswertung etc.) beinhalten sollte (S. 34). Hintergrund dieser exklusiven Fokussierung auf das Erhebungsinstrument ist, dass dieses erfahrungsgemäss zentrale Fehlerquelle vieler Studien ist und selbst Experten niemals in der Lage sind den perfekten Fragebogen zu verfassen (Porst, 1998, S. 35).

Ein Pretest verfolgt daher das Ziel eventuell auftretende Schwierigkeiten, Unstimmigkeiten und Fehler im Fragebogen und Untersuchungsdesign sowie insbesondere die Fragebogenitems, die nur eine geringer Varianz aufweisen, frühzeitig zu identifizieren, um diese bereits im Vorfeld der Untersuchung auszuräumen und eine realitätsnahe Einschätzungen über die Ausfüll-/Interviewzeit zu erhalten (vgl. Kuß, 2012, S. 117f.). Denn nur Untersuchungen, in welchen die geeignete Testperson fähig ist, Fragen in der vom Forschenden intendierten Art und Weise zu beantworten, bedingen den erfolgreichen Einsatz eines Fragebogens und führen somit zu validen Untersuchungsergebnissen (s. Kurz, Prüfer, & Rexroth, 1999, S. 83f.).

Trotz dieser vorangegangenen Erkenntnis und des unumstrittenen hohen Stellenwerts von Pretests (s. obiges Zitat) bestehen keine gemeingültigen Regelungen über die Handhabung dieser (vgl. Porst, 1998, S. 35; Prüfer & Rexroth, 1996, S. 5). Uneinigkeit herrscht beispielsweise in Bezug auf die notwendige Fallzahl (N=10 bis N=200), die Informiertheit der Testperson134 und den Professionalisierungsgrad des Interviewers. Gleichwohl besteht aufgrund langjähriger Erfahrung von Forschenden und profitorientierter Marktforschungsinstitutionen ein Konsens darüber, wie ein solches Verfahren grundlegend organisiert werden sollte. ← 153 | 154 →

In Anlehnung daran wurden im Rahmen dieser Untersuchung nur „Participating-Pretests“ (s. Porst, 1998, S. 36) durchgeführt, bei welchen die Probanden über die Testsituation informiert waren. Streng genommen können die im vorherigen Kapitel 4.3.1. Organisation erläuterten Expertengespräche sowie -diskussionen über das Untersuchungsdesign inkl. der Forschungsfragestellungen nach Porst (1998) daher auch im weiteren Sinne dem Pretest zugerechnet werden. Für die Pretests im engeren Sinne (s.o.), nämlich die zur Validierung der Erhebungsinstrumente, kamen kognitive oder qualitative Verfahren für den „Fragebogen-Prototyp“ sowie ein Feldpretest, auch als Standard- oder Beobachtungspretest bezeichnet (s. Faulbaum, Prüfe & Rexroth, 2009, S. 98), für den Interviewleitfaden zum Einsatz, welche hier kurz erläutert werden sollen. Der Pretest des Fragebogens fand, wie der quantitative Teil der Hauptuntersuchung (s. Kap. 4.3.3 Die Hauptuntersuchung), vor dem des Interviewleitfadens statt und dauerte insgesamt ca. fünf Wochen von Mitte April bis Ende Mai 2013. Der Interviewleitfaden wurde Anfang Juni 2013 getestet.

Fragebogen

Als Pretest-Form für den Fragebogen kam als Unterform des kognitiven Interviews ein Mix aus „Think-Aloud“-Prestest, „Paraphrasing“-Pretest und „Probing“-Pretest zur Anwendung (s. Faulbaum, Prüfe & Rexroth, 2009, S. 98), welche sich über die zwei Stadien „Ausfüllphase“ und „Diskussionsphase“ erstreckten und zusammen rund 55 Minuten Zeit in Anspruch nahmen. Innerhalb dieser Testphasen wurden in Einzelsitzungen jeweils drei Personen in drei Runden, d.h. insgesamt neun unterschiedliche Testperson, mit drei leicht verifizierten Versionen des Fragebogens konfrontiert. Bei der Auswahl der Probanden wurde darauf geachtet, dass es sich bei diesen um Berufsfachschullehrpersonen aus den Kanton Zürich mit unterschiedlichen Unterrichtsfächern (ABU, Wirtschaft, Fremdsprache, Sport), Lehrerfahrung (von weniger als zwei Jahren bis 20 Jahren) und Anstellungspensen (20–95%) handelt und dass diese an verschiedenen Schulen (insgesamt zweien) tätig waren bzw. sind.

In der „Ausfüllphase“ wurden die Befragten gebeten, den Fragebogen in Gegenwart der Autorin zu beantworten, wobei sie ausdrücklich (wiederholt) dazu aufgefordert wurden „laut“ zu denken. Porst (1998) bezeichnet diese Form des „Think-Aloud“-Prestests auch als „Concurrent-Think-Aloud“-Pretest, da die Testperson während des Ausfüllprozesses „laut“ über ihre Antwort nachdenkt (S. 38; s. auch Kurz, Prüfer & ← 154 | 155 → Rexroth, 1999, S. 88).135 Die Denkprozesse der Probanden wurden hier erst einmal nur notiert und bewusst nicht diskutiert. Wenn Unsicherheit über die inhaltliche Bedeutung eines Items bestand, welche eine Beantwortung nicht zuliess, wurden die Probanden gebeten, dieses Item auszulassen. Diese „Ausfüllphase“ dauerte im Durchschnitt rund 15 Minuten.

Im Anschluss an das Ausfüllen des Fragebogens wurden die Befragten in der zweiten Phase, der „Diskussionsphase“, zunächst gebeten, die als unklar identifizierten Items in eigenen Worten zu paraphrasieren („Paraphrasing“-Pretest). Bei den Items, die eher zögerlich beantwortet wurden, den im Fragebogen enthaltenen (Fach-)begriffen (Schulentwicklung, Lehrerweiterbildung, Schulentwicklungsziele/-konzept, Ziele/Konzept der Lehrerweiterbildung, Funktionsstelle, „klassische Lehrerausbildung“, Q-Team etc.) und den vorgegebenen Antwortkategorien wurde die „Probing“-Methode („Probing“-Pretest) in Form des „Post-Interview-Probing“ (vgl. Porst, 1998, S. 39) eingesetzt. Bei dieser Verfahrensweise wurden anhand von Zusatzfragen („probes“) Rückschlüsse auf das Verständnis der einzelnen Items, Begriffe und Antwortkategorien usw. gewonnen (Faulbaum, Prüfe & Rexroth, 2009, S. 98; Prüfer & Rexroth, 1996, S. 7). Hierbei würde das „Comprehension-Probing“ zur Informationsgenerierung über das Itemverständnis und zu verschiedenen Aspekten der jeweiligen Items verwendet, wogegen mit der Methode des „Category-Selection-Probing“ Informationen zum Verständnis des Skalenwertes gewonnen wurden (Kurz, Prüfer & Rexroth, 1999, S. 88).

Insgesamt wurden (zusätzlich) die folgenden Punkte in dieser „Diskussionsphase“ erörtert (vgl. auch Beywl & Schepp-Winter, 2000, S. 57): ← 155 | 156 →

Tabelle 17: Elemente der „Diskussionsphase“ im Pretest.

Elemente der „Diskussionsphase“ im Pretest
I. Inhaltliches
Gibt es redundante Items?
Sind die Items/Anweisungen verständlich?
Können die Items sinnvoll beantwortet werden?
Gibt es sprachliche/lexikalische Überforderungen oder Brüche?
Sind die verwendeten Begrifflichkeiten (Q-Team etc.) plausibel?
Ist die gesonderte Definition einiger Begrifflichkeiten (z.B. Schulentwicklung) im Einleitungsteil notwendig?
Ist im Aufbau ein „roter Faden“ erkennbar?
Wird der Spannungsbogen im Verlauf des Ausfüllens aufrecht erhalten?
II. Organisatorisches
Wann erscheint es sinnvoll die Erhebung durchzuführen/abzuschliessen?
Wie sollte die Erhebung durchgeführt werden („Paper-Pencil“ vs. „Online“)?

(Quelle: Eigene Darstellung).

Zum Schluss der „Diskussionsphase“ wurde den Probanden die Möglichkeit eingeräumt, eigene Anliegen in Bezug auf den Fragebogen oder die Erhebung zu äussern. Durchschnittlich dauerte diese zweite Phase des Fragebogenpretests ca. 40 Minuten.

Interview

Der Pretest für den Interviewleitfaden erfolgte, wie auch in der Hauptuntersuchung (s. Kap. 4.3.3 Die Hauptuntersuchung), nach dem Pretest des Fragebogens in Form eines Feldpretests. Im Verlauf dieser eher passiven Vorgehensweise wurde mit Mitgliedern der (erweiterten) Schulleitung von zwei Berufsfachschulen aus dem Kanton Zürich die Interviewsituation der Hauptstudie simuliert. Dabei auftretende Schwierigkeiten wurden beobachtet, dokumentiert und im Nachhinein im Interviewleitfaden bereinigt.

Die Akquirierung von Testpersonen auf Schulleitungsebene gestaltete sich sehr schwierig, weshalb dieser Pretest lediglich mit zwei Probanden, d.h. einem Experten für Lehrerweiterbildung und einem für Schulentwicklung, durchgeführt werden konnte. Da von den beiden Befragten bereits im Vorfeld ein recht kleines Interviewzeitfenster einräumt wurde, musste auf ein kognitives Interview im Sinne einer „Diskussionsphase“ (s. Pretest Fragebogen), in welcher die Interviewfragen und Antworten aktiv hinterfragt ← 156 | 157 → wurden, im Anschluss an diesen Standardpretest verzichtet werden. Somit dauerte der Pretest des Interviewleitfadens rund 23 Minuten.

4.3.3 Die Hauptuntersuchung

Anfang Oktober 2013, kurz vor Beginn der Herbstferien, wurden die Fragebögen per E-Mail, auf Wunsch auch in bereits kopierter Form, um den Aufwand/Kosten für die partizipierenden Schulen (n=6) so gering wie möglich zu halten, den jeweiligen Berufsfachschulen zugesandt. Der Entschluss den Fragebögen in „Paper-Pencil-Form“ ausfüllen zu lassen, erfolgte bewusst auf Anraten der Probanden im Pretest (s. Kap. 5.4.2 Der Pretest), da sich diese eine flexiblere Ausfüllweise, d.h. im Lehrer-bzw. Klassenzimmer, wünschten, was ggf. zu einer höheren Rücklaufquote führen könnte.136 So verweist auch Eberhardinger (o.J.) darauf, dass sich bei Paper-Pencil-Befragungen innerhalb von Organisationen im Vergleich zu Online-Umfragen durchweg höhere Rücklaufquoten erzielen lassen (S. 45f.).

Die quantitative Erhebung startete dann offiziell nach den Herbstferien ab dem 21. Oktober 2013. Allerdings kann an dieser Stelle nicht völlig ausgeschlossen werden, dass die Fragebögen an einigen Schulen bereits vor/während der Herbstferien verteilt wurden. Ende November wurde dann ein „Reminder“ an die teilnehmenden Schulen verschickt, welcher per Email von den Schulleitungen an die Lehrkräfte weitergeleitet werden wurde. Da viele Lehrpersonen vor den Weihnachtsferien besonders unter Druck stehen noch letzte Prüfungen durchführen zu müssen, wurde die Abgabefrist auf Anraten der Lehrer im Pretest (s. Kap. 4.3.1 Der Pretest) bis Mitte Januar 2014 verlängert. Die ausgefüllten Fragebögen wurden dann in den Sekretariaten der teilnehmenden Schulen gesammelt und per Post an die Lehrstuhladresse zurückgesendet, auf Wunsch auch persönlich von der Autorin an den Schulinstitutionen abgeholt. Einige Schulleiter nutzen den persönlichen Abholtermin, um den Erhebungsverlauf, gelegentlich auch Rückmeldungen der Lehrpersonen sowie eigene Anliegen in Zusammenhang mit dem Projekt (Vorliegen der Ergebnisse etc.) direkt mit der Autorin zu besprechen. Rund 20 Fragebögen wurden von Lehrpersonen auch eigenständig an die Lehrstuhladresse zurückgesendet. ← 157 | 158 →

Die qualitative Erhebung startete ab Mitte Januar 2014 und endete Ende März 2014. Der Kontakt und somit auch die Auswahl der interviewten Lehrkräfte wurde von den Schulleitern hergestellt bzw. gesteuert, welche lediglich die Information erhielten, dass das Interview mit den schuleigenen Experten für Schulentwicklung und schulinterne Lehrerweiterbildung durchgeführt werden sollte. Inwieweit allerdings diesem Anliegen entsprochen wurde, d.h. ob auch wirklich immer die geeignetsten Personen ausgewählt wurden, ist von Seiten der Autorin nicht nachprüfbar. Allen Interviewpartnern wurde Anonymität zugesichert, weshalb diese im weiteren Verlauf dieser Arbeit mit Pseudonymen kodiert wurden (s. Kap. 4.4 Beschreibung der Stichprobe). Die Interviews fanden auf zeitlichen Wunsch der Interviewpartner in sogenannten „Hohlstunden“ oder „Freistunden“ statt, also zu Zeiten, in welchen die Lehrkräfte im Schulhaus anwesend sein mussten, jedoch selber keiner Unterrichtsverpflichtung nachgingen. Vorteilhaft an dieser Situation war, dass sich der Mehraufwand des Interviews für die Lehrpersonen in Grenzen hielt. Nachteilig war aber sicherlich, dass die Interviewsituation in den Schulorganisationen selber die Interviewpartner beeinflusst haben könnte (vgl. Fantapié Altobelli, 2011, S. 36). Die Interviewdauer variierte zwischen 15 und 38 Minuten (s. Kap. 4.4 Beschreibung der Stichprobe).

Die Dateneingabe der Fragebögen erfolgt mit Hilfe des Statistikpaketes SPSS Version 21.0 für MAC OS X im April/Mai diesen Jahres (2014), die Interviews wurden ebenfalls zum gleichen Zeitpunkt in die Software für qualitative Datenanalyse MAXQDA Version 11 für MAC OS X von der Autorin eingetippt und stichprobenartig kontrolliert. Die anschliessende Datenauswertung erfolgte mit beiden Programmen im Juni/Juli 2014.

4.4 Beschreibung der Stichprobe

Quantitative Befragung

Insgesamt wurden 243 ausgefüllte Fragebögen retourniert. Allerdings wurden zwei Fragebögen aufgrund offensichtlicher mangelnder Sorgfalt beim Ausfüllen, hier wurden mehr als 30% der Items nicht beantwortet, aussortiert. Die Grundgesamtheit dieser Untersuchung beläuft sich daher auf ← 158 | 159 → 241 Personen (N=241), was einer Rücklaufquote von 49,82% entspricht. Wenn man sich die Rücklauquoten anderer Untersuchungen anschaut, in welchen Lehrpersonen befragten wurden, dann kann eine Rücklaufquote ab ca. 30% als zufriedenstellend erachtet werden.137

Tabelle 18: Rücklauf nach Schulen.

Illustration

(Quelle: Eigene Darstellung).

Den Rücklauf nach Schulen geordnet, zeigt die obige Tabelle 18. Demnach retourniete Schule A 38,0%, Schule B 57,0%, Schule C 42,9%, Schulen D 50,0%, Schule E 50,0% und Schule F 61,0% der ausgeteilten Bögen.138 Von dieser Grundgesamtheit (N=241) unterrichten 26,3% bzw. 64 der Befragten an Schule A, 19,3% bzw. 47 Personen an Schule B, 12,3%, was 30 Personen entspricht, an Schule C, 16,5% (40 Lehrer) an Schule D, 11,1% (27 Lehrer) an Schule E und die restlichen 35 Lehrpersonen (14,4%) an Schule F. Insgesamt waren 57,3% bzw. 138 Teilnehmer weiblich und 42,7% bzw. 103 Probanden männlich. ← 159 | 160 →

Von allen befragten Lehrkräften gaben rund zwei Drittel, also 163 Personen (67,6%) an, ihre Lehrerausbildung zum Befragungszeitpunkt bereits abgeschlossen zu haben, wogegen 31,5% (76 Personen) gegenwärtig noch keine voll ausgebildeten Lehrpersonen sind. Zwei Personen (0,8%) machten hierzu keinerlei Angaben. Die Mehrheit der Grundgesamtheit, 55,6%, also 134 Personen, hat den Zugang zum Lehrberuf durch Quereinstieg gefunden. 26,1%, 63 Personen, haben als Erstausbildung die Lehrerausbildung absolviert und 17,0% der Lehrer (41 Probanden) einen sonstigen Zugang zum Lehrberuf gehabt. Drei Zwei Person (1,2%) liess dieses Item unbeantwortet.

Die Fächeraufteilung innerhalb dieser Stichprobe war wie folgt: 41 Lehrer (17,0%) – Allgemeinbildender Unterricht, 7 Lehrer (2,9%) – Fremdsprachen, 5 Personen (2,1%) – Mathe und Naturwissenschaften, 3 Lehrkräfte (1,2%) Wirtschaft, 115 Personen (58,7%) – Berufskunde und 25 Lehrer (10,4%) gaben an Sonstiges zu unterrichten. 45 Lehrpersonen, was 18,7% entspricht, beantworteten dieses Item nicht.

Durchschnittlich kreuzten die Probanden an rund 13 Jahre als Lehrperson tätig zu sein (M=13.0345, SD=9.61189). Die kürzeste angegebene Beschäftigungsdauer war ein Jahr, während sich die höchste auf 40 Jahre belief. Im Durchschnitt sind die Teilnehmenden Lehrkräfte rund neun Jahre an ihrer derzeitigen Schule tätig (M=8.8996, SD=7.09172), wobei die kürzeste Schulzugehörigkeit sich unter ein Jahr belief und die längste bei 32 Jahren lag. Hinsichtlich des Anstellungspensums ergab sich das folgende Bild: Durchschnittlich gaben die Probanden an rund 60% angestellt zu sein (M=60.8114, SD=27.3901), wobei rund 25% der Lehrkräfte weniger als 40% angestellt sind, weitere 25% gaben an zwischen 40% und 57% angestellt zu sein, weshalb sich das Unterrichtspensum bei rund die Hälfte der teilnehmenden Lehrer auf mehr als 50% beläuft.

Rund 77 Personen (32,0%) hatten zum Erhebungszeitpunkt den Status eines Lehrbeauftragten, 90 Teilnehmende (37,3%) waren Lehrpersonen obA und 69 Teilnehmende (28,6%) Lehrpersonen mbA, wobei fünf Personen (2,1%) hierzu keine Angaben machten. In Bezug auf die Funktionsstelle gaben 11 Personen (4,6%) an Mitglieder der erweiterten Schulleitung zu sein, 10 Personen (4,2%) Mitglieder des Teams Schulentwicklung, 12 Probanden (5,0%) Mitglieder des Teams der schulinternen Lehrerweiterbildung, 76 Probanden (31,5%) bekleiden eine sonstige Funktionsstelle und die Mehrheit der Probanden gab mit 51,0% (123 Personen) an keinerlei Funktionsstelle innezuhaben. Neun Personen (3,73%) machten hierzu keinerlei Angaben. ← 160 | 161 →

Qualitative Befragung

Wie auch in Kapitel 4.1 Anlage der Untersuchung bereits erläutert, wurde ursprünglich ein Interview mit dem jeweiligen Experten für Schulentwicklung sowie ein Interview mit der zuständigen Person für schulinterne Lehrerweiterbildung an jeder teilnehmenden Schulinstitution geplant, woraus sich insgesamt je zwei Interviews pro Schule, also insgesamt 12 Interviewtermine, ergeben sollten. Die Vereinbarung der Interviewtermine gestaltete sich teilweise allerdings recht mühevoll. An Schule D verweigerte der zuständige Experte für den Bereich Lehrerweiterbildung die Mitarbeit. Dies offenbarte sich darin, dass zwei ausgemachte Interviewtermine von diesem nicht eingehalten wurden. Da auf Nachfragen der Autorin nicht reagiert wurde, ist der Grund für dieses Verhalten bis heute unbekannt. Problematisch gestaltete sich in dieser Hinsicht auch der Kontakt zu Schule F, da trotz mehrmaliger Anfrage der Autorin und anfänglicher Zusage durch die Schulleitung keine Kontaktherstellung zu den schuleigenen Experten erfolgte, wird diese Schule folglich nur in die quantitative Befragung miteinbezogen werden.

Die Stichprobe der interviewten Personen besteht somit aus neun Spezialisten, wovon vier Experten für Schulentwicklung und fünf Experten für schulinterne Lehrerweiterbildung sind. Vier Experten (44,40%) sind weiblich, fünf (55,56%) männlich. Der Altersdurchschnitt der Experten der Schulentwicklung liegt mit 52,25 Jahren etwas höher als jener, der Spezialisten für Lehrerweiterbildung (48,40 Jahre). Der Altersgesamtdurchschnitt beträgt 50,11 Jahre. Die ausgewählten Experten sind im Durchschnitt mit einem Pensum von rund 73,89% angestellt, wobei der Anstellungsgrad der Spezialisten für Schulentwicklung mit durchschnittlich 63,75% gegenüber denen der Lehrerweiterbildung mit 82,00% deutlich niedriger ist. Die Lehrpersonen aus dem Bereich Schulentwicklung verfügen mit durchschnittlich 17,33 Jahren nur über wenig mehr Lehrerfahrung als die der schulinternen Weiterbildung (15,75 Jahre). Die Dauer der Lehrtätigkeit entspricht im Durchschnitt absolut 16,42 Jahren. Eine Ausnahme hiervon bilden die interviewten Personen von Schule C, da es sich bei diesen nicht um Lehrpersonen, sondern um kaufmännische Angestellte aus dem Bereich Personalentwicklung handelt, welche insofern keine Lehrtätigkeit aufweisen können. Anzumerken ist auch, dass der Experte für Lehrerweiterbildung von Schule A der Schulleiter persönlich ist, welcher mit einem Pensum von 100% angestellt ist, wovon die eigentliche Unterrichtstätigkeit 40% umfasst. Da aber anzunehmen ist, dass es bei der ← 161 | 162 → Mehrheit der Lehrpersonen i.d.R. keinen Unterschied zwischen Anstellungs- und Unterrichtspensum gibt, wird im weiteren Verlauf der Arbeit hier keine Unterscheidung vorgenommen.139

In komprimierter Form können diese Ergebnisse nach Schulen geordnet auch Tabelle 19 entnommen werden.

Tabelle 19: Übersicht Demographie Interviewpartner.

Illustration

(Quelle: Eigene Darstellung).

Im Durchschnitt dauerten die geführten Interviews mit den Experten für Schulentwicklung mit 23,25 Minuten rund fünf Minuten länger als die Interviews mit den Experten für Lehrerweiterbildung (18,23 Minuten). Insgesamt ergab sich eine durchschnittliche Interviewdauer von 20,46 Minuten. Um auch hier die Persönlichkeitsrechte der Probanden zu wahren, werden die Personen im Folgenden mit den Abkürzungen wie beispielsweise für den Experten der Schulentwicklung von Schule A (Experte SE ← 162 | 163 → Schule A) und den Spezialisten für schulinterne Lehrerweiterbildung von Schule A (Experte Schilw Schule A) versehen.

4.4.1 Vorstellung der partizipierenden Schulen

Diese Untersuchung bezieht sich nur auf den Bereich Berufsfachschule der sechs partizipierenden Schulorganisationen und nicht auf die Abteilung Weiterbildung, welche seit der Kantonalisierung140 im Jahre 1986 an alle kantonalen Berufsfachschulen angegliedert wurde. Ausschlaggebend für diese Eingrenzung ist, dass die in dieser Arbeit vorgestellten rechtlichen Rahmenbedingungen (s. Kap. 1.1 Problemstellung – Schulentwicklung durch (schulinterne) Lehrerweiterbildung?; 1.5 Zur rechtlichen Begründung der Lehrerweiterbildung im Kanton Zürich; 3.5.1.2 Bestandteile von Qualitätsmanagement; 3.5.2 Das Schulprogramm als Instrument der Schulentwicklung) sich ebenfalls nur auf die Berufsfachschule und nicht auf die Sektion Weiterbildung beziehen und somit beispielsweise die schulinterne Lehrerweiterbildung auch nur für Lehrpersonen der Berufsfachschule verpflichtend ist (s. Kap. 1.4 Begriffliche Abgrenzungen; Art. 21, Abs. 4 BBG).141

Fünf der sechs teilnehmenden Schulen (Schulen A bis D, Schule F) befinden sich gemäss der Definition des Schweizer Bundesamtes für Statistik142 in der Stadt, nur Schule E ist demnach im ländlichen Raum verortet. Ferner untersteht die Mehrheit der involvierten Schulen kantonaler und somit öffentlicher Trägerschaft, lediglich Schule C weist hier die Besonderheit auf von einer privaten Stiftung finanziert zu werden.

Die Schulgrösse dieser Berufsfachschulen variiert deutlich, was sich auch an den folgenden Angaben zeigt. So gibt es an Schule E fünf verschiedene Abteilungen, gefolgt von Schule D mit vier Abteilungen, an Schule C ← 163 | 164 → drei Abteilungen und an den restlichen Schulen jeweils eine Abteilung. Nach der Anzahl der Abteilungen unterscheiden sich auch die Mitglieder der erweiterten Schulleitung, welche neben dem Rektor und dem Prorektor auch die Abteilungsleiter einschliessen. An Schule E gehören sieben Mitglieder der erweiterten Schulleitung an, an Schule A sechs Mitglieder, an Schule D fünf Personen und an den übrigen Schulen jeweils zwei bis drei Personen. Zum Erhebungszeitpunkt waren laut Angaben der jeweiligen Ansprechpersonen (Experten, Schulleiter etc.) an Schule E die meisten Lehrpersonen (250) beschäftigt, gefolgt von Schule A mit 168 Lehrern und den Schulen B und D mit je 83 bzw. 80 Lehrkräften, Schule C beschäftigte 70 und Schule F 57 Lehrkräfte.

Weitere Informationen in Bezug auf die schulinterne Lehrerweiterbildung und die Schulentwicklung an diesen Schulen, wie z.B. die Anzahl der Mitglieder der verschiedenen Teams der schulinternen Lehrerweiterbildung und Schulentwicklung sowie die Themen der letzten drei internen Weiterbildungen und thematischen Selbstevaluationen, können nachstehend Tabelle 20 entnommen werden. ← 164 | 165 →

Tabelle 20: Vorstellung partizipierende Schulen.

Illustration
Illustration

(Quelle: Eigene Darstellung).


106 Für weitere Arten von „Mixed-Method-Designs“ s. Foscht, Angerer und Swoboda, S. 247ff.

107 Gegenteilig wäre nach Denzin (1989) die „within-method-Triangulation“, in welcher lediglich eine Erhebungsmethode (z.B. ein Fragebogen mit unterschiedlicher Skalierung) verwendet werden würde (S. 243f.). Beim Einsatz dieser Triangulation könnte die Reliabilität des benutzen Forschungsinstruments gesteigert werden.

108 Zum Querschnittsdesign siehe auch Raithel, 2006, S. 48; Reinecke, 2005, S. 19.

109 Anmerkung SF: Zur erweitern Schulleitung gehören neben dem Schulleiter samt Stellvertreter auch noch die jeweiligen Abteilungsleiter sowie der Konventspräsident.

110 Zur Definition von Faktenwissen bzw. deklarativem Wissen siehe Mandel et al., 1993, S. 146.

111 S. hierzu Krauss, 2011, S. 178ff.

112 Anmerkung SF: Zur Erhöhung der Lesbarkeit werden in dieser Arbeit die Begriffe Fragebogen und „Fragebogen-Methode“ synonym verwendet.

113 „Die Ordinalskala erlaubt die Aufstellung einer Rangordnung […]“ (Backhaus et al., 2011, S. 11). Es können allerdings keine Aussagen über die Abstände zwischen den Rangwerten gemacht werden.

114 Bei einer Intervallskalierung sind die Skalenabschnitte gleich gross (s. Backhaus et al. 2011, S. 11).

115 Nach Jankisz & Moosbrugger (2008) werden Antwortformate als „Forced Choice“ bezeichnet, bei denen sich die Probanden für eine Antwortalternative entscheiden müssen, auch wenn keine der Optionen vollständig zutreffend ist (S. 49; vgl. auch Mummendey, 1999, S. 57f.).

116 Vgl. Kaya, 2007, S. 54f.

117 Anmerkung SF: Hierfür wurden die Items nach Themengebieten getrennt und vermischt „gepretestet.“

118 Anmerkung SF: Hiermit ist ein Set von Aussagen gemeint.

119 Anmerkung SF: Hiermit sind Doktorandin und Doktorvater gemeint.

120 Dies erscheint besonders wichtig, da die demographischen Merkmale zu Beginn des Fragebogens platziert wurden, was irritierend wirken können, da dies evtl. im Gegensatz zu der zugesicherten Anonymität im Instruktionsteil steht (s. Aschemann-Pilsberger, 2001, S. 18).

121 Anmerkung SF: Meiner Erfahrung nach tendieren Lehrpersonen oft dazu die demographischen Angaben am Ende der Befragung einfach wegzulassen.

122 Vgl. Hüttner, 1997, S. 237ff.

123 Zu Arten von Fragen s. Reinders, 2011, S. 58ff.

124 Gemeint ist das Postulat nach Offenheit qualitativer Forschung (vgl. Gläser & Laudel, 2006, S. 111).

125 Zum impliziten Wissen s. auch Schreyögg und Geiger, 2004, S. 47ff.

126 Aufgrund des individuellen Konstruktes von Meinungen und Einstellungen ist hier nach Gläser und Laudel (2006) das Problem der sozialen Erwünschtheit gegenüber den anderen Fragearten deutlich grösser (S. 119).

127 Das Prinzip der informierten Einwilligung („informed consent“) stammt ursprünglich aus der Medizin und bezeichnet in Bezug auf eine medizinische Behandlung die Einwilligung nach erfolgter Aufklärung. In der sozialwissenschaftlichen Forschung gilt es als Grundvoraussetzung für die Teilnahme von Probanden an Forschungsprojekten (vgl. Gläser & Laudel, 2006, S. 53).

128 Anmerkung SF: Die Gespräche mit den entsprechenden Experten aus NRW ergaben sich zufällig, da hier aufgrund von privaten Beziehungen die notwendigen Kontakte schnell hergestellt werden konnten.

129 Anmerkung SF: Die Gruppengrösse mit jeweils zwei bis drei Teilnehmern war im Vorfeld nicht immer in dieser Art und Weise geplant. Von der Autorin wurden diese Gespräche mit max. drei bis vier Teilnehmern geplant. Aufgrund weiterer beruflicher Verpflichtungen war es allerdings oftmals nicht allen eingeladenen Personen möglich daran teilzunehmen.

130 Anmerkung SF: Zusätzlichen Input in Bezug auf das Untersuchungsdesign lieferten auch zwei Präsentationen dieses Dissertationsvorhabens im Doktorandenkolloquium der Universität Zürich im Frühjahrsemester 2012 und Herbstsemester 2013.

131 Eine Auflistung aller Berufsfachschulen im Kanton Zürich findet sich unter dem in Kapitel 1.4 Begriffliche Abgrenzungen angegebenen Link.

132 Anmerkung SF: Auch die in Kap. 2. AKTUELLER FORSCHUNGSSTAND – LEHRERWEITERBILDUNG UND SCHULENTWICKLUNG IN DER SCHWEIZ präsentierten Studien empfehlen z.T., dass es vorteilhaft ist, einen engen Kontakt zu den partizipierenden Schulorganisationen (Schulleitungen, Lehrpersonen) zu pflegen, da diese nur so motiviert werden können, an diesen teilzunehmen. Dieses Einschätzung deckt sich auch mit den Erfahrungen der Autorin in diversen Evaluationsprojekten an Berufsfachschulen.

133 Gemäss der Kriterien von PISA 2006 (s. Breit & Schreiner, 2007, S. 79).

134 Porst (1998) unterscheidet beispielsweise zwischen dem „Participating-Pretest“ und dem „Undeclared-Pretest“ (S. 36).

135 Das Gegenteil wäre nach Porst (1998) der „Retrospectice-Think-Aloud“-Pretest, da hier der Proband im Anschluss an das Ausfüllen „laut“ darüber nachdenkt, warum er gerade diese Antwort gegeben hat (S. 38).

136 Anmerkung SF: Dieser Wunsch deckt sich auch mit den Erfahrungen, welche die Autorin im Rahmen diverser Schulevaluationen machte.

137 S. zum Vergleich folgende Studien mit den entsprechenden Rücklaufquoten: Haari (2000) – 70%, Haenisch (1992) – 23,6%, Ipfling, Peez und Gamsjäger (1995) – 6,29%, Landert (1999) – 29,2%, Pätzold (1988) – 47%, Randoll (1995) – 18%, Wolf, Göbel-Lehnert und Chroust (1997) – 39,9%.

138 Anmerkung SF: Aufgrund dessen, dass die Rücklaufquoten zwischen den Schulen stark differieren, muss hier davon ausgegangen werden, dass eher motivierte Lehrpersonen den Fragebogen ausgefüllt haben (s. auch Kapitel 7.2 Kritische Würdigung der Untersuchung).

139 Anmerkung SF: Eine Unterscheidung ergibt sich immer dann, wenn die betroffene Lehrperson gleichzeitig Inhaber einer Funktionsstelle ist.

140 Aufgrund der Neuordnung Aufgabenverteilung zwischen Kanton und Gemeinden (s. BBG) Ende der 70iger Jahre, veränderte sich Finanzierung der kantonalen Berufsfachschulen. Seither hat der Kanton die Trägerschaft für die gewerblich-industriellen Berufsfachschulen übernommen, wogegen die kaufmännischen Berufsfachschulen und die Werk-/Betriebsschulen unter privater Trägerschaft stehen können, sofern der Träger eine angemessene finanzielle Eigenleistung erbringt (s.o.V., 1981, NZZ).

141 In der Abteilung Weiterbildung werden vielfach auch Kurse von nicht ausgebildeten Lehrpersonen offeriert.

142 Gemäss des Bundesamtes für Statistik gelten Gemeinden mit mehr als 10’000 Einwohnern in der Schweiz als Stadt (s. Bundesamt für Statistik, 2000, S. 1).

143 Anmerkung SF: Gemeint sind lediglich die Abteilungen der Berufsfachschule inkl. Berufsmaturität, aber ohne Abteilungen aus dem Segment Weiterbildung, also Höhere Berufsbildung etc. und Supportabteilungen, wie beispielsweise IT, Administration oder „Facility Management“ usw.

144 Die erweitere Schulleitung wird hier ohne den Konventspräsident aufgeführt.

145 Anmerkung SF: Insgesamt sind zum Zeitpunkt der Untersuchung 250 Lehrkräfte an dieser Berufsfachschule tätig. Allerdings wurden aufgrund der vielen Schulstandorte nur 50 Fragebögen von der Schulleitung ausgeteilt (s. Kap. 4.4 Beschreibung der Stichprobe).

146 Dargestellt werden hier nur originäre TSEs, d.h. ohne Nachevaluationen der Hauptthematiken.