Show Less
Open access

Fremdsprachenforschung als interdisziplinäres Projekt

Series:

Edited By Eva Wilden and Henning Rossa

Dieses Buch widmet sich der Interdisziplinarität, die für die Zugänge, Formate und Methoden fremdsprachendidaktischer Forschung charakteristisch ist. Qualitative und quantitative Forschungsansätze bzw. Mixed-Methods-Designs werden anhand aktueller Studien dargestellt. Ein besonderer Fokus gilt den interdisziplinären Bezügen der jeweiligen Studien. Die forschungspraktischen Beispiele stellen laufende bzw. kurz vor Abschluss stehendende Studien der empirischen Fremdsprachenforschung vor. So bieten die Beiträge einen aktuellen Überblick über fremdsprachendidaktische Forschungspraxis und enthalten vielfältige Anregungen für die forschungsmethodischen Optionen und ethischen Fragen, die es bei neu zu konzipierenden Studien im interdisziplinären Feld der Fremdsprachenforschung abzuwägen gilt.

Show Summary Details
Open access

Quantifizierung empirischer Daten (Susanne Gnädig / Madeleine Domenech)

Susanne Gnädig / Madeleine Domenech

Quantifizierung empirischer Daten

Abstract: After discussing several definitions and distinctions of qualitative vs. quantitative research, this paper illustrates the potentials and limits of software-based quantifications of empirical data in qualitative research on second language teaching and learning.

L2 research, qualitative research, quantitative research, quantifying qualitative data, data analysis

1. Quali-Quanti-Mixed-Methods: Terminologische Annäherung an prominente Begriffe

In den letzten Jahrzenten hat die Empirisierung der bildungswissenschaftlichen und damit auch der fremdsprachendidaktischen Forschung weiter an Bedeutung gewonnen – davon zeugen allein die in den vergangenen Jahren im deutschsprachigen Raum zahlreich erschienenen Handbücher zu Forschungsmethoden in der Fremdsprachendidaktik (z. B. Caspari et al. 2016, Doff 2012, Settinieri et al. 2014). Als Forschende*r wird man nicht selten dazu aufgefordert, sich bezüglich der Zugehörigkeit zu einer Forschungstradition zu bekennen – quali-, quanti- oder mixed-method? –, so als wäre eine abschließende Beantwortung dieser Frage selbstverständlich möglich. Für den Kontext des vorliegenden Beitrags werden daher vorerst zentrale Schlagworte und Begriffe der Methodendiskussion geklärt, um verdeutlichen zu können, wie sich die Quantifizierung empirischer Daten in dieser Debatte verortet.

In ihrem Beitrag Thinking Outside the Q Boxes: Further Motivating a Mixed Research Perspective setzt sich Pearce (2015) wiederholt mit den gemeinhin als hinreichend voneinander abgegrenzt geglaubten Forschungslogiken der empirischen Sozial- und Verhaltensforschung auseinander: der qualitativen, der quantitativen und der Mixed-Methods-Forschung. Auch wenn das über Jahrzehnte hinweg gepflegte „Methoden-Schisma“ (Schnapp et al. 2006: 11) die forschungsmethodologische und -methodische Debatte nicht länger beherrscht, so ist doch zu konstatieren, dass die beiden „Lager“ des qualitativen und quantitativen Forschungszugangs noch immer deutlich voneinander abgegrenzt oder im Forschungsparadigma der Mixed-Methods-Forschung augenscheinlich zusammengeführt werden (Johnson et al. 2007, Kuckartz 2014).←189 | 190→ Während streng quantitative Forschung als wertneutral, deduktiv und generalisierbar charakterisiert wird, definiert sich qualitative Forschung als interpretativ, induktiv und kontextspezifisch. Mixed-Methods-Forschung wiederum wird als eine Kombination qualitativer und quantitativer Forschungsmethoden verstanden, wobei dies mit dem Ziel erfolgt, die beiden Forschungslogiken vor dem Hintergrund einer Forschungsfrage so zueinander in Beziehung zu setzen, dass der Untersuchungsgegenstand in all seinen Facetten ergründet werden kann. So „[wird] der Forschungsfrage und dem praktischen Interesse der Vorrang vor methodischem Purismus und der Verankerung der methodischen Vorgehensweise in wissenschaftstheoretischen Basispositionen eingeräumt“ (Kuckartz 2014: 54 f.).

Dies geht einher mit einem weiteren Trend fremdsprachendidaktischer Forschung: der zunehmenden Interdisziplinarität empirischer Untersuchungen bzw. Projekte. In vielen Fällen werden die beschriebenen Forschungslogiken (quanti – quali – mixed-method) als „quer“ zu den jeweiligen Disziplinen liegendes Unterscheidungskriterium genutzt. Dabei ist (leider) eine Tendenz zu prototypischen Kombinationen zu beobachten (die quantitative Psychologie/Bildungswissenschaft vs. die qualitative Linguistik/Fremdsprachendidaktik), womit man der Komplexität der realiter existierenden Forschungszugänge innerhalb eines Fachbereichs oft nicht gerecht wird.

Die methodologische Debatte zeugt noch immer zu oft von einer klaren Trennung der Forschungsparadigmen. Als Grund hierfür wird ein forschungslogisch konsistenter Umgang mit den zu erhebenden, gewonnenen und auszuwertenden Daten angeführt. Es wird angenommen, dass sich qualitative Forschung exklusiv mit Worten, quantitative Forschung hingegen mit Zahlen auseinandersetzt, um Erkenntnisse zu gewinnen (Riemer 2006: 457, Sandelowski 2001: 230). Eine Unterscheidung der Forschungsparadigmen entlang der Datenformen – numerisch vs. verbal – scheint jedoch vor dem Hintergrund, dass jeder Untersuchungsgegenstand das Ergebnis einer Interpretation seiner Bedingungsfaktoren ist, nicht zielführend. Denn unsere Wirklichkeit und damit auch jeder in ihr modellierte Gegenstand ist sowohl durch qualitative als auch durch quantitative Merkmale geprägt. Anguera/Izquierdo (2006: 213) führen hierfür den Begriff des integration premise ein: „quality and quantity lose their meaning unless viewed in the light of one another“. Folglich sind im Rahmen quantitativer Forschung verwendete numerische Daten bereits das Ergebnis eines Interpretationsprozesses, also der qualitativen Auseinandersetzung mit der zu untersuchenden Realität (Bazeley 2016: 190, Kempf 2010: 1). Umgekehrt referieren qualitative Studien auf quantitative Merkmale verbaler Daten, wenn←190 | 191→ beispielsweise auf Häufigkeiten von Codes oder Themen verwiesen wird (Fakis et al. 2014: 140). So deutlich, wie oft zu lesen, grenzen sich die Forschungslogiken hinsichtlich der in ihnen verwendeten Datenformen also nicht ab. Vielmehr ist eine gewisse Abhängigkeit bzw. Melange beider Ansätze in Bezug auf die Daten in der Forschungsrealität zu konstatieren, weswegen in diesem Beitrag auch von „empirischen Daten“ die Rede ist.

Wenn also der Rückgriff auf verbale und numerische Daten allein eine Unterscheidung von qualitativer und quantitativer Forschung nicht hinreichend ermöglicht, braucht es einen anderen Zugang. Mohr (1982) sucht diesen in den unterschiedlichen Logiken beider Richtungen und entwickelt auf dieser Grundlage die Varianz- und Prozesstheorie. Demzufolge liegt der entscheidende Unterschied in der Art und Weise, wie Forscher*innen ihren Untersuchungsgegenstand konzeptualisieren: „This is the distinction between thinking of the world in terms of variables and correlations and in terms of events and processes“ (Maxwell 2010: 477). In der Varianztheorie werden Bedingungen oder Gruppen miteinander verglichen. Hier nimmt ein mutmaßlich kausaler Faktor unterschiedliche Werte an, während andere Faktoren konstant gehalten oder statistisch kontrolliert werden. Fragen des „Ob?“ und „In welchem Ausmaß?“ stehen im Fokus dieser Analysen (ebd.). In der Prozesstheorie hingegen gilt es, die ein Ereignis determinierenden Prozesse und Strukturen zu beschreiben. Damit beruht das Vorgehen vielmehr auf einer lokalen Analyse bestimmter Personen, Ereignisse oder Einstellungen und wie diese miteinander verzahnt sind als auf allgemeinen Schlussfolgerungen. Fragen des „Wie?“ und „Warum?“ stehen im Fokus solcher Analysen (ebd.).

Es lässt sich also festhalten, dass die häufig in der Literatur bemühte Abgrenzung qualitativer und quantitativer Forschung entlang von Datenformen unterstellt, dass zwei grundsätzlich verschiedene und in jeder Forschungslogik „eigene“ Arten von Daten existieren, nämlich Zahlen vs. Worte. Letztlich ist der entscheidende Unterschied aber vielmehr, wie der jeweilige Untersuchungsgegenstand vor dem Hintergrund des Erkenntnisinteresses konzeptualisiert wird: Also ob generalisierbare Aussagen über ein klar abgegrenztes und weitgehend kontrolliertes Phänomen getroffen werden sollen (Varianztheorie) oder ob vertiefende und ausführliche Beschreibungen eines komplex gefassten Phänomens erfolgen (Prozesstheorie). Zahlen und Worte sind dabei als empirische Datengrundlage beiden Theorien immanent. Es gilt, diese vor dem Hintergrund des konkreten Erkenntnisinteresses zu modellieren und auszuwerten.←191 | 192→

Damit ist die Quantifizierung empirischer Daten als Verfahren der Datenauswertung folglich auch nicht per se einem der Forschungsparadigmen (qualitativ, quantitativ, mixed-method) zuzuordnen. In der forschungsmethodologischen Diskussion wird das Vorgehen aber oft unter dem Dach der Mixed-Methods-Forschung, im Rahmen sogenannter Transferdesigns (Kuckartz 2014) bzw. Transformationsdesigns (Vogl 2017) besprochen, in denen sowohl qualitative als auch quantitative Auswertungsstrategien unter Verwendung der gleichen Daten ausgeführt werden. So wird auch für die Definition des Mixed-Method-Paradigmas wieder einmal das typische Kriterium der Datenform bemüht, nämlich die Kombination von Zahlen und Worten. Kennzeichnend für die Quantifizierung empirischer bzw. sogenannter qualitativer Daten in der Mixed-Methods Forschung sei, „dass qualitative Daten mit quantifizierenden Techniken in numerische Daten transformiert werden“ (Vogl 2017: 291). Dies erfolgt meist mit dem Ziel weitergehender statistischer Analysen, insofern Kodierungen oder sprachliche Informationen in Variablen übersetzt werden, die dann unter Hinzuziehung weiterer quantitativer Variablen beispielsweise Varianz- oder Regressionsanalysen erlauben (Kuckartz 2017: 173). Im Kontext der Varianz- und Prozesstheorie bedeutet ein solches Vorgehen ein Verschieben des Erkenntnisinteresses (Prozesstheorie Varianztheorie), wenn es nicht schon immer varianztheoretisch orientiert war.

Die Quantifizierung empirischer Daten kann aber auch andere Zielstellungen verfolgen, ohne dabei die ursprüngliche Forschungslogik zu verlassen. So ermöglicht das Sichtbarmachen von einfachen Häufigkeiten, sogenannte simple counts (Maxwell 2010: 478), Regelmäßigkeiten (Muster) oder Besonderheiten in den Daten zu identifizieren, eine interne Generalisierbarkeit der Ergebnisse oder auch eine gewisse Evidenzbasierung qualitativer Analysen zu schaffen (Maxwell 2010). Es geht also vornehmlich darum, durch Quantifizierung empirischer Daten andere bzw. ergänzende Einblicke und Interpretationszugänge in oft sehr komplexe und vielschichtige Datenkorpora zu erlangen. Insofern diese Quantifizierungen zum Ziel haben als Ausgangspunkt für einen vertieften Einblick in lokale Prozesse und Strukturen zu dienen, verbleibt man auch weiterhin in der bestehenden Forschungslogik, nämlich der Prozesstheorie und damit im qualitativen Paradigma.←192 | 193→

Abbildung 1: Ziele der Quantifizierung empirischer Daten im Rahmen unterschiedlicher Forschungslogiken

image

Zusammenfassend ist festzuhalten, dass die Quantifizierung empirischer Daten unterschiedliche Erkenntnisinteressen bedient und folglich auch in unterschiedlichen Forschungslogiken/-paradigmen zur Anwendung kommen kann (vgl. Abbildung 1). Je nach Zielstellung ergeben sich Implikationen für die methodologische Verortung des Forschungsprojektes. Unter Quantifizierung verstehen wir im folgenden Verfahren, die zum einen durch einfaches Zählen Häufigkeiten im Datenmaterial abbilden (Prozesstheorie) und zum anderen die Transformation von Daten qualitativer Untersuchungen in numerische (Varianztheorie). Die Quantifizierung kann sowohl am aufbereiteten Datenmaterial selbst erfolgen (Worthäufigkeiten) oder am analysierten Datenmaterial (Codehäufigkeiten). Erst in einem zweiten Schritt entscheidet sich, wie mit diesen Informationen umgegangen wird bzw. wie sie in den Auswertungs- und Analyseprozess im Sinne des Erkenntnisinteresses eingebunden werden.

2. Softwarebasierte Formen der Quantifizierung empirischer Daten

Anknüpfend an die bisherigen Ausführungen werden in den folgenden Abschnitten verschiedene Möglichkeiten zur Quantifizierung empirischer Daten vorgestellt. Entsprechend der Unterscheidung der zwei Stränge (Abbildung←193 | 194→ 1) werden sowohl prozesstheoretische (2.1.-2.3.) als auch varianztheoretische (2.4.-2.5) Quantifizierungsformen exemplifiziert. Diese werden jeweils kurz allgemein sowie hinsichtlich ihres besonderen Potentials für den Einsatz innerhalb der jeweiligen Forschungslogiken beschrieben. Außerdem wird auf notwendige Datenkonstellationen für die Durchführung eingegangen. Derart komplexe Analysezugänge lassen sich inzwischen sinnvoller- bzw. notwendigerweise (Baur et al. 2017) durch unterschiedliche Software stützen. Deshalb wird in diesem Beitrag am Beispiel unterschiedlicher Programme zur Qualitativen Datenanalyse (QDA-Programme: MAXQDA, ATLAS.ti) und verschiedener Statistik-Programme (Excel, R, SPSS) gezeigt, wie softwarebasierte Quantifizierungen empirischer Daten erfolgen können. Da es in diesem Rahmen leider nicht möglich ist, die einzelnen Anwendungsschritte jeweils detailliert darzustellen, sei auf die entsprechenden Handbücher bzw. die im Internet zahlreich verfügbaren Tutorials der jeweiligen Software verwiesen.

Als Datenbasis zur Illustration dienen aktuelle Qualifikationsarbeiten aus der (Fremd-)Sprachendidaktik. Die Dissertation von Gnädig (in Vorb.) untersucht das Potential von formfokussierten Aufgaben für die Entwicklung grammatischer Kompetenz im Fremdsprachenunterricht der Sekundarstufe I (9. Klasse, 18 Schüler*innen). Die Analyse von Schüler*inneninteraktionen (Videodaten), Lernprodukten (Texte) und Schüler*inneninterviews (Audiodaten) dient der systematischen Beschreibung von Spracherwerbsprozessen in unterschiedlichen Aufgabensettings. Dabei besteht das Ziel darin, das Zusammenspiel von Aufgaben, Lernmaterialien und mentalen Prozessen der 18 untersuchten Neuntklässler*innen besser zu verstehen, um Sprachlernangebote gezielter einsetzen zu können. Domenech (2019) hat sich in ihrer schreibforschend-soziolinguistisch ausgerichteten Untersuchung dem komplexen Zusammenspiel unterschiedlicher textueller und sozialer Aspekte bei der argumentativen Textproduktion zu Beginn der Sekundarstufe I gewidmet. Mithilfe verschiedener Verfahren der Text- und Datenauswertung wurden sogenannte schriftsprachliche Profile modelliert. Diese beschreiben das Zusammenspiel verschiedener schriftsprachlicher und sozialer Ressourcen der Textproduktion in einer systematisch gezogenen Stichprobe aus überdurchschnittlich langen (N = 123) im Vergleich zu unterdurchschnittlich kurzen (N = 170) persuasiven Briefen von Fünftklässler*innen.1←194 | 195→

2.1. Within-Case-Displays

Bei den Within-Case-Displays handelt es sich um Visualisierungsformen, die zur Systematisierung von Informationen dienen (Miles/Huberman 1994: 91) und sich auf einen Fall im Korpus konzentrieren. Ein Fall bezeichnet eine Analyseeinheit, die in qualitativer Analysesoftware üblicherweise als ein Dokument abgebildet wird. Das heißt, Fälle können sowohl Einzelpersonen (Einzelinterview) als auch Gruppen (Unterricht) oder aber ganze Organisationseinheiten (Schule) meinen. Bei Within-Case-Displays wie beispielsweise dem Dokument-Portrait von MAXQDA werden die gesamten Kodierungen eines Falls als graphische Abfolge in einem Bild dargestellt. Dabei werden die Bildpunkte entsprechend der Länge bzw. dem Anteil eines kodierten Segments im Dokument gewichtet. Dies ermöglicht beispielsweise einen schnellen Eindruck der thematischen Zusammensetzung eines Falls, d. h. welche Themen den Fall bestimmen. Dokument-Portraits eignen sich damit besonders gut, um verschiedene Dokumente gleicher Art bezüglich ihrer thematischen Schwerpunkte miteinander zu vergleichen, aber auch um Schwerpunktthemen in einem Dokument zu visualisieren. All dies kann wiederum Ausgangspunkt für weitere Analysen sein.

Voraussetzung für den Einsatz im Analyseprozess ist ein reflektierter und gut organisierter Einsatz von Farbattributen. Üblicherweise wird jedem Code eine Farbe zugewiesen; auf diese wird für die visuelle Darstellung zurückgegriffen. Es ist also empfehlenswert, bereits von Beginn an Farben für zentrale Codes festzulegen und diese während der Arbeit an einem Projekt nicht mehr zu verändern. Auch die kodierten Segmentlängen sollten einheitlich eingestellt sein. Der Umfang des Datenmaterials ist für solche fallorientierten Visualisierungen irrelevant, da Ziel dieser Darstellungen das Sichtbarmachen von Verteilungen bzw. Verhältnissen der Codes in der jeweiligen Datengrundlage bzw. dem Fall ist. Dafür wird in den meisten Programmen stets die gleiche Anzahl von Bildpunkten genutzt (z. B. dem Dokument-Portrait in MAXQDA).

Die folgenden mit MAXQDA erstellten Dokument-Portraits (Abbildung 2) aus der Dissertation von Gnädig (in Vorb.) zeigen die Anteile nicht-aufgabenspezifischer Interaktionen in einer Gruppenarbeit (dunkelgrau hervorgehoben). Stellt man zwei Fälle nebeneinander, wird deutlich, dass sich←195 | 196→ diese bezüglich der Auseinandersetzung mit der Aufgabe stark unterscheiden. Dies kann dann beispielsweise als Ausgangspunkt für anschließende bzw. vertiefende Analysen genutzt werden, fallspezifisch (within-case) aber auch fallübergreifend (cross-case) nach Gründen hierfür zu suchen. Dabei sind insbesondere die Übergänge zwischen Phasen nicht-aufgabenspezifischer und aufgabenspezifischer Interaktion als neuralgische Punkte für die weitere Analyse von Interesse.

Abbildung 2: Dokumentenportraits zweier Fälle zur Darstellung nicht-/aufgabenspezifischer Interaktionen während einer Gruppenarbeit

image
image

2.2. Cross-Case-Displays

In Cross-Case-Displays werden Zusammenhänge zwischen Fällen eines Datenkorpus’ dargestellt. Um Analysetools nutzen zu können, die Cross-Case-Displays ermöglichen, bedarf es also einer Mindestanzahl von zwei Fällen im Datenmaterial. Gängige Programme zur qualitativen Datenanalyse ermöglichen eine Visualisierung der Codebeziehungen, z. B. der Code-Relation-Browser (MAXQDA) oder die Code-Co-Occurrence-Table (ATLAS.ti). Hierbei werden die Codes von zuvor definierten Fällen so zusammengeführt, dass die Häufigkeit des gemeinsamen Auftretens bestimmter Codes im Datenmaterial ersichtlich wird. Je häufiger sich←196 | 197→ zwei Codes im Datenmaterial überschneiden, desto wahrscheinlicher ist es, dass diese auch inhaltlich in Verbindung stehen. Insbesondere für die Bildung von Typen, also die Charakterisierung bestimmter Personen(-gruppen), kann dies ein hilfreicher Zugang sein; aber auch die Bildung neuer Hypothesen kann angestoßen werden.

Möchte man Code-Beziehungen darstellen, so ist es von zentraler Bedeutung, dass alle in den Dokumenten kodierten Segmente hinsichtlich ihrer Länge dem gleichen Kodiermuster folgen. Die Frage, wieviel Wortmaterial (Text) bei der Zuweisung einer Stelle im Material einbezogen wird, muss einheitlich beantwortet werden. Es empfiehlt sich, sofern diese nicht zu lang sind, ganze Absätze zu kodieren; ansonsten gilt als Faustregel, jeweils drei Zeilen vor und nach den entsprechenden Abschnitten ebenfalls zu kodieren. Erst hierdurch ist es wahrscheinlich, dass Segmente mehrfach kodiert und Überscheidungen sichtbar gemacht werden können. Wurde im Kodierungsprozess auf Mehrfachkodierungen verzichtet, so besteht auch die Möglichkeit, Häufigkeiten von Codes anzuzeigen, die im Datenmaterial nicht an derselben Stelle (Überschneidung) aber unmittelbar beieinander (Nähe) liegen. Während beispielsweise ATLAS.ti die Häufigkeiten in Form einer Tabelle mit den entsprechenden Fallzahlen anzeigt, besteht bei MAXQDA zusätzlich die Möglichkeit einer bildlichen Darstellung. Dabei werden alle Codes in einer Matrix auf der x- und y-Achse angelegt. Mithilfe von Quadraten wird daraufhin angezeigt, wie häufig sich die entsprechenden Codes überschneiden. Je größer ein Quadrat ist, desto häufiger überschneiden sich die entsprechenden Codes.

Die folgende Abbildung 3 zeigt einen Code-Relations-Browser aus der Dissertation von Gnädig (in Vorb.). Die ausgewählten Codes beziehen sich auf die Interviewfrage zu Vorstellungen der Schüler*innen zur Gestaltung des Fremdsprachenunterrichts. Die häufige Thematisierung von Grammatikarbeit als solcher lässt zunächst den Schluss zu, dass die Schüler*innen selbiger grundsätzlich Bedeutung beimessen. Darüber hinaus wird deutlich, dass in den Antworten der SuS der Aspekt der Grammatikarbeit häufig im Zusammenhang mit den Codes „Lernerorientierung“, „Kontext“ und „Spaß/Spiel/Lernklima“ auftaucht. Diese Kookkurenz lässt darauf schließen, dass nach den Vorstellungen der Schüler*innen die Auseinandersetzung mit sprachlichen Mitteln sinnvoll kontextualisiert sowie an ihren Bedürfnissen ausgerichtet sein sollte. Zudem schließen sich im Verständnis der Schüler*innen Grammatikarbeit und Spaß nicht aus. Dies deckt sich mit den gängigen Vorstellungen zu einer zeitgemäßen Grammatikarbeit.←197 | 198→

Abbildung 3: Code-Relations Browser zur Visualisierung häufiger Codeüberschneidungen zur Konkretisierung der Vorstellungen von Fremdsprachenunterricht

image

Eine weitere Möglichkeit zur Darstellung von Zusammenhängen in den Daten bilden Strukturbilder (Bergedick et al. 2011). Diese modellieren Entwicklungen, Prozesse oder Beziehungen zwischen Elementen eines Projekts (u. a. Fälle, Codes, Kodierungen, Forschungsnotizen) in Form von Netzwerken. Dabei werden Verbindungen zwischen den Elementen durch Linien und/oder Knotenpunkte visualisiert. Damit eignen sich Strukturbilder neben der Unterstützung von Analyseprozessen auch als Dokumentationstool, z. B. zur Darstellung des Studiendesigns oder aber zur Publikation von Ergebnissen. Die Möglichkeit mit Häufigkeiten in Strukturbildern arbeiten zu können, macht diese interessant für Strukturanalysen im Datenmaterial, die für die Theoriebildung, die Hypothesenbildung oder Evaluation von Analyseschritten hilfreich sein können.

Grundsätzlich kann auf Grundlage jeder Datenbasis mit Strukturbildern gearbeitet werden. Wie bei allen Verfahren, die Häufigkeiten abbilden, ist eine auf←198 | 199→ die Datenbasis bezogen ausreichende Anzahl an Merkmalsausprägungen für vertretbare Schlussfolgerungen notwendig. Wie häufig ein Element mit dem anderen in Verbindung steht, verdeutlicht die Stärke der Linien/Knoten. Der erste Schritt bei der Erstellung eines Strukturbildes ist also die Entscheidung darüber, welche Beziehungen dargestellt werden sollen und welche Elemente der Datenbasis Teil dieses Beziehungsgefüges sind.

Die Software MAXQDA bietet beispielsweise mit der Funktion MAXMaps eine Auswahl von vordefinierten Modellen an. Außerdem können auch individuelle Strukturbilder erstellt werden. Hinsichtlich der Sichtbarmachung von Häufigkeiten wird im Folgenden die Einsatzmöglichkeit des Code-Subcode-Segments Model näher vorgestellt. Ein derartiges Strukturbild visualisiert das Gefüge eines Codes. Das Beispiel aus der Dissertation von Gnädig (in Vorb.) (Abbildung 4) zeigt den von den Lernenden rückblickend geäußerten persönlichen Erkenntnisgewinn aus der Bearbeitung einer Aufgabe. Dabei zeigt sich, dass insbesondere die Auseinandersetzung mit sprachlichen Mitteln und das richtige Sprechen als Ergebnisse dieser Aufgabenbearbeitung seitens der Lernenden genannt werden. Auch die Bearbeitung der Aufgaben in Gruppen wird häufiger positiv bewertet. In einem weiteren Analyseschritt können diese Ergebnisse mit den von der Lehrkraft intendierten Zielen bei der Aufgabenkonstruktion im Sinne einer Aufgabenevaluation abgeglichen werden.

Abbildung 4: Code-Subcode-Segments Model für den Code „persönlicher Erkenntnisgewinn“ aus den Interviews mit Lernenden mit Bezug zu einer Aufgabe

image

←199 | 200→

2.3. Wortwolken

Eine weitere Möglichkeit zur Visualisierung zentraler Begriffe in Dokumenten unterschiedlicher Art (z. B. Transkripte, Schülertexte, Curricula) sind sogenannte Wortwolken (Abbildung 5). Dabei werden die in der jeweiligen Datenbasis berücksichtigten Wörter je nach Häufigkeit ihres Vorkommens unterschiedlich groß in einer „Wolke“ abgebildet.

Dies erlaubt es, einen schnellen Eindruck zu wichtigen Ausdrücken zu erlangen und bei entsprechender Vorauswahl auch Vergleiche zwischen Dokumenten(-gruppen) zu ziehen, sei es hinsichtlich des Auftretens verschiedener Lexeme oder auch ihrer Verhältnisse untereinander. Damit eignen sich Wortwolken insbesondere zur visuellen Zusammenfassung bestimmter Analyseschritte oder als Ausgangpunkt für vertiefende Untersuchungen.2

Zur Erstellung von Wortwolken muss zunächst entschieden werden, ob das gesamte Korpus, ein Teil oder einzelne Gruppen als Datenbasis eingehen sollen. Anschließend ist es häufig erforderlich, bestimmte Begriffe aus den Analysen auszuschließen (meist über sogenannte Stopplisten in den Programmen). Dies betrifft klassischerweise bestimmte Funktionswörter wie Konjunktionen, Artikel, Pronomen oder Hilfsverben, welche zwar hochfrequent auftreten, lexikalisch bzw. für die jeweilige Fragestellung aber in der Regel wenig aussagekräftig sind.

In den folgenden mit MAXQDA erstellten Wortwolken (Abbildung 5) aus der Dissertation von Domenech (2019) wurden beispielsweise diese Begriffe in die Stoppliste aufgenommen: das, dein, deine, dem, den, der, dich, die, dir, du, ein, eine, er, es, haben, hast, hat, ich, ihr, ist, man, sich, sie, und, wir.

Abbildung 5: Wortwolken der Extremgruppen kurzer (links) und langer Briefe (rechts) aus der Untersuchung von Domenech (2019)

image

←200 | 201→

Bei der vergleichenden Betrachtung fällt unter anderem auf, dass bestimmte Wörter in allen Texten häufig vorkommen. Dies sind insbesondere durch die Aufgabenstellung angelegte bzw. evozierte Ausdrücke, z. B. die begründende Konjunktion weil sowie zentrale Begriffe des Schreibszenarios: die Aktanten Tom und das Mädchen; außerdem das Bild, welches von der Adressatin entgegen den Vorgaben des Wettbewerbs nicht selbst gemalt wurde. Daneben wird jedoch auch deutlich, dass in der Extremgruppe langer Schreiber*innen auch die Wörter wenn und dann relativ häufig verwendet werden, was einer inhaltlich und diskursiv stärkeren Berücksichtigung möglicher Konsequenzen in diesen Texten entspricht (siehe Domenech 2019).

2.4. Statistische Quantifizierungen

Etablierter Ausgangspunkt jeder zahlenbasierten Auswertung ist die Betrachtung charakteristischer Werte und Verteilungen der erhobenen Merkmale bzw. analysierten Aspekte (im folgenden Abschnitt Variable) – die sogenannte deskriptive Statistik. Diese dient klassischerweise als Grundlage für visuelle Darstellungen, wie beispielsweise Diagramme oder für sich möglicherweise anschließende komplexere Berechnungen.

In explorativ bzw. qualitativ ausgerichteten Untersuchungen eignet sich diese Form der Datenaufbereitung insbesondere, um zu einem Überblick über vorliegende (Zwischen-)Ergebnisse zu gelangen und/oder quantitativ orientierte Aussagen (mehr/häufig – weniger/selten) im Analyseprozess zu überprüfen bzw. im Text zu belegen. Je nach Darstellungsform (s. u.) können so auch Vergleiche angestellt werden.

Voraussetzung für die Durchführung dieser Quantifizierungsform sind a) eine ausreichende Stichprobengröße – als Faustregel mindestens 10 Beobachtungen pro Variable, b) die Aufbereitung der Daten im Format eines sozialwissenschaftlichen Datensatzes (Fälle in Zeilen, Variablen in Spalten) sowie c) die Berücksichtigung des Skalenniveaus jeder zu analysierenden Variable, da dies die zu berichtenden Kennwerte bestimmt.

Diese können anschließend über die entsprechenden Funktionen gängiger Statistik- bzw. QDA-Software erstellt und (mehr oder weniger automatisiert) in Tabellenform überführt werden (in MAXQDA beispielsweise über die Funktion des Code-Matrix-Browsers).

Tabelle 1 zeigt beispielsweise die entsprechenden Lage- und Streuungsmaße der metrischen Variable Textlänge in der Ausgangsstichprobe der Untersuchung von Domenech (2019) zur argumentativen Textproduktion von Fünftklässler*innen.←201 | 202→

Tabelle 1: Deskriptive Statistik der Variable „Textlänge“ in der Ausgangsstichprobe von Domenech (2019)

image

Ergänzt man den Bericht absoluter Zahlen durch relative Werte, wie etwa Prozent, lassen sich einfach erste Vergleiche von Häufigkeiten zwischen Gruppen bzw. über verschiedene Variablen erstellen. Tabelle 2 illustriert dies für die auf Basis von Kodierungen erhobene Verteilung der Profilstufen nach Grießhaber (z. B. 2012) in den Extremgruppen kurzer und langer Texte der Untersuchung von Domenech (2019):

Tabelle 2: Häufigkeiten der Profilstufen nach Grießhaber (2012) in den Extremgruppen der Untersuchung von Domenech (2019)

image

2.5. Diagramme

Anders als bei den oben (2.1.-2.3.) vorgestellten visuell orientierten Quantifizierungsformen besteht bei Diagrammen eine exakte Entsprechung zwischen ihrer graphischen Gestaltung und den zugrundeliegenden numerischen Werten der – beispielsweise durch Transformation entstandenen – Variablen.←202 | 203→

Damit eignen sie sich in besonderer Weise zur Veranschaulichung statistischer Inhalte. Je nach Diagrammtyp liegt der Fokus dabei auf unterschiedlichen Aspekten. Für den Kontext dieses Beitrags bzw. für prozessorientierte Arbeiten sind insbesondere die Darstellung von Häufigkeiten (Balkendiagramme), Verhältnissen (Tortendiagrammen) oder Lage- und Streuungsmaßen (Boxplots) zentral. Diese unterschiedlichen Funktionen sind bei der Erstellung jeweils zu berücksichtigen bzw. in der Software umzusetzen, ebenso wie eine geeignete Skalierung und Werte-Ausprägung, z. B. ob absolute oder relative Zahlen ausgegeben werden sollen. Aufgrund ihrer Abhängigkeit von der statistischen Basis gelten für Diagramme ansonsten ähnliche Voraussetzungen wie die oben (2.4.) beschriebenen.

Die in Tabelle 2 beschriebene Verteilung der Profilstufen nach Grießhaber (z. B. 2012) in den Extremgruppen kurzer und langer Texte der Untersuchung von Domenech (2019) können beispielsweise in Excel leicht von einer derart aufgebauten Tabelle in ein gruppiertes Balkendiagramm überführt werden (siehe entsprechende Abbildung in Domenech 2019).

Abbildung 6 stellt die oben berichteten Lage- und Streuungsmaße der Auswahlvariable Textlänge in der Ausgangsstichprobe der Untersuchung von Domenech (2019) als Boxplot dar, welcher in R angefertigt und am unteren Rand um die Quartilswerte ergänzt wurde.3

Abbildung 6: Boxplot der Variable „Textlänge“ in der Ausgangsstichprobe von Domenech (2019) mit abgetragenen Quartilswerten

image

←203 | 204→

3. Fazit/Ausblick

Die hier vorgestellten softwarebasierten Möglichkeiten zur Quantifizierung empirischer Daten eignen sich insbesondere zur graphischen, zahlenbasierten oder vergleichenden Aufbereitung des Datenmaterials. Daraus resultierende Ergebnisse können als wichtige Elemente zur Zusammenfassung oder Absicherung vorhergehender Analysen dienen oder als Ausgangpunkt für weitere Auswertungen genutzt werden. Dies bietet sich in ganz unterschiedlichen Phasen des Forschungsprozesses an, etwa zur Konzeptualisierung, für Datensitzungen, zur internen Dokumentation oder für die Publikation.

Bei allen Vorzügen darf jedoch nicht vergessen werden, dass sowohl die hier vorgestellten als auch vergleichbare Verfahren der Quantifizierung Fallen bereithalten. Insbesondere bezüglich der Generalisierbarkeit der Ergebnisse gilt es, vorsichtig zu sein. Gerade die graphischen und statistischen Visulisierungstools verleiten schnell dazu, Aussagen über den Einzelfall hinaus zu treffen. Im Sinne der „internen Generalisierbarkeit“ (Maxwell 2010: 478) ist jedoch gerade für prozessorientierte Arbeiten zu unterstreichen, dass die Aussagekraft entsprechender Quantifizierungsverfahren eben „nur“ intern gilt, also strikt auf die jeweilige Datengrundlage beschränkt werden muss. Die numerische Zusammenfassung auf Basis häufig vorkommender Merkmalsausprägungen kann weitreichende Folgen für eine ursprünglich eigentlich komplex und tiefgehend angelegte Analyse eines Phänomens haben. Es besteht die Gefahr „der Einengung der Fragestellung sowie der Unergiebigkeit der Ergebnisse, womit die Präferenz eines qualitativen Forschungsdesigns obsolet erscheint“ (Riemer 2006: 462).

Resümierend ist zu konstatieren, dass Quantifizierungsverfahren Forschende zuweilen dazu verleiten, die eigene, genuine Forschungslogik zu verlassen. Daher ist es von großer Bedeutung, methodische Entscheidungen stets mit dem eigenen Erkenntnisinteresse abzugleichen. Statt einer jüngst zu verzeichnenden „Mixed-Method-Epidemie“ zu verfallen, sollte insbesondere mit Blick auf die Forschungslogiken der Prozess- und Varianztheorie geprüft werden, welche Verfahren im Forschungsprozess wirklich sinnvoll zur Anwendung kommen können. Dabei sei nicht zu vergessen, dass unter Umständen je nach bisheriger Anlage einer Arbeit Quantifizierungen zusätzliche Software-Arbeit erforderlich machen.

Schlussendlich bleibt zu sagen, dass es in der sozialwissenschaftlichen und besonders in der fremdsprachendidaktischen Forschung an Beiträgen mangelt, die Quantifizierungs- und Transformationsverfahren empirischer Daten – ob prozess- oder varianztheoretisch – praktisch exemplifizieren und reflektieren. Der vorliegende Beitrag ist ein Versuch, diese Lücke zu schließen, dem hoffentlich weitere folgen werden.←204 | 205→

Literatur

Anguera, Teresa M. / Izquierdo, Conrad (2006). Methodological approaches in human communication. From complexity of situation to data analysis. In: Riva, Giuseppe / Anguera, Teresa M. / Wiederhold, Brenda K. / Mantovani, Fabrizia (Hrsg.). From Communication to Presence: Cognition, Emotions and Culture Towards the Ultimate Communicative Experience. Amsterdam: IOS Press, 203–222.

Baur, Nina / Kelle, Udo / Kuckartz, Udo (2017). Mixed Methods – Stand der Debatte und aktuelle Problemlagen. KZfSS Kölner Zeitschrift für Soziologie und Sozialpsychologie 69/2, 1–37.

Bazeley, Pat (2016). Mixed or merged? Integration as the real challenge for mixed methods. Qualitative Research in Organizations and Management: An International Journal 11/3, 189–194.

Caspari, Daniela / Klippel, Friederike / Legutke, Michael K. / Schramm, Karen (2016). Forschungsmethoden in der Fremdsprachendidaktik: Ein Handbuch. Tübingen: Narr Francke Attempto.

Doff, Sabine (Hrsg.) (2012). Fremdsprachenunterricht empirisch erforschen: Grundlagen – Methoden – Anwendung. Tübingen: Gunter Narr.

Domenech, Madeleine (2019). Schriftsprachliche Profile von Fünftklässlern: Argumentative Briefe im Zusammenspiel unterschiedlicher textueller, familiärer und individueller Ressourcen. Berlin: de Gruyter.

Fakis, Apostolos / Hilliam, Rachel / Stoneley, Helen / Townend, Michael (2014). Quantitative Analysis of Qualitative Information From Interviews: A Systematic Literature Review. Journal of Mixed Methods Research 8/2, 139–161.

Gnädig, Susanne (in V.). Aufgabenkonstruktion und Aufgabeninteraktion: Eine explorative Studie zum Potential von form-focused tasks im Fremdsprachenunterricht der Sekundarstufe I. Dissertation Universität Potsdam.

Grießhaber, Wilhelm (2012). Die Profilanalyse. In: Ahrenholz, Bernt (Hrsg.) Einblicke in die Zweitspracherwerbsforschung und ihre methodischen Verfahren. Berlin: de Gruyter, 173–193.

Hannah, David R. / Lautsch, Brenda A. (2010). Counting in Qualitative Research: Why to Conduct it, When to Avoid it, and When to Closet it. Journal of Management Inquiry 20/1, 14–22.

Johnson, Burke / Onwuegbuzie, Anthony J. / Turner, Lisa A. (2007). Toward a Definition of Mixed Methods Research. Journal of Mixed Methods Research 1/2, 112–133.

Kempf, Wilhelm (2010). Quantifizierung qualitativer Daten. Diskussionsbeiträge der Projektgruppe Friedensforschung Konstanz 65, 1–13. Online: http://nbn-resolving.de/urn:nbn:de:bsz:352-opus-121212 ←205 | 206→ Kuckartz, Udo (2014). Mixed Methods: Methodologie, Forschungsdesigns und Analyseverfahren. Wiesbaden: Springer VS.

Kuckartz, Udo (2017). Datenanalyse in der Mixed-Methods-Forschung. Strategien der Integration von qualitativen und quantitativen Daten und Ergebnissen. KZfSS Kölner Zeitschrift für Soziologie und Sozialpsychologie 69/2, 157–183.

Maxwell, Joseph A. (2010). Qualitative Inquiry Miles, Matthew B. / Huberman, Michael A. (1994). Qualitative Data Analysis: An Expanded Sourcebook. Thousand Oaks: Sage.

Explaining Organizational Behavior: The Limits and Possibilities of Theory and Research Pearce, Lisa D. (2015). Thinking Outside the Q Boxes: Further Motivating a Mixed Research Perspective. In: Hesse-Biber, Sharlene J. N. / Johnson, R. Burke (Hrsg.). The Oxford Handbook of Multimethod and Mixed Methods Research Inquiry. Oxford: Oxford University Press, 42–56

Riemer, Claudia (2006). Entwicklungen in der qualitativen Fremdsprachenforschung: Quantifizierung als Chance oder Problem? In: Timm, Johannes-Peter (Hrsg.). Fremdsprachenlernen und Fremdsprachenforschung: Kompetenzen, Standards, Lernformen, Evaluation. Tübingen: Gunter Narr.

Research in Nursing & Health Sandelowski, Margarete / Voils, Corrine I. / Knafl, George (2009). On Quantitizing. Journal of mixed methods research 3/3, 208–222.

Schnapp, Kai-Uwe / Schindler, Delia / Gschwend, Thomas / Behnke, Joachim (2006). Qualitative und Quantitative Zugänge: Eine integrative Perspektive. In: Behnke, Joachim / Gschwend, Thomas / Schindler, Delia / Schnapp, Kai-Uwe (Hrsg.). Methoden der Politikwissenschaft: Neuere qualitative und quantitative Analyseverfahren. Baden-Baden: Nomos, 11–26.

Schwandt, Thomas A. (2000). Three Epistemological Stances for Qualitative Inquiry: Interpretivism, Hermeneutics, and Social Constructionism. In: Denzin, Norman K. / Lincoln, Yvonna S.  The Handbook of Qualitative Research. London: Sage, 189–213.

Settinieri, Julia / Demirkaya, Sevilen / Feldmeier, Alexis / Gültekin-Karakoç, Nazan / Riemer Claudia (Hrsg.) (2014). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache: eine Einführung. Paderborn: Ferdinand Schöningh.

Vogl, Susanne (2017). Quantifizierung. Datentransformation von qualitativen Daten in quantitative Daten in Mixed-Methods-Studien. KZfSS Kölner Zeitschrift für Soziologie und Sozialpsychologie 69/2, 287–312.←206 | 207→


1 Die Texte sowie einige soziale Hintergrunddaten stammen aus dem interdisziplinären Projekt FUnDuS (Die Rolle familialer Unterstützung beim Erwerb von Diskurs- und Schreibfähigkeiten in der Sekundarstufe I) der FiSS-Förderlinie des BMBF. Leitung: Prof. Uta Quasthoff (Technische Universität Dortmund, Institut für deutsche Sprache und Literatur) und Prof. Elke Wild (Universität Bielefeld, Fakultät für Psychologie und Sportwissenschaft). Projekthomepage: http://www.uni-bielefeld.de/psychologie/abteilung/arbeitseinheiten/09//forschung/fundus/projekt.html (letzter Zugriff: 24.04.2018).

2 Hierzu bieten die meisten Programme verschiedene Zusatzinformationen an, die gut für einen Analyseeinstieg genutzt werden können, so z. B. absolute Worthäufigkeiten, oder den Kontext der jeweiligen Fundstellen aus den Dokumenten.

3 Boxplots eignen sich aufgrund ihrer genauen Abbildung der Lage- und Streuungsmaße auch besonders gut, um (statistisch signifikante) Gruppenunterschiede bildhaft darzustellen.