Show Less
Open access

Triangulation in der Fremdsprachenforschung

Series:

Edited By Daniela Elsner and Britta Viebrock

Fremdsprachenlernen und Fremdsprachenunterricht sind facettenreiche Forschungsgegenstände, deren Untersuchung ein komplexes Design verlangt. Um ein multidimensionales Bild der ablaufenden Prozesse zu erhalten, werden in der fremdsprachlichen Unterrichtsforschung immer häufiger rekonstruktive und interpretative Verfahren mit standardisierten quantitativen Methoden verbunden. Methoden-, Theorie-, Daten- oder Beobachtertriangulation werden zur Überprüfung von Forschungsergebnissen sowie zur Erweiterung von Erkenntnismöglichkeiten eingesetzt. Die Beiträge in diesem Band zeigen die unterschiedlichen Dimensionen des Triangulationskonzepts, seine theoretischen Grundlagen sowie praktische Anwendungen. Sie sind im Anschluss an die zweite forschungsmethodische Sommerschule der Deutschen Gesellschaft für Fremdsprachenforschung (DGFF) entstanden.
Show Summary Details
Open access

Triangulation: Möglichkeiten, Grenzen, Desiderate

← 202 | 203 →Triangulation: Möglichkeiten, Grenzen, Desiderate

Karin Aguado

Die Triangulation erfreut sich in jüngster Zeit insbesondere beim wissenschaftlichen Nachwuchs einer stetig wachsenden Popularität, was angesichts der Komplexität der Erforschung von fremdsprachenbezogenen Lehr- und Lernprozessen grundsätzlich zu begrüßen ist. Da diese Forschungsstrategie jedoch mit einer erheblichen Mehrarbeit verbunden ist, gilt zunächst grundsätzlich abzuwägen, ob ihre Anwendung der eigenen Fragestellung tatsächlich angemessen ist. Im vorliegenden Beitrag werden zunächst ausgewählte theoretische und praktische Aspekte der Triangulation skizziert. Da in der qualitativen Forschung ja der Gegenstand bzw. das Erkenntnisinteresse eine entscheidende Rolle bei der Bestimmung der für die empirische Untersuchung einzusetzenden methodischen Verfahren spielt, wird im Anschluss die ‚Angemessenheit‘ als zentrales Gütekriterium empirischer Forschung diskutiert. Diese Überlegungen sollen bei der Entscheidung für oder gegen die Anwendung der Triangulationsstrategie helfen. Abschließend werden einige offene Fragen und Desiderate formuliert, deren weitere Diskussion meiner Ansicht nach lohnt.

1. Einleitung

Triangulation hat sich – zumindest in primär qualitativ-interpretativ angelegten empirischen Studien – inzwischen zu einer weit verbreiteten Forschungsstrategie entwickelt und zwar nicht zuletzt, weil das Verstehen von komplexen Zusammenhängen im Sinne eines methodisch kontrollierten Fremdverstehens ein zentrales Erkenntnisprinzip qualitativer Forschung darstellt (vgl. dazu Arbeitsgruppe Bielefelder Soziologen 1976). Grundvoraussetzung für die Akzeptanz der Triangulation sowohl auf Seiten derjenigen, die sie anwenden, als auch auf Seiten derjenigen, welche die mit ihrer Hilfe erzielten Ergebnisse rezipieren, ist eine methodologische Offenheit, in der Ausschließlichkeits- oder Prioritätenansprüche einer Methodologie respektive einer Methode gegenüber einer anderen keine Rolle spielen (vgl. dazu auch Lamnek 2005: 279). Insbesondere in Forschungen, die faktorenkomplexe Gegenstände wie z.B. das Lehren und Lernen von Sprachen untersuchen, scheinen mehrmethodische Vorgehensweisen angemessen zu sein, weil sie eine höhere Adäquanz ermöglichen und somit auch für alltagsweltliche Akteure verstehbar und vernünftig erscheinen (vgl. Schütz 1974). Ob und inwieweit die mit triangulativen Verfahren verbundenen ← 203 | 204 →Erwartungen berechtigt und erfüllbar sind, wird im vorliegenden Sammelband anhand ausgewählter empirischer Studien diskutiert.

Es besteht das Problem, dass die Triangulation von nicht wenigen Kollegen und Kolleginnen inzwischen nicht nur als Merkmal, sondern sogar als Gütekriterium qualitativer Forschung betrachtet wird (vgl. z.B. Mayring 2002: 147). Ich halte dies u.a. deshalb für problematisch, weil dadurch insbesondere wenig erfahrene Forscherinnen und Forscher1 den Eindruck gewinnen (müssen), dass ein mehrmethodisches Vorgehen für eine hochwertige, aktuellen forschungsmethodologischen Entwicklungen verpflichtete qualitative Forschung zwingend erforderlich sei – schließlich will man ja als qualitativ arbeitende Forscherin bzw. als qualitativ arbeitender Forscher die gültigen Gütekriterien einhalten und gute Forschung machen. Es soll jedoch im Folgenden gezeigt werden, dass Triangulation weder ein Wert an sich noch ein Gütekriterium qualitativer Forschung ist!

Da die wesentlichen Formen, Merkmale und Funktionen der Triangulationsstrategie bereits in der Einleitung der beiden Herausgeberinnen Daniela Elsner und Britta Viebrock als auch in dem Beitrag von Julia Settinieri (Kap. 2 in diesem Band) ausführlich dargestellt worden sind, möchte ich sie im Folgenden nur kurz skizzieren (vgl. auch Aguado/Riemer 2001 oder Aguado 2009). Stattdessen soll die Aufmerksamkeit in erster Linie auf terminologische und konzeptionelle sowie auf praktische Überlegungen hinsichtlich der Möglichkeiten und Grenzen gerichtet werden, die in der einschlägigen Literatur im Zusammenhang mit der Triangulationsstrategie diskutiert werden.

In Bezug auf die Terminologie stellt sich zunächst einmal die Frage nach der Angemessenheit der Übertragung des Ausdrucks ‚Triangulation‘ aus der Geodäsie auf die Forschungsmethodologie der Sozialwissenschaft, der Erziehungswissenschaft oder der Fremdsprachendidaktik – also allesamt Disziplinen, die vollkommen andere Gegenstände, Erkenntnisinteressen und Fragestellungen haben als die in erster Linie an exakten Messungen interessierten Naturwissenschaften. Hinzu kommt das Problem, dass die verschiedenen Termini ‚Triangulation‘, mixed methods, Mehr-Methoden-Design oder ‚Methodenintegration‘ – auch von einschlägigen Kolleginnen und Kollegen wie z.B. Denzin/Lincoln (1994) – vielfach synonym gebraucht werden, was jedoch ungenau ist und daher vermieden werden sollte, und zwar nicht zuletzt weil z.B. Studierende oder Nachwuchswissenschaftler/innen, welche die historische Entwicklung der hier ← 204 | 205 →relevanten Konzepte, Konstrukte und Strategien nicht kennen, eine verkürzte und damit z.T. unzutreffende Vorstellung davon erhalten.

Der Zusammenhang zwischen Gegenstand und Methode ist komplex und vielfältig und kann hier nicht im Detail diskutiert werden. Zentral für den vorliegenden Kontext ist die Tatsache, dass in der qualitativen Forschung der Gegenstand und nicht die Methode im Zentrum steht. In einem nächsten Schritt soll daher das Kriterium der Angemessenheit diskutiert werden, das in der qualitativen Forschung grundsätzlich für die Auswahl jeder Methode der Erhebung, Aufbereitung und Auswertung von Daten zu beachten ist und das daher selbstverständlich auch für die Auswahl und Kombination mehrerer Methoden innerhalb einer Studie gilt.

Abschließend sollen noch einmal der in der Diskussion bisher erreichte Minimalkonsens hinsichtlich der Triangulationsstrategie und Möglichkeiten sowie Erfordernisse ihrer Weiterentwicklung angesprochen werden (für eine aktuelle Darstellung siehe Kuckartz 2014). In diesem Zusammenhang werden auch einige der im forschungsmethodologischen Diskurs bereits mehrfach formulierten Desiderate aufgegriffen.

2. Terminologisches, Konzeptionelles, Praktisches

Zu dem Terminus ‚Triangulation‘, der sich inzwischen etabliert hat (was auch an dem Titel des vorliegenden Sammelbands und der ihr zugrunde liegenden DGFF-Sommerschule erkennbar ist), ist zu sagen, dass die Übertragung aus einer Naturwissenschaft auf die Sozialwissenschaften sowie auf andere, vorwiegend qualitativ arbeitende Disziplinen streng genommen unangemessen ist (vgl. dazu auch Blaikie 1991). Der Grund ist, dass es bei der Erdvermessung um eine formal berechenbare, durch die Einnahme mehrerer Perspektiven möglichst genaue Positionsbestimmung geht, während in sozial- oder lehr-/lernwissenschaftlichen Forschungen auf eine inhaltlich beschreibende, verstehende und/oder interpretative Untersuchung des jeweiligen Gegenstands abgezielt wird. D.h. ursprünglich, also in den Naturwissenschaften und in anderen bevorzugt analytisch-nomologisch arbeitenden Disziplinen, bestand die Hauptfunktion der Triangulationsstrategie in der Vermeidung von Verzerrungen bzw. Messfehlern und somit im Ausschluss von Messartefakten (vgl. Campbell/Fiske 1959). Daraus resultiert auch die eher defizitbasierte Annahme, dass durch die Anwendung mehrerer Methoden die jeder Einzelmethode inhärenten Schwächen kompensiert werden könnten – eine Sichtweise auf Methoden, die der qualitativen Forschung eher fremd ist oder sein sollte, wählt man eine Methode doch wegen ihrer Eignung und ihrer Vorzüge aus und nicht damit sie Unzulänglichkeiten ← 205 | 206 →ausgleicht. Bereits an dieser Stelle werden grundlegende Unterschiede zwischen quantitativen und qualitativen Sichtweisen auf die möglichen Funktionen der Triangulation – also Validierung vs. Erkenntniserweiterung – deutlich. Fielding und Fielding (1986) zweifelten bereits Mitte der 1980er Jahre daran, dass man die mit einer Methode gewonnenen Daten durch die mit einer anderen Methode gewonnenen Daten korrigieren könnte. Wenn man sich überhaupt auf eine solche kompensatorische Argumentation einlassen will, erscheint es eher angemessen anzunehmen, dass eine mehrmethodische Herangehensweise der Kompensation von blinden Flecken, aber nicht der von Schwächen dienen kann. Dass ein Gegenstand durch die zu seiner Untersuchung eingesetzten Methoden konstituiert wird, gehört in der forschungsmethodologischen Diskussion inzwischen zum Konsens: Jede Methode ermöglicht die Betrachtung eines spezifischen Ausschnitts, einer bestimmten Perspektive, einer anderen Facette des jeweiligen Gegenstands und bestimmt somit, was wir über ihn erfahren. Insbesondere auch deshalb erscheint die Kombination mehrerer Methoden sinnvoll. Die Anerkennung dieser Tatsache bringt eine Reihe von Konsequenzen für die empirische Forschung mit sich, die meiner Ansicht nach bisher noch nicht ausreichend diskutiert worden sind. So ergibt sich für die Methoden-Kombination innerhalb einer Studie die grundsätzliche Frage, ob es überhaupt möglich ist, mittels verschiedener Methoden genau denselben Gegenstand zu untersuchen. Müsste es – unter der zuvor genannten Prämisse, dass ja die Methode den Gegenstand konstituiert – nicht vielmehr so sein, dass verschiedene Methoden zwingend verschiedene Gegenstände untersuchen? Hier könnte man entgegnen, dass es natürlich auf den Gegenstand ankommt, d.h. es gibt einfache und komplexe Gegenstände, und wie ein Gegenstand definiert wird, was dazu gehört bzw. aus welchen Komponenten er sich zusammensetzt, entscheidet letztlich der/die Forschende selbst bzw. die scientific community, der er/sie angehört. Der Gegenstand ‚Lehren und Lernen von Fremdsprachen‘ ist beispielsweise außerordentlich komplex (vgl. zur Faktorenkomplexion in der Fremdsprachenforschung Grotjahn 2006: 248), und um dieser Komplexität angemessen Rechnung zu tragen, bedarf es differenzierter forschungsmethodologischer Überlegungen und Entscheidungen sowie methodisch geeigneter Instrumente und Verfahren, die in der Regel individuell und spezifisch für den zu untersuchenden Gegenstand entwickelt werden, was jedoch nicht unerhebliche Probleme hinsichtlich der Replikation mit sich bringt (vgl. auch Abschnitt 3).

Der Hintergrund der Frage, ob mittels verschiedener Methoden exakt derselbe Gegenstand oder verschiedene Facetten eines Gegenstands erfasst werden, ist der, dass von ihrer Beantwortung abhängt, welche Funktion der Mehrmethodeneinsatz hat: Geht es um die kumulative Validierung oder um die umfassende ← 206 | 207 →Erfassung, Beschreibung und Erklärung (vgl. zur Begrifflichkeit Kelle/Erzberger 2000)?

Ziel der qualitativen Forschung sind sogenannte ‚dichte‘ Beschreibungen (Geertz 1983), die einen Gegenstand nicht nur in der Tiefe und in ihrem Kern erfassen, sondern die darüber hinaus ihren Rezipientinnen und Rezipienten – sowohl Kolleg/innen als auch Anwender/innen – eine Einschätzung hinsichtlich der Glaubwürdigkeit und der Übertragbarkeit der gewonnenen Erkenntnisse ermöglichen sollen. In diesem Zusammenhang ist offenkundig, dass die Einnahme lediglich einer Perspektive zwar eine sehr detaillierte Betrachtung ermöglicht, aber im Hinblick auf den Gesamtzusammenhang nur beschränkt Rückschlüsse erlaubt, so dass die Einbeziehung zusätzlicher Daten sinnvoll oder gar unverzichtbar ist.

Die bekannteste und in praktisch jeder – und somit auch in der vorliegenden – Abhandlung zum Thema Triangulation zitierte Typologie stammt von Denzin (1970), der vor nunmehr über 40 Jahren erstmals eine Strukturierung dieses methodologischen Konstrukts vornahm und zwischen der Daten-, Forscher-, Theorien- und Methodentriangulation unterschied (vgl. dazu Settinieri in diesem Band; vgl. auch Aguado 2014). Flick (2004) fügte später noch die Perspektiventriangulation hinzu, der jedoch nur ein bedingter Mehrwert zukommt, da allen zuvor genannten Typen die Betrachtung des Gegenstands aus mehreren Perspektiven inhärent ist. Dass im Rahmen einer empirischen Studie alle Typen berücksichtigt werden, kommt grundsätzlich eher selten vor. Dallinger und Jonkmann (in diesem Band) bieten allerdings ein gutes Beispiel für die Integration von drei Typen, nämlich Forscher-, Daten- und Methoden-Triangulation.

Ein seit langem weithin bekanntes Problem der Denzin’schen Klassifikation ist ihre mangelnde definitorische Präzision sowie die fehlende Trennschärfe zwischen den verschiedenen Typen (vgl. dazu auch Birkner/Hackfort 2006). So ist zu beachten, dass grundsätzlich jede Methodentriangulation immer auch zugleich eine Datentriangulation ist, da mit verschiedenen Methoden zwingend auch verschiedene Daten erhoben werden. Von Datentriangulation spricht Denzin jedoch nur dann, wenn die Daten mit derselben Methode erhoben werden, also entweder zu verschiedenen Zeitpunkten oder von verschiedenen Probanden und Probandinnen. Problematisch an dieser Position ist, dass damit praktisch jede Longitudinalstudie, die dieselben Forschungsteilnehmer/innen zu verschiedenen Zeitpunkten (zu Beginn, in der Mitte, am Ende der Studie) beobachtet oder befragt automatisch als Triangulationsstudie bezeichnet werden müsste, was jedoch an der Kernidee der Triangulation vorbeigeht, weil die als zentral benannten Funktionen – Validierung und Erkenntniserweiterung – so nicht erfüllt werden. Stattdessen dienen longitudinale Studien der Erfassung, Dokumentation und im Idealfall auch der Erklärung von Prozessen und Entwicklungen, und dafür sind ← 207 | 208 →nun einmal Daten vonnöten, die zu verschiedenen Zeitpunkte erhoben und zueinander in Beziehung gesetzt, aber nicht miteinander trianguliert werden.

Denzin zufolge sollen verschiedene Verfahren die eine richtige oder gültige Sicht auf den Gegenstand ermöglichen. Diese Position wurde u.a. von Silverman (1985) massiv kritisiert, der nicht nur gegen das Konstrukt einer ‚Master-Wirklichkeit‘ argumentiert, sondern auch gegen die hier zugrundeliegende Annahme, dass überhaupt ein Vollbild eines Gegenstands möglich sei. Hier stellt sich die Frage, wann ein Gegenstand vollständig erfasst ist bzw. wer dies entscheidet. In der einschlägigen forschungsmethodologischen Diskussion ist die Auffassung konsensfähig, dass es keine objektive Realität gibt, sondern dass diese individuell konstruiert bzw. interaktiv ko-konstruiert wird. Eine Aufgabe der qualitativen Forschung ist a) die Re-Konstruktion und b) die Interpretation dieser Konstruktionen. Trotz systematischem und methodisch kontrolliertem Vorgehen und dem Einsatz modernster Mitschnitttechnik bleiben Beobachtungen und Interpretationen durch Forschende ein Stück weit subjektiv. Die Glaubwürdigkeit empirischer Forschung steht daher in einem engen Zusammenhang mit der Anerkennung der Unvermeidbarkeit der Subjektivität und dem gezielten Versuch, reflektiert und angemessen mit dieser Problematik umzugehen und durch eine maximal transparente Dokumentation der Vorgehensweise Nachvollziehbarkeit und damit Intersubjektivität herzustellen. Der erkenntnistheoretische und -praktische Nutzen der Triangulationsstrategie ist hier offenkundig. Von Bedeutung ist auch die Frage nach dem Verhältnis und der Wechselwirkung der verschiedenen Daten, Forscher, Theorien oder Methoden: Handelt es sich um eine bloße Akkumulation oder findet eine bedeutsame Integration statt? Generell wird in der einschlägigen Literatur gegen einen rein technokratischen Umgang mit Methoden argumentiert und die Position vertreten, dass die schlichte Aggregation von Informationen über einen Gegenstand nicht zwingend einen Mehrwert hat oder zu verbesserten Erkenntnissen führt.

Als ein willkommener Nebeneffekt der Triangulation wird die daraus resultierende Demokratisierung von Forschung betrachtet, und zwar insofern als durch die angestrebte Gleichwertigkeit von Perspektiven – z.B. von Forschenden und Forschungsteilnehmern oder von Vertreterinnen und Vertretern unterschiedlicher theoretischer und/oder methodisch-methodologischer Ansätze – Hierarchien aufgebrochen oder gar aufgehoben werden. Auch das Postulat der Gleichwertigkeit methodischen Ansätze und der Methoden als Voraussetzung für eine echte Triangulation wird in der einschlägigen Diskussion immer wieder betont, wobei ich den Aspekt der Parität von Methoden für weniger relevant halte als den Aspekt der Angemessenheit (mehr dazu in Abschnitt 3). Gleichzeitig ist festzustellen, dass die bisher entwickelten und von Mayring (2001) zusammenfassend dargestellten Modelle – nämlich das Vorstudien-, das ← 208 | 209 →Verallgemeinerungs-, das Vertiefungs- und das Triangulationsmodell (für eine ausführliche Darstellung der verschiedenen Modelle siehe Settinieri in diesem Band) – zwar alle mehrmethodisch, aber bis auf das gleichzeitig-synergierende Triangulationsmodell nicht alle triangulierend sind. In dem Vorstudienmodell, das auch als Phasenmodell der Methodenintegration bezeichnet wird, werden zunächst mittels qualitativer Verfahren Hypothesen generiert, die dann mittels quantitativer Verfahren getestet werden. Anders als in der einschlägigen Literatur immer wieder moniert, bedeutet die vorgelagerte Generierung von Hypothesen aus meiner Sicht keineswegs, dass qualitativen Verfahren lediglich Hilfs- oder Dienstleistungsfunktionen zukommen. Im Gegenteil ist die systematische und methodisch kontrollierte Gewinnung von Hypothesen ein unverzichtbarer inhaltlicher und methodischer Schritt, der die gesamte weitere Forschung bestimmt. Die zuvor skizzierte Wahrnehmung seitens der qualitativ Forschenden scheint mir auf einem vollkommen zu Unrecht bestehenden Minderwertigkeitskomplex gegenüber quantitativen Ansätzen zu beruhen.

Grundsätzlich lautet die angesichts der aktuell konstruktivistisch geprägten Sozialforschung vorherrschende Ansicht, dass die Realität nicht nur durch uns, sondern auch durch unsere Methoden konstituiert wird und dass kongruierende Ergebnisse somit eher unwahrscheinlich sind. Erkenntnisse sind also methodeninduziert oder zumindest methodenabhängig, und somit ist die Wahrscheinlichkeit, durch den Einsatz von mehreren Methoden Divergenzen zu erhalten, deutlich größer als die Aussicht auf Konvergenzen. Zusammenfassend lässt sich daher zumindest für die qualitative Forschung konstatieren, dass seit den 1980er Jahren das Ziel der Validierung mittels der Triangulationsstrategie immer seltener verfolgt wird. Für den Fall, dass Validierung und damit Kongruenz angestrebt wird, ist allerdings zu beachten, dass sich unabhängig voneinander zwei oder mehrere Personen irren können. So warnt z.B. Lamnek: „Auch zwei übereinstimmende Befunde erhalten durch die Übereinstimmung keine höheren Wahrheitsgehalt; sie können gleichwohl beide falsch sein.“ Andererseits ist die Wahrscheinlichkeit, „dass zwei gleichlautende Erkenntnisse auf der Basis unterschiedlicher Methoden gleichsinnig falsch sind, […] aufgrund der wahrscheinlichkeitstheoretisch geforderten multiplikativen Verknüpfung sehr gering, wenngleich ein solches Ereignis selbst nicht auszuschließen ist“ (Lamnek 2005: 285).

Neben den zuvor genannten Einschränkungen auf theoretischer, konzeptioneller und funktionaler Ebene gibt es aber auch eine Reihe ganz praktischer Schwierigkeiten mit der Anwendung der mehrmethodischen Triangulationsstrategie. So erfordert sie zunächst einmal noch mehr Methodenkompetenz als die Anwendung einer Einzelmethode. Vor allem die Tatsache, dass die wissenschaftstheoretischen Grundlagen einer jeden Methode gekannt werden müssen, ← 209 | 210 →stellt Forschende, die in anderen wissenschaftlichen ‚Schulen‘ oder Paradigmen sozialisiert worden sind und somit bestimmte methodisch-methodologische Präferenzen haben, vor große Herausforderungen. Es reicht also nicht, lediglich eine offene Einstellung gegenüber der Kombination oder Integration von mehreren methodischen Verfahren zu haben. Damit mehrmethodische Forschung tatsächlich einen echten Mehrwert haben kann, bedarf es einer entsprechenden Multi-Kompetenz. Dazu gehört die Fähigkeit, begründete Entscheidungen hinsichtlich der Kombinierbarkeit von Methoden treffen zu können und zu wissen, welche Verfahren in welcher Weise miteinander angewendet werden können. Eine nicht ausreichend reflektierte Kombination kann zu Fehlern bei der Anwendung führen und falsche Ergebnisse und damit u.U. fehlerhafte Theoriebildungen zur Folge haben. Hinzu kommt – wie Stefer (in diesem Band: 132) zutreffend feststellt – die Tatsache, dass Forschende „nicht nur in beiden Analysearten bewandert sein müssen, sondern auch die durch die Triangulation entstehende Komplexität zu bewältigen haben. Schließlich ist nicht alles, was sich transformieren, mixen, triangulieren oder integrieren lässt, auch wirklich sinnvoll“. So sind bei der Kombination von Methoden verschiedener Paradigmen (between-method) insbesondere auch deren jeweilige Eigengesetzlichkeiten sowie die jeweiligen Gütekriterien zu beachten. Beispielsweise unterscheiden sich die Sampling-Strategien – d.h. die Art und Weise der Rekrutierung und Auswahl geeigneter Probanden bzw. Forschungsteilnehmerinnen – von quantitativen und qualitativen Verfahren erheblich voneinander, so dass nicht ohne Weiteres von der Validität von Daten auszugehen ist, die qualitativ erhoben und quantitativ ausgewertet worden sind. Die mit der Triangulationsstrategie verbundene Hoffnung auf einen Mehrwert an Qualität, Verlässlichkeit und Glaubwürdigkeit kann nur dann erreicht werden, wenn die Spezifika der jeweiligen Kombinationen angemessen bedacht werden.

Zusammenfassend und mit Bezug auf die Herkunft des Terminus Triangulation sollte grundsätzlich eine eher enge bzw. strenge Definition vertreten werden, der zufolge sich die Strategie auf denselben Gegenstand beziehen muss. Im Unterschied zu Ivankova und Creswell (2009), die nur dann von Triangulation sprechen, wenn quantitative und qualitative Verfahren in einer Studie miteinander kombiniert werden würden, ist es aus meiner Sicht vollkommen irrelevant, ob es sich um within-method oder between- method Vorgehensweisen handelt.

3. Angemessenheit – das Hauptkriterium für die Anwendung der Triangulationsstrategie

Das im Folgenden diskutierte Gütekriterium der Angemessenheit bezieht sich auf den gesamten Forschungsprozess, d.h. von der Erhebung über die ← 210 | 211 →Aufbereitung bis hin zur Auswertung und zur Interpretation von Daten. Diesem Zentralbegriff qualitativer Forschungen (vgl. auch Brüsemeister 2008) kommt in Bezug auf die Triangulationsstrategie meiner Auffassung nach eine besondere Gültigkeit zu.

Wie in so vielen Bereichen trifft auch in der empirischen Forschung die Losung „Viel hilft viel!“ nur begrenzt zu. So ist der Einsatz möglichst vieler Methoden im Rahmen einer einzigen Studie nicht per se ein Wert (vgl. dazu z.B. Lamnek 2005: 291). Vielmehr muss die Anwendung mehrerer Methoden – genau wie die Anwendung einer einzelnen Methode – dem Gegenstand angemessen sein, sich für die Beantwortung der Forschungsfrage eignen und dem übergeordneten Erkenntnisinteresse dienen. Die Entscheidung für die jeweilige methodische Auswahl muss immer entsprechend nachvollziehbar begründet werden – und zwar unabhängig von der Menge der Methoden. Es geht hier um die optimale Passung zwischen dem spezifischen Forschungsgegenstand und der Methode. Dabei ist grundsätzlich zu beachten, dass es selbstverständlich eine Vielzahl von Fragestellungen gibt, für die die Anwendung einer Einzelmethode nicht nur ausreichend, sondern auch besser für ihre Beantwortung geeignet ist. Allerdings ist das Kriterium der Angemessenheit insgesamt unscharf und bleibt somit weitgehend der Deutung jedes einzelnen Forschenden überlassen. Da es jedoch für den methodisch-methodologischen Diskurs unverzichtbar ist, ein konsensfähiges Begriffsverständnis zu haben, sollen im Folgenden diesbezügliche Überlegungen angestellt werden. Sie basieren auf den Recherchen von Stefer (2013), der die einschlägige forschungsmethodologische Literatur im Hinblick auf ihre Thematisierung der Angemessenheit von Methoden ausgewertet und dabei eine Reihe von Faktoren identifiziert hat, von denen die mir am wichtigsten erscheinenden im Folgenden grob skizziert werden sollen.

Zunächst einmal ist es unverzichtbar, dass der Gegenstand inklusive seiner Spezifika präzise benannt und definiert wird. Da die Auswahl von Methoden auch von der verfolgten Fragestellung und ihrer Zielsetzung abhängig ist, müssen auch diese möglichst genau und eindeutig formuliert werden: Sollen verallgemeinerbare Ergebnisse oder dichte Einzelfallbeschreibungen geliefert werden? Welche Methoden angewendet werden (können), hängt natürlich nicht zuletzt auch von den Forschungsteilnehmer/innen und ihren Eigenschaften, Kompetenzen und Bereitschaften ab sowie davon, welches Bild Forscher/innen von ihnen haben und welche Erwartungen damit verknüpft sind. Sind es Erwachsene, Jugendliche oder Kinder? Handelt es sich um Muttersprachler oder um Nicht-Muttersprachler der untersuchten Zielsprache? Über welchen Bildungshintergrund verfügen die Probandinnen und Probanden? Können also z.B. Befragungen bzw. Introspektionen durchgeführt werden, oder muss ← 211 | 212 →sich die Forschung auf Beobachtungen und die Dokumentation und Analyse von Produkten beschränken? So kann man als empirische Fremdsprachenforscherin zwar ein ausgeklügeltes und aktuelle forschungsmethodologische Entwicklungen berücksichtigendes Design entwerfen, mit dem man z.B. interkulturelle Kompetenzen von Schülerinnen und Schülern in der Sekundarstufe, Fähigkeitsselbstkonzepte von Lehramtsstudierenden oder subjektive Lehrertheorien über das selbstgesteuerten Lernen im Fremdsprachenunterricht umfassend und vertiefend untersuchen kann. Wenn aber dabei die Protagonisten (also die Forschungsteilnehmer/innen) mit ihren kognitiven, affektiven oder sozialen Spezifika nicht in angemessener Weise berücksichtigt werden, ist das Scheitern solcher empirischer Studien vorprogrammiert. Hier kommt auch die von Appel und Rauin (in diesem Band) angesprochene Problematik der Invasivitätseffekte ins Spiel: Ein zu differenziertes Datenerhebungsdesign und die daraus resultierenden technischen Apparaturen können zu Verfälschungen, mindestens aber zu Verzerrungen und somit zu Beeinträchtigungen der Validität einer Studie führen. Nicht zu unterschätzen ist auch die mögliche zeitliche und je nach Thema ggf. auch psychische Belastung, die eine empirische Forschung für die Forschungsteilnehmer/innen bedeuten kann. Hier kommen also auch grundsätzliche ethische Fragen ins Spiel wie z.B.: Was kann/darf Forschungsteilnehmer/innen zugemutet werden (vgl. auch Viebrock 2009, Bach/Viebrock 2012)?

Welche Art von Forschung durchgeführt wird und welche empirischen Methoden angewendet werden, hängt ferner auch vom Interesse der Adressaten einer Untersuchung und ihrer Ergebnisse ab. Handelt es sich um ein wissenschaftliches Fachpublikum, das an inhaltlichen und methodischen Details interessiert ist und sich ggf. für die Replikation der vorgestellten Studie interessiert, oder handelt es sich z.B. um eine Zuhörerschaft, die einen allgemeinen Überblick z.B. über ein ihnen eher unvertrautes Thema wünscht, mit dem sie sich u.U. nicht weiter befassen werden, so dass ein allgemeines methodisches Instrumentarium ausreichend ist.

Ein weiterer Faktor zur Beurteilung der Angemessenheit ist die Genese der Methode. So stellen Flick, von Kardorff und Steinke (2000: 22) fest, dass sich für fast jedes Verfahren zurückverfolgen lässt, „für welchen besonderen Forschungsgegenstand es entwickelt wurde. Ausgangspunkt war in der Regel, dass die vorhandenen Methoden für diesen spezifischen Gegenstand nicht geeignet waren.“ Die Kenntnis der Historie einer Methode ermöglicht nicht nur ein besseres Verständnis ihrer Besonderheiten, sondern eben auch eine Einschätzung hinsichtlich der Frage eines möglichen Transfers auf einen Gegenstand, für den sie nicht originär entwickelt worden ist. Insgesamt ist festzustellen, dass in den ← 212 | 213 →meisten qualitativen Forschungen hochgradig individuelle Designs für die bestmögliche Erfassung des zu untersuchenden Gegenstands entworfen werden. Dies bringt zwar den Vorteil der optimalen Passung mit sich, eine solche Vorgehensweise hat aber den Nachteil, dass Replikationsstudien nur sehr schwer oder ggf. gar nicht möglich sind. Dies ist eine in der forschungsmethodologischen Diskussion immer wieder formulierte Kritik an qualitativen Designs, insbesondere solchen, die triangulativ arbeiten.

Ein im vorliegenden Zusammenhang zentraler Faktor betrifft das Verhältnis von Aufwand, Ressourcen und Nutzen. Insbesondere Forschungsnovizen – aber nicht nur sie – unterschätzen häufig den Aufwand, der mit der Durchführung, der Aufbereitung und der Auswertung z.B. von qualitativen Interviews, Videomitschnitten fremdsprachenunterrichtlicher Interaktionen oder Erfassungen von L2-Erwerbsprozessen verbunden ist. Solche Fehleinschätzungen führen nicht selten zu den gefürchteten Datenfriedhöfen, d.h. große Mengen an erhobenen, z.T. sogar aufbereiteten Daten werden meist aus zeitlichen und ressourciellen Gründen nicht ausgewertet und so zu ‚toten‘ Daten. Der immense Aufwand, der insbesondere in mehrmethodisch angelegten qualitativen Studien von den Forschenden betrieben werden muss, wird auch in nahezu allen Beiträgen im vorliegenden Sammelband thematisiert. Im Falle von Forscherteams kann der mit der Triangulationsstrategie verbundene Aufwand zwar verteilt, aber nicht grundsätzlich verringert werden.

Aufgrund der Tatsache, dass sich die Verknüpfung qualitativer und quantitativer Daten immer mehr zur Normalität sozialwissenschaftlicher und damit auch fremdsprachendidaktischer Forschung entwickelt und sich gleichzeitig die technischen Möglichkeiten der Datenverarbeitung enorm verbessert haben, werden in letzter Zeit auch zunehmend Software-Programme zu computergestützten Analyse großer Datenmengen entwickelt und erfolgreich eingesetzt (vgl. die ausführliche Darstellung von Stefer, in diesem Band). Die Geschwindigkeit und Effizienz, mit der elektronisch erfasste Daten inzwischen verarbeitet werden können, ist beachtlich, aber auch sehr verführerisch, da grundsätzlich die Gefahr besteht, dass dann möglicherweise überflüssige Auswertungen nur deshalb vorgenommen werden, weil es möglich ist, nicht aber weil es sinnvoll ist. Die hier skizzierte Problematik ist nicht zu unterschätzen und sollte offener diskutiert werden, auch um gemeinsam Kriterien zu entwickeln, die als Entscheidungshilfen fungieren können, ob und inwiefern sich der mit einem mehrmethodischen Vorgehen verbundene Aufwand (wie z.B. Einarbeitung in verschiedene Theorien und Methoden, Einbeziehung verschiedener Kolleginnen und Kollegen, Konzeption und Durchführung longitudinaler Studien) tatsächlich lohnt, d.h. den erhofften Erkenntnisgewinn bringt.

← 213 | 214 →Eng mit dem vorangegangenen Faktor verknüpft ist der folgende, nämlich die Forschungskompetenzen der jeweiligen Wissenschaftler. Wenngleich es ideal wäre, so kann sich selbstverständlich nicht jeder empirisch Forschende in allen für die Untersuchung eines Gegenstands relevanten bzw. geeigneten Methoden auskennen. Mögliche Konsequenzen könnten darin bestehen, dass man sich selbst weiterbildet und methodisch-methodologische Kompetenzen in bis dahin unbekannten Verfahren erwirbt oder dass man Experten – seien es Kolleginnen oder Kollegen, Experten aus einschlägigen Disziplinen oder universitäre Forschungsreferate – zu Rate zieht und um Unterstützung bittet. Außer bei Nachwuchswissenschaftlern, die sich ihr methodologisch-methodisches Rüstzeug in der Regel erst noch erarbeiten und dabei häufig außerordentliche und hochaktuelle Kompetenzen erwerben, werden in den meisten Fällen diejenigen Methoden ausgewählt und eingesetzt, hinsichtlich derer Forschende bereits über sichere Kenntnisse und Expertisen verfügen. Da wir es in der qualitativen Fremdsprachenforschung mit komplexen Gegenständen zu tun haben, stellt sich in Bezug auf das Kriterium der Angemessenheit nicht zuletzt auch die Frage nach der Offenheit der Methode: Ermöglichen sie a) die ganzheitliche Erfassung des Gegenstands und b) das Hinterfragen von Vorannahmen der Forschenden? Oder erfassen sie nur einen Ausschnitt des Gegenstands, so dass die Einbeziehung weiterer Methoden indiziert ist?

Resümierend lässt sich festhalten, dass alle genannten Faktoren hinsichtlich der Frage nach der Angemessenheit bzw. der Passung von Methoden für eine empirische Forschung zu berücksichtigen sind, wobei den Faktoren Gegenstand und Fragestellung höchste theoretische Priorität zukommt, während den Faktoren Eigenschaften von Forschungsteilnehmerinnen und -teilnehmern, Verhältnis von Aufwand, Ressourcen und Nutzen sowie methodisch-methodologische Kompetenzen der Forschenden höchste praktische Priorität beizumessen ist.

4. Fazit

Die Anwendung der Triangulationsstrategie ist Ausdruck eines gewachsenen Bewusstseins über die Relativität von Perspektiven, d.h. seitdem anerkannt wurde, dass nicht von einer objektiven Realität ausgegangen werden kann und es immer mehrere Perspektiven auf die Wirklichkeit und ihre Gegenstände gibt, erscheint es sinnvoll und wichtig, diese auch zu berücksichtigen, um eine halbwegs adäquate Rekonstruktion des jeweils fokussierten Wirklichkeitsausschnitts vorzunehmen.

Ein Ziel des vorliegenden Beitrags bestand darin zu zeigen, dass der Einsatz mehrerer Methoden innerhalb einer Forschung und die Anwendung der ← 214 | 215 →Triangulationsstrategie nicht zwingend dasselbe sind. Im Rahmen einer Untersuchung mehrere Methoden, Verfahren etc. kumulativ einzusetzen, ohne sich über deren genaue Funktion und über ihre Wechselwirkungen Gedanken zu machen, kann zwar – vielleicht aber nur zufällig – zu relevanten Ergebnissen führen, eine wissenschaftliche Vorgehensweise im Sinne einer systematischen, begründeten und kontrollierten Anwendung forschungsmethodischer Verfahren ist damit jedoch nicht erreicht. Was zur Steigerung der Qualität empirischer Studien beiträgt, sind transparente, nachvollziehbare, strukturierte und fundierte Entscheidungen hinsichtlich der Auswahl und des Einsatzes von Methoden, und zwar einerseits sowohl bei der Datenerhebung, bei der Datenaufbereitung als auch bei der Datenauswertung und andererseits sowohl bei der Anwendung einer einzelnen Methode als auch beim Einsatz mehrerer Methoden. Grundsätzlich gilt jedoch, dass solange Grundprinzipien wie Angemessenheit, Systematizität und Nachvollziehbarkeit eingehalten werden, kein Verfahren wissenschaftlicher als ein anderes ist. Die methodologische Diskussion um eine systematisierte Kombination steht erst am Anfang: Sie muss weitergehen!

Falls Validierung überhaupt möglich ist, dann kann sie nur durch die Anwendung der Triangulationsstrategie erfolgen. Aus meiner Sicht besteht die Funktion der Triangulation in dem Versuch, verbesserte Erkenntnisse zu erzielen. Dass dieser Versuch zeitweise zu einer Modeerscheinung degeneriert ist – wie es z.B. Lamnek (2005) beklagt –, mag zwar stimmen, ist aber kein Grund, die Forschungsstrategie als Ganze in Zweifel zu ziehen. Allerdings ist zu beachten, dass unterschiedliche Gegenstände unterschiedliches Triangulationspotenzial haben, d.h. nicht alle Fragestellungen lassen alle Triangulationstypen zu.

Der kombinierte Einsatz von mehreren Methoden ist eine inzwischen so weit verbreitete und populäre Vorgehensweise in der empirischen Forschung, dass Tashakkori/Teddlie (2010: ix) von einem third methodological movement sprechen. Ob und wie sich diese Bewegung weiterentwickelt, bleibt abzuwarten. Wenn allerdings nicht in absehbarer Zeit einige der immer wieder aufgeworfenen kritischen Aspekte bearbeitet werden, steht zu befürchten, dass es keine konstruktive Weiterentwicklung geben wird. So bedarf u.a. die folgende Frage einer Klärung: Welche Methoden können/dürfen miteinander kombiniert werden, um einen möglichst großen Erkenntnisgewinn zu bieten?

Ein in jüngster Zeit immer wieder formuliertes Desiderat betrifft die Bildung von Forschungsverbünden oder zumindest die kollegiale bzw. kooperative Erstellung und Nutzung gemeinsamer Korpora oder Datenbanken. Hier geschieht leider nach wie vor viel zu wenig, was nicht zuletzt damit zusammenhängt, dass viele empirische Daten im Rahmen von Qualifikationsarbeiten erhoben und aufbereitet werden, die von den Autorinnen und Autoren dann als ‚ihre‘ Daten ← 215 | 216 →betrachtet werden. Dies ist angesichts des enormen Aufwands, der damit verbunden sein kann, nachvollziehbar. Für die Weiterentwicklung empirischer Disziplinen wie der Fremdsprachenforschung wäre die ‚polyvalente‘ Nutzung von bereits vorhandenen Daten jedoch ein enormer Fortschritt, nicht zuletzt deshalb, weil er dazu beiträgt, Zeit und Kosten zu sparen. Es soll an dieser Stelle jedoch nicht verschwiegen werden, dass die Schaffung gemeinsamer Korpora z.B. aufgrund der nicht allen Bereichen gleichermaßen standardisierten Datenaufbereitung (vgl. z.B. das Problem unterschiedlicher Transkriptionskonventionen) kein trivialer Prozess ist, der meiner Meinung dennoch angegangen werden sollte, um langfristig die vorhandenen Ressourcen besser nutzen zu können.

Unterrichtsbeobachtungen sind aufwendig und komplex, ermöglichen jedoch Einsichten in interaktive Lehr- und Lernprozesse, die auf keine andere Weise zu gewinnen sind. Klieme und Rakoczy (2008: 225) fassen das Ziel der Unterrichtsforschung folgendermaßen zusammen: „Um wissenschaftliche Erkenntnisse und praktisch handhabbares Wissen zu erzeugen, bedarf es einer systematischen Beobachtung und Beschreibung der Interaktionsprozesse von Lehrern und Schülern sowie der Analyse ihres Zusammenhangs mit Schülermerkmalen (Lernvoraussetzungen, -strategien und -ergebnissen) und Lehrermerkmalen (z.B. allgemein-pädagogischem und fachdidaktischem Wissen), kurz: einer empirischen Unterrichtsforschung“. Inzwischen gibt es zahlreiche technische Möglichkeiten, die eine solche faktorenkomplexe Forschung unterstützen können. Die im Zusammenhang z.B. mit der Videografie inzwischen mögliche Perspektivenvielfalt, d.h. der Blick auf dieselbe Situation aus verschiedenen Perspektiven, kann einen echten Erkenntnisgewinn ermöglichen – hier erscheint die Anwendung der Triangulationsstrategie also besonders fruchtbar. Das vorhandene Potenzial wird in den Beiträgen von Seifert sowie von Appel und Rauin (beide in diesem Band) überzeugend dargestellt. Zusätzlich zu den verschiedenen Perspektiven können auch zusätzliche Daten (Lautes Erinnern, Befragungen, Tests) erhoben werden, die zu einem besseren Verständnis der Videodaten beitragen und aus meiner Sicht eine hervorragende Möglichkeit darstellen, die beiden Funktionen der Triangulation – Validierung und Vertiefung – miteinander zu kombinieren. Die beispielsweise im Falle der Kombination von online oder offline durchgeführten Beobachtungen und anschließenden retrospektiven Befragungen (lautes Erinnern bzw. stimulated recall) ermöglichte Ermittlung der Innensicht von Forschungsteilnehmern bzw. die Rekonstruktion ihrer Wirklichkeitskonstruktion lassen Erkenntnisse zu, die mittels einer Einzelmethode nicht erzielbar wären.

In Bezug auf die in der Fremdsprachenforschung in jüngster Zeit vermehrt durchgeführten videobasierten Beobachtungsstudien teile ich daher das von Appel und Rauin (in diesem Band: 76) formulierte Fazit, dass sie „nicht nur ← 216 | 217 →Möglichkeiten zur Triangulation eröffnen, sondern sie in Gestalt der Verknüpfung und Kombination von Daten, der Variation von Instrumenten und der Beteiligung mehrerer Forscher regelrecht erfordern, um Beobachtungsdaten in ihrem Aussagegehalt aufwerten zu können“, wobei eine bewusste und reflektierte Auseinandersetzung mit den Verfahren unverzichtbar ist.

Literatur

Aguado, Karin (2009). Möglichkeiten und Grenzen mehrmethodischer empirischer Fremdsprachenlehr- und -lernforschung. In: Baumann, Beate / Nied, Martina / Hoffmann, Sabine (Hrsg.). Qualitative Forschung in Deutsch als Fremdsprache. Frankfurt/Main: Lang, 13-22.

Aguado, Karin (2014). Triangulation. In: Settinieri, Julia / Demirkaya, Sevilen / Feldmeier, Alexis / Gültekin-Karakoç, Nazan / Riemer, Claudia (Hrsg.). Empirische Forschungsmethoden für Deutsch als Fremd- und Zweitsprache. Eine Einführung. Paderborn: Schöningh, 47-56.

Aguado, Karin / Riemer, Claudia (2001). Triangulation: Chancen und Grenzen mehrmethodischer empirischer Forschung In: Aguado, Karin; Riemer, Claudia (Hrsg.). Wege und Ziele. Zur Theorie, Empirie und Praxis des Deutschen als Fremdsprache (und anderer Fremdsprachen). Festschrift für Gert Henrici. Baltmannsweiler: Schneider-Verlag Hohengehren, 245-257.

Appel, Johannes / Rauin, Udo (2014). Methoden videogestützter Beobachtungsverfahren in der Lehr-Lern-Forschung. In: Elsner, Daniela / Viebrock, Britta (Hrsg.). Triangulation in der Fremdsprachenforschung. Frankfurt/Main: Lang, 59-79.

Arbeitsgruppe Bielefelder Soziologen (Hrsg.) (1976). Kommunikative Sozialforschung. Alltagswissen und Alltagshandeln, Gemeindemachtforschung, Polizei, politische Erwachsenenbildung. München: Fink.

Bach, Gerhard / Viebrock, Britta (2012). Was ist erlaubt? Forschungsethik in der Fremdsprachenforschung. In: Doff, Sabine (Hrsg.). Fremdsprachenunterricht empirisch erforschen: Grundlagen, Methoden, Anwendung. Tübingen: Narr, 19-35.

Birkner, Hans Albert / Hackfort, Dieter (2006). Triangulation als Grundlage diagnostischen Urteilens. Zeitschrift für Sportpsychologie 13/2, 75-80.

Blaikie, Norman W. (1991). A Critique of the Use of Triangulation in Social Research. Quality and Quantity 25/2, 115-136.

Brüsemeister, Thomas (2008). Qualitative Forschung. Ein Überblick. 2. Aufl. Wiesbaden: VS Verlag für Sozialwissenschaften.

← 217 | 218 →Campbell, David T. / Fiske, Donald W. (1959). Convergent and Discriminant Validation by the Multitrait-multimethod Matrix. Psychological Bulletin 56, 81-105.

Dallinger, Sara / Jonkmann, Kathrin (2014). Competencies and Motivation in the Bilingual History Classroom (COMBIH) – Eine Längsschnittstudie zu deutsch-englischem Geschichtsunterricht an Gymnasien. In: Elsner, Daniela / Viebrock, Britta (Hrsg.). Triangulation in der Fremdsprachenforschung. Frankfurt/Main: Lang, 181-201.

Denzin, Norman K. (1970). The Research Act. A Theoretical Introduction to Sociological Methods. Chicago: Aldine.

Denzin, Norman K. / Lincoln, Yvonna S. (1994). Introduction: Entering the Field of Qualitative Research. In: Denzin, Norman K. / Lincoln, Yvonna S. (Hrsg.). Handbook of Qualitative Research. Thousand Oaks u. a.: Sage, 1-17.

Elsner, Daniela / Viebrock, Britta (2014). Einleitung: Triangulation in der Fremdsprachenforschung. In: Elsner, Daniela / Viebrock, Britta (Hrsg.). Triangulation in der Fremdsprachenforschung. Frankfurt/Main: Lang, 7-16.

Fielding, Nigel G. / Fielding, Jane L. (1986). Linking Data. Beverly Hills: Sage.

Flick, Uwe (2004). Triangulation. Eine Einführung. Wiesbaden: VS Verlag für Sozialwissenschaften.

Flick, Uwe / Kardorff, Ernst von / Steinke, Ines (2000). Was ist qualitative Forschung. Einführung und Überblick. In: Flick, Uwe / Kardorff, Ernst von / Steinke, Ines (Hrsg.). Qualitative Forschung. Ein Handbuch. 3. Aufl. Reinbek bei Hamburg: Rowohlt, 13-29.

Geertz, Clifford (1983). Dichte Beschreibung. Beiträge zum Verstehen kultureller Systeme. Frankfurt/Main: Suhrkamp.

Grotjahn, Rüdiger (2006). Zur Methodologie der Fremdsprachenerwerbsforschung. In: Scherfer, Peter / Wolff, Dieter (Hrsg.). Vom Lehren und Lernen fremder Sprachen: Eine vorläufige Bestandsaufnahme. Frankfurt/Main: Lang, 247-270.

Ivankova, Nataliya. V. / Creswell John W. (2009). Mixed Methods. In: Heigham, J. / Croker, R. A. (Hrsg). Qualitative Research in Applied Linguistics: A Practical Introduction. Basingstoke: Palgrave Macmillan, 135-161.

Kelle, Udo / Erzberger, Christian (2000). Qualitative und quantitative Methoden: kein Gegensatz. In: Flick, Uwe / Kardorff, Ernst von / Steinke, Ines (Hrsg.). Qualitative Forschung. Ein Handbuch. 3. Aufl. Reinbek bei Hamburg: Rowohlt, 299-309.

Klieme, Eckhard / Rakoczy, Katrin (2008). Empirische Unterrichtsforschung und Fachdidaktik. Outcome-orientierte Messung und Prozessqualität des Unterrichts. Zeitschrift für Pädagogik 54/2, 222-237.

← 218 | 219 →Kuckartz, Udo (2014). Mixed Methods: Methodologie, Forschungsdesigns und Analyseverfahren. Wiesbaden: VS Verlag für Sozialwissenschaften.

Lamnek, Siegfried (2005). Qualitative Sozialforschung. Lehrbuch. 4. Aufl. Weinheim/Basel: Beltz.

Mayring, Philipp (2001). Kombination und Integration qualitativer und quantitativer Analyse. Forum Qualitative Sozialforschung/Forum Qualitative Social Research 2, Art. 6. Online: http://nbn-resolving.de/urn:nbn:de:0114-fqs010162 [10. 3.2014].

Mayring, Philipp (2002). Einführung in die qualitative Sozialforschung. Weinheim/Basel: Beltz.

Schütz, Alfred (1974). Der sinnhafte Aufbau der sozialen Welt. Eine Einleitung in die verstehende Soziologie. Frankfurt/Main: Suhrkamp

Seifert, Heidi (2014). Videografie als Instrument zur Erforschung von Interaktionsprozessen im Elementarbereich. In: Elsner, Daniela / Viebrock, Britta (Hrsg.). Triangulation in der Fremdsprachenforschung. Frankfurt/Main: Lang, 81-100.

Settinieri, Julia (2014). Forschst Du noch, oder triangulierst Du schon? In: Elsner, Daniela / Viebrock, Britta (Hrsg.). Triangulation in der Fremdsprachenforschung. Frankfurt/Main: Lang, 17-35.

Silverman, David (1985). Qualitative Methodology and Sociology. Aldershot: Gower.

Stefer, Claus (2013). Die Gegenstandsangemessenheit empirischer Datenerhebungsmethoden im Kontext von Lehrevaluationen an Hochschulen. Dissertation am Fachbereich Erziehungswissenschaften, Philipps-Universität Marburg/Lahn.

Stefer, Claus (2014). Ansätze zur Triangulation mithilfe qualitativer Forschungssoftware (MAXQDA 11). In: Elsner, Daniela / Viebrock, Britta (Hrsg.). Triangulation in der Fremdsprachenforschung. Frankfurt/Main: Lang, 101-133.

Tashakkori, Abbas / Teddlie, Charles (2003). Major Issues and Controversies in the Use of Mixed Methods in Social and Behavioral Research. In: Tashakkori, Abbas / Teddlie, Charles (Hrsg.). Handbook of Mixed Methods in Social and Behavioral Research. 2. Aufl. Thousand Oakes, CA: Sage, ix-xv.

Viebrock, Britta (2009). Fremdsprachenforschung und Research Ethics. In: Lütge, Christiane / Kollenrott, Anne Ingrid / Ziegenmeyer, Birgit / Fellmann, Gabriela (Hrsg.).Empirische Fremdsprachenforschung – Konzepte und Perspektiven. Frankfurt/Main: Lang, 39-59.

______________________

1 In den Beiträgen dieses Bandes werden maskuline und feminine Formen in unterschiedlicher Weise verwendet. Unter der Voraussetzung, dass jeweils beide Geschlechter gemeint sind, haben die Herausgeberinnen entschieden, diese Vielfalt bestehen zu lassen.← 219 | 220 →