Show Less
Open access

Unsicherheit als Herausforderung für die Wissenschaft

Reflexionen aus Natur-, Sozial- und Geisteswissenschaften

Series:

Edited By Nina Janich and Lisa Rhein

Das Buch präsentiert eine disziplinäre Vielfalt an Perspektiven auf Unsicherheit in der Wissenschaft. Schwerpunkte sind Klimaforschung, Umweltwissenschaft und Technikfolgenabschätzung. Die Beiträge diskutieren Gründe und Folgen wissenschaftlicher Unsicherheit und einer entsprechenden Verantwortung der Wissenschaft. Vertreten sind Kommunikationswissenschaft, Linguistik, Philosophie, Politikwissenschaft, Soziologie und Volkswirtschaftslehre sowie Chemie und Klimawissenschaft.

Der Band dokumentiert die ungewöhnliche Kooperation zweier Schwerpunktprogramme der Deutschen Forschungsgemeinschaft – «Wissenschaft und Öffentlichkeit» und «Climate Engineering: Risks, Challenges, Opportunities?» –, die sich auf einer Tagung an der TU Darmstadt mit weiteren WissenschaftlerInnen zu Austausch und kritischer Reflexion getroffen haben.

Show Summary Details
Open access

Wissen, Nichtwissen, Unwissen, Unsicherheit: Zur Operationalisierung und Auswertung von Wissensitems am Beispiel des Klimawissens (Monika Taddicken / Anne Reif / Imke Hoppe)

Monika Taddicken, Anne Reif & Imke Hoppe (Braunschweig und Hamburg)

Wissen, Nichtwissen, Unwissen, Unsicherheit: Zur Operationalisierung und Auswertung von Wissensitems am Beispiel des Klimawissens

Abstract: Science is present in all dimensions of laypeoples everyday lives and serves as a basis for decisions. However, scientific topics such as climate change are very complex, abstract and uncertain – thus for laypeople difficult to understand. Mass media act as significant mediators between science and lay audiences. Much empirical research exists about the relations between media use and knowledge as well as attitudes towards science. Nonetheless, statistical proof for these correlations is often missing. A main reason for that can be seen in insufficient theoretical examinations of knowledge and measurement problems.

This article tries to address these issues by focusing on how knowledge can be conceptualised and operationalised in empirical studies. Five different dimensions of knowledge about climate change are discussed: knowledge about (1) causes, (2) basics and (3) effects of climate change as well as (4) climate-friendly behavior and (5) the procedures of the climate sciences. Different theoretical concepts of knowledge, ignorance and misinformation in combination with the dimension of (un)certainty/confidence are introduced. Using empirical data from an online survey about climate change, the consequences of different response formats and scales are illustrated and discussed.

Keywords: Klimawissen – Klimaskepsis – Nichtwissen – Unwissen – empirische Operationalisierung – Internetnutzung – Medienrezeption

1 Einleitung

Über kaum ein wissenschaftliches Thema ist in den Medien so viel publiziert worden wie über den Klimawandel: Allein in der Süddeutschen Zeitung wurden zwischen 1996–2010 fast 7 000 Artikel zum Klimawandel veröffentlicht (vgl. Schäfer et al. 2014). Umgerechnet erschien hier also pro Tag mindestens ein Artikel zum Thema Klimawandel. Mediale Diskurse über den Klimawandel sind damit insbesondere relevant für die individuelle Bedeutung, die dem Thema über soziale Konstruktionsprozesse verliehen wird (vgl. Schäfer 2007; Storch 2009; Weingart 2011). Zugleich ist der Klimawandel ein hochkomplexes Wissenschaftsthema, an dem viele verschiedene natur-, sozial- und geisteswissenschaftliche Disziplinen arbeiten, so dass beständig neue Ergebnisse und Interpretationen produziert werden, zu denen es nicht immer einen wissenschaftlichen Konsens gibt. Mit←113 | 114→ dem IPCC (Intergovernmental Panel on Climate Change) als Organisation sowie der Veröffentlichung der IPCC-Reports existiert eine hochgradig verdichtete und abgesicherte Wissensinfrastruktur (vgl. Edwards 2011), die ebenfalls der Herausforderung unterliegt, Unsicherheiten der hochkomplexen Klimamodelle korrekt auszuweisen und zu kommunizieren (vgl. Painter 2013).

Während manche Informationen über den Klimawandel zur Allgemeinbildung bzw. zum Alltags- und Handlungswissen gehören, bedarf es zum Verständnis anderer eines umfassenden Expertenwissens. Zudem treten in öffentlichen Debatten immer wieder teils konfligierende Erklärungen für Phänomene rund um den Klimawandel auf. Dies ist nicht zuletzt dem hohen gesellschaftlichen und medialen Druck geschuldet, der aufgrund der enormen sozialen Relevanz des Themas besteht; im Prinzip aber sind Widersprüche, Unsicherheiten, Vorläufigkeiten etc. normaler Bestandteil von heutigen wissenschaftlichen Erkenntnisprozessen („post-normal science“, vgl. Knorr-Cetina 2002). Ein Beispiel hierfür ist die Debatte um die sogenannte „Klimapause“ („Hiatus“). Damit ist das Phänomen gemeint, dass im Zeitraum von 1998 bis 2012 ein geringerer Anstieg der globalen Durchschnittstemperatur festgestellt wurde, als die Klimamodelle eigentlich vorhergesagt hätten.1 Um dieses Phänomen zu erklären, gab es diverse Forschungsgruppen unterschiedlicher Disziplinen, die konkurrierende Erklärungsmodelle dafür veröffentlichten (z. B. Medhaug et al. 2017). Konflikte um die Deutung und Interpretation von Klimaphänomenen sowie die Kommunikation von Unsicherheitsgraden können sich in Unsicherheiten im Wissen der Bevölkerung auf individueller Ebene niederschlagen.

Dieser Beitrag widmet sich deswegen der Unsicherheit von Wissenschaftsthemen vor dem Hintergrund der kommunikationswissenschaftlichen Perspektive von Medienwirkungen (siehe hierzu auch den Beitrag von Maier et al. in diesem Band). Die bisherige kommunikations- bzw. sozialwissenschaftliche Forschung konnte durch Umfragestudien kaum Zusammenhänge zwischen Mediennutzung und Wissen sowie zwischen Wissen und Einstellungen nachweisen (vgl. z. B. Nisbet et al. 2002; Lee et al. 2005; Scheufele/Lewenstein 2005; Lee/Scheufele 2006; Zhao 2009; Taddicken/Neverla 2011; Taddicken 2013), sondern spiegelt vielmehr „chaotische“ Zusammenhänge (vgl. Pardo/Calvo 2002) bzw. „verschlungene Wege der Wirkung von Medienangeboten zu komplexen Wissensdomänen“ (Taddicken/Neverla 2011) wider. Fraglich ist jedoch, ob es tatsächlich keine oder kaum lineare Zusammenhänge gibt oder ob auftretende Effekte aufgrund möglicher←114 | 115→ Schwächen in der Konzeptualisierung und Operationalisierung von Wissen nicht nachweisbar waren (vgl. Gaskell et al. 1997; Durant et al. 2000; Pardo/Calvo 2002). Für die Erforschung der Wirkung von Wissenschaftskommunikation auf eine mögliche Veränderung im Wissen von Rezipierenden, ist die Konzeptualisierung und Operationalisierung von Wissenstests in Umfragen von entscheidender Bedeutung (vgl. Taddicken et al. 2018). Der vorliegende Beitrag mit vorrangig methodischem Anliegen setzt sich daher damit auseinander, wie Wissen für sozialwissenschaftliche Umfragen konzeptualisiert und operationalisiert werden kann und sollte. Dabei werden theoretische Differenzierungen von Wissen aus verschiedenen wissenschaftlichen Disziplinen einbezogen (insbesondere der Wissenschaftssoziologie) und es wird eine Kombination aus Kategorien zu ‚Wissen‘ und ‚Sicherheit über das Wissen‘ vorgeschlagen. Insbesondere ein Kritikpunkt von Gross (2007: 744) soll adressiert werden: „Some of the taxonomies, so it seems, are largely theory driven with little or no attention to or links with concrete examples or data“. Anhand konkreter Ergebnisse einer Online-Befragung zum Klimawandel werden verschiedene Ansätze der Operationalisierung und Antwortskalierungen, die auf theoretischen Wissenskonzepten basieren, beleuchtet. Dabei werden die Ergebnisse zum Klimawissen je nach Operationalisierungsansatz deskriptiv verglichen und mögliche Unterschiede diskutiert.

Für diese Zielsetzung werden zunächst verschiedene inhaltliche Dimensionen des (Klima-)Wissens systematisch vorgestellt (Kapitel 2) und anschließend theoretische Konzepte von Wissen, Nichtwissen, Unwissen und (Un-)Sicherheit diskutiert (Kap. 3). An die verschiedenen Wissenskonzepte und Operationalisierungsansätze anknüpfend, wird im vierten Kapitel das methodische Vorgehen der empirischen Überprüfung erläutert. Die empirischen Ergebnisse werden im fünften Kapitel dargestellt und es wird gezeigt, inwiefern die Datenlage nach Operationalisierung und Antwortformat differieren kann. Im letzten Kapitel werden die Ergebnisse und Ansätze diskutiert.

2 Theoretische Fundierung für die Operationalisierung von ‚Klimawissen‘ in der Medienwirkungsforschung

Die grundlegende und entscheidende Frage der Medienwirkungsforschung in Bezug auf Wissen zum Thema Klimawandel lautet: Was wissen Menschen darüber, und in welchem Zusammenhang steht dies mit ihrer Mediennutzung und -rezeption?

Die bisherige kommunikationswissenschaftliche Klimaforschung zu Medienrezeption und -wirkung hat sich darauf konzentriert, die existenten „Wissensinseln“ der Rezipierenden zu identifizieren und in Bezug zur individuellen Mediennut←115 | 116→zung sowie -rezeption zu setzen. Durch die Prüfung dieses Zusammenhangs wird die Frage bearbeitet, ob die Medien ihrer normativen Funktion, Wissen zu vermitteln, gerecht werden. Die bisher beleuchteten Wissensinseln waren dabei jene klimawissenschaftlichen Wissensbestände, die mit Rückgriff auf den aktuellen wissenschaftlichen Konsens zum Klimawandel als gesichert gelten können. Im Fall des Klimawandels wird hierzu häufig der Sachstandsbericht des Weltklimarats (IPCC) als Referenzobjekt und „Wissensträger“ herangezogen (vgl. Smith/Joffe 2013; Engesser/Brüggemann 2016). Gerade in den Rezeptionsstudien bleibt jedoch häufig undifferenziert, welche Art des Klimawissens genau erhoben wird. Häufig handelt es sich um Wissen darüber, welche Ursachen der Klimawandel hat (z. B. Bord et al. 1998; Sundblad et al. 2009; Braten/Stromso 2010; Chang/Yang 2010; Nolan 2010; Porter et al. 2012; Lombardi et al. 2013; McKercher et al. 2013). Besonders häufig wird erfragt, ob menschliche Aktivitäten (Haupt-)Ursache des Klimawandels sind (Anthropogenität). Problematisch ist hierbei, dass nicht ausschließlich Wissen erfragt wird, sondern auch eine stärker affektiv geprägte Einstellung zum Klimawandel generell (z. B. Skepsis). Wir schlagen deswegen im folgenden Abschnitt eine Systematisierung verschiedener Wissensformen vor, die als Basis für die Operationalisierung von Klimawissen im Rahmen kommunikationswissenschaftlicher Rezeptions- und Wirkungsforschung dienen kann.

Erster Ausgangspunkt unserer Überlegungen ist hierfür die Differenzierung von vier Wissensarten nach Kiel/Rost (2002), die wiederum auf wesentlich ältere Arbeiten aus der Philosophie, Erkenntnistheorie sowie Didaktik und Erziehungswissenschaft zurückgreifen.

Die erste Form ist das Orientierungswissen (know what), das Menschen dazu dient, sich in der Welt zu orientieren, ohne dass diese Form des Wissens zwingend zur sofortigen Anwendung kommen muss. Es wird wesentlich breiter verstanden, und zwar als Wissen über diverse Sachverhalte in der Welt – in Bezug auf das Klimathema wäre also schon von Orientierungswissen zu sprechen, wenn Menschen überhaupt wissen, dass es einen anthropogen verursachten Klimawandel gibt. In der Umweltpsychologie ist diese Form des Wissens als „Umweltsystemwissen“ untersucht worden (declarative knowledge, Kaiser/Fuhrer 2003). Wir schlagen vor, in Bezug auf den Klimawandel von „Ursachenwissen“ zu sprechen. Damit ist gemeint, dass Rezipierende wissen, dass es a) momentan einen Klimawandel gibt und dass b) dieser Klimawandel durch den menschlichen Einfluss (z. B. die hauptsächlich durch menschliche Aktivität bedingte Erhöhung der Treibhausgase) verursacht wird.

Haben Rezipierende Wissen über den Klimawandel und seinen anthropogenen Ursprung, muss dies nicht zwingend bedeuten, dass ihnen gleichermaßen klar ist, was die genauen grundliegenden meteorologischen oder physikalischen←116 | 117→ Zusammenhänge sind. Für dieses Wissen nutzen Kiel/Rost (2002) den Begriff des Erklärungs- und Deutungswissens (know why). Hiermit ist nicht nur jenes Wissen über die Existenz bestimmter Phänomene gemeint, sondern darüber hinaus die Kenntnis darüber, wie diese Phänomene erklärt werden können und worin sie begründet liegen. Wird das Erklärungs- und Deutungswissen komplexer, sprechen Kiel/Rost (2002) von Modellen und Theorien. Da es jedoch recht unwahrscheinlich ist, dass sich Medienrezipierende konkrete Klimamodelle aus den Klimawissenschaften angeeignet haben, schlagen wir vor, punktueller zu untersuchen, welches Wissen Rezipierende über die klimawissenschaftlichen Grundlagen haben. Wir differenzieren das „Erklärungs- und Deutungswissen“ deswegen durch zwei Subdimensionen, und zwar (a) durch das „Grundlagenwissen zum Klimawandel“ und (b) durch das „Wissen über konkrete Folgen des Klimawandels/Folgenwissen“. Grundlagenwissen umfasst vor allem das Wissen über CO2, den Treibhauseffekt und das Ozonloch. Als Folgenwissen ist hier nicht lediglich das Wissen über den Anstieg der globalen Durchschnittstemperatur gemeint. Stattdessen soll konkreteres Wissen erfasst werden, also beispielsweise Wissen darüber, ob überall auf der Erde gleichermaßen mit einer Zunahme an Niederschlag zu rechnen ist oder aber was das Schmelzen des Polareises bewirkt.

Als dritte funktionale Art von Wissen nennen Kiel/Rost (2002) solches Wissen, das sich auf das Handeln von Menschen bezieht und Wissen über Praktiken, Techniken, Methoden und Strategien umfasst (know how) sowie Wissen über konkrete Anwendungen dieser (im Sinne von Können). In Bezug auf die Rezeption und Wirkung von Klimakommunikation ist hier besonders interessant, ob Menschen etwas darüber wissen, welche Auswirkungen ihr Alltagshandeln auf die CO2-Emissionen hat und welche Handlungen einen besonders hohen „CO2-Fußabdruck“ erzeugen. Hier ist also die Frage, ob Menschen bestimmte Heuristiken darüber haben, welche Alltagsaktivitäten besonders viel CO2 erzeugen und welche weniger. Ebenso wäre dann von Interesse, inwiefern dies auch zu konkreter Anwendung (i. S. einer Fähigkeit) führt. In der Umweltpsychologie ist diese Form des Wissens ebenfalls umfassend beleuchtet worden, sie wird hier Handlungswissen oder auch handlungsrelevantes Wissen (procedural knowledge, Kaiser/Fuhrer 2003) genannt.

Die vierte Wissensart ist schließlich das Quellenwissen (know where), also Wissen darüber, von welchen Trägern das Wissen stammt und wo Wissensträger zu finden sind (z. B. in der Bibliothek, auf Wikipedia). Im Zusammenhang mit der Rezeption von Klimakommunikation ist hierbei besonders relevant, welche Vorstellungen die Rezipierenden von den Klimawissenschaften haben, die ja Wissen über den Klimawandel produzieren und so die zentrale „Wissensquelle“ sind.←117 | 118→ Nisbet et al. (2002) haben dieses Wissen als Prozesswissen bezeichnet, weil es Wissen über den Prozess der Wissensgenerierung in den Wissenschaften umfasst. So ist also auch jenes Wissen gemeint, das die Vorläufigkeit, Unvollständigkeit und Widersprüchlichkeit von Ergebnissen aus den Klimawissenschaften anerkennt. Insgesamt ist diese Dimension des Wissens wohl als die anspruchsvollste zu bewerten, weil klimawissenschaftliche Befunde hier in den Kontext der Reflexion genereller klimawissenschaftlicher Leistungsfähigkeit gestellt werden. Auf dieser Dimension wird beispielsweise die Frage gestellt, ob die Rezipierenden tatsächlich wissen und anerkennen, dass die Klimawissenschaften – ebenso wie andere Wissenschaften – nur vorläufig gültige Ergebnisse produzieren können.

3 Operationalisierung von ‚(Klima-)Wissen‘

Es gibt zahlreiche verschiedene Konzepte von Wissen und unzählige Möglichkeiten der Messung von Wissen in Umfragestudien. Dieses Kapitel soll einen kleinen Überblick geben, ohne einen Anspruch auf Vollständigkeit zu erheben.

Um das Verständnis über Wissenschaftsthemen abzuprüfen, wurde anfangs häufig mit offenen Fragen (open-ended items) nach Definitionen gefragt, z. B. „Please tell me, in your own words, what is DNA?“ (Miller 1998). Insbesondere bei telefonischen Befragungen kamen auch sogenannte multi-part questions zum Einsatz, z. B. „The Earth goes around the Sun, or the Sun goes around the Earth?” (Miller 1998). Diese Formen betrachten wir nicht weiter.

3.1 Wissen als Dichotomie

Durchgesetzt hat sich aufgrund der Praktikabilität (vgl. National Academies of Sciences, Engineering, and Medicine 2016) das closed-ended true-false quiz, bei dem die Befragten in der Regel wahre und falsche Statements auf ihre Richtigkeit hin einschätzen müssen (hier: Operationalisierungsalternative A1). Diese Form der Erhebung gibt also eine Dichotomisierung vor, in deren Rahmen sich die Teilnehmenden bewegen können. Ist beispielsweise die Aussage, dass der Erdkern sehr heiß ist, wahr oder falsch (vgl. National Academies of Sciences, Engineering, and Medicine 2016)? Diese Messmethode spiegelt das Verständnis von knowledge (= gut) und ignorance (= schlecht) als zwei gegensätzliche Pole wider, welches auf grundlegende theoretische (und philosophische) Überlegungen zurückgeht (vgl. z. B. Kerwin 1993). So ist es bei der Auswertung von Wissensabfragen ein übliches Verfahren, die richtigen Antworten der Befragten über einen Summenindex (vgl. z. B. Braten/Stromso 2010; Nolan 2010; Dijkstra/Goedhart 2012; Mazur et al. 2013) oder Mittelwertsindex von 0 bis 1 (Tobler et al. 2012) zusammenzuzählen. Je←118 | 119→ mehr Punkte erreicht werden, desto mehr Wissen ist vorhanden. Der ausschließliche Fokus liegt also auf dem vorhandenen „korrekten“ Wissen der Befragten, also auf den richtig genannten Fakten und den korrekt beurteilten Statements.

3.2 Wissen, Nichtwissen und Unwissen

Ungewiss bleibt aber, ob die Antwort vielleicht zufällig richtig geraten wurde. Bei nur zwei Antwortmöglichkeiten liegt die Wahrscheinlichkeit, dass man richtig rät, schließlich bei 50 %. Um genau das auszuschließen, geben manche Wissensabfragen eine weitere Antwortoption „weiß nicht“ (vgl. z. B. Dijkstra/Goedhart 2012; Tobler et al. 2012). Dieses dreistufige Antwortformat kann damit das „guessing problem“ verringern (Sturgis et al. 2008) und erlaubt die Unterscheidung in falsches Wissen, fehlendes Wissen und (korrektes) Wissen (misinformed, uninformed, informed; vgl. Kuklinski et al. 2000). Auch in wissens- und wissenschaftssoziologischer Forschung wird der Fokus seit einigen Jahrzehnten nicht mehr nur auf Wissen, sondern vermehrt auch auf Nichtwissen gelegt (vgl. z. B. Stocking/Holstein 1993; Wehling 2001). Eine Vielzahl von theoretischen Überlegungen und oft uneinheitlichen Begriffsdefinitionen wird dabei vorgeschlagen. Zwei verschiedene Auslegungen von ignorance – seltener auch als nonknowledge (Nichtwissen) bezeichnet (vgl. Gross 2007) – sind dabei am häufigsten vertreten: (1) In der weiten Definition von Smithson (1993) wird ignorance als Oberbegriff für (a) die Verzerrung von korrektem Wissen (Verwirrung und Ungenauigkeit) und (b) die Unvollständigkeit (Unsicherheit und Abwesenheit) von Wissen verstanden. (2) Um fehlendes Wissen besser von unwahrem Wissen abgrenzen zu können, wird ignorance oder Nichtwissen vermehrt in einer engen Definition lediglich als „lack of knowledge“ (Kerwin 1993) verwendet. Nichtwissen kann also nicht einfach als das Gegenteil von Wissen verstanden werden (vgl. Wehling 2001). Dieser Beitrag unterscheidet daher zwischen fehlendem Wissen oder Wissenslücken (Nichtwissen) und falschem Wissen (hier als Unwissen benannt).

Wird diese theoretische Unterscheidung in Fragebogenstudien umgesetzt, wird diese Differenzierung bei der Datenanalyse in den meisten Fällen aber nicht weiter betrachtet, sondern wieder nur das korrekte Wissen gezählt (z. B. Connor/Siegrist 2010; Tobler et al. 2012) und damit der Fokus wieder auf das vorhandene Wissen der Befragten gelegt. Als alternative Vorgehensweise schlägt dieser Beitrag einen Summenindex aus korrektem Wissen (+1), Unwissen (-1) und Nichtwissen (0) vor (Operationalisierungsalternative A2). Wir empfehlen somit, dass nicht nur das vorhandene Klimawissen beleuchtet wird, sondern auch in gleichem Maß fehlendes und falsches Wissen. Diese Überlegungen verdeutlichen: „the boundary between knowledge and ignorance is complex“ (Smithson 1985: 168).←119 | 120→

3.3 Kombination aus Wissen und Sicherheit

Immer noch bleibt jedoch die Frage unbeantwortet, was genau hinter der richtigen oder falschen Beantwortung der Wissensfragen steckt? Wie sicher waren sich die Befragten bei der Wahl der Antwortoption? Bei drei Antwortoptionen besteht das Problem, dass sich teilweise informierte oder unsichere Personen auf Antwortoptionen aufteilen (vgl. Johann 2008; Sturgis et al. 2008), obwohl keine Option für sie richtig treffend ist. Soziologische Forschungsarbeiten (z. B. Smithson 1985; Ravetz 1993; Stocking/Holstein 1993; Wehling 2001) diskutieren weitere theoretische Facetten von Wissen und Nichtwissen. Allerdings liegt der Schwerpunkt der vor allem wissenschaftssoziologischen Differenzierungen auf von der Wissenschaft generiertem Wissen oder Nichtwissen (z. B. bei Kerwin 1993; Stocking/Holstein 1993; Wehling 2001; Janich et al. 2010). Dabei ist insbesondere fraglich, ob sich der Begriff des Nichtwissens auf reine Abwesenheit von Wissen (vgl. Wehling 2001) bezieht oder auf das Wissen darüber, was man nicht weiß (vgl. Gross 2007). Wir schlagen vor, Wissen und Unwissen von Laien über wissenschaftliche Themen wie den Klimawandel durch eine zweite Dimension zu differenzieren: die Sicherheit (bzw. Unsicherheit) über das eigene Wissen oder Unwissen. Differenzierungen und Überlegungen aus vor allem linguistischer und wissenschaftssoziologischer Literatur (z. B. Green et al. 1991; Kerwin 1993; Ravetz 1993; Janich et al. 2010) sind hier hilfreich, lassen sich aber zum Teil nur schwer auf das Wissen der Bevölkerung über wissenschaftliches Wissen übertragen. Bedeutsam ist, dass wir auf die individuelle Unsicherheit bzw. Sicherheit in das eigene Wissen abstellen – und nicht darauf, als wie gesichert das Wissen aus wissenschaftlicher Perspektive heraus gelten kann.

Dadurch ergeben sich verschiedene Kombinationen von Wissen und Unsicherheit: known known bedeutet, dass man sich sicher ist, dass man etwas weiß, während known unknown (vgl. Kerwin 1993; parametric uncertainty bei Green et al. 1991) als Kenntnis über das eigene Unwissen und somit in gewisser Weise als Unwissenheit verstanden werden kann. Des Weiteren kann es auch vorkommen, dass sich jemand des eigenen Unwissens nicht bewusst ist (unknown unknown bzw. errors, false „truth“, vgl. Kerwin 1993; misperceptions bei Flynn et al. 2017; Kuklinski et al. 2000). Er oder sie ist sich demnach sicher, dass eine Antwort stimmt, obwohl sie objektiv und nach wissenschaftlichem Konsens falsch ist. Ist sich jemand seiner eigentlich richtigen Antwort nicht sicher, dann könnte von unknown known gesprochen werden (auch tacit knowledge, vgl. Kerwin 1993; systematic uncertainty bei Green et al. 1991). Nichtwissen kann schließlich als die Form des Wissens mit dem höchsten Grad an individueller Unsicherheit gesehen werden.←120 | 121→

Diese Unterteilung macht deutlich, dass falsche Antworten (unknown) im Rahmen von „Wissensquiz“-Fragen zwei Interpretationen erlauben. Es kann sich nämlich einerseits um known unknown handeln oder aber um unknown unknown. Dabei macht es jedoch einen enormen Unterschied, ob jemand der Aussage, dass ein Großteil des CO2-Ausstoßes in Deutschland durch Heizen verursacht wird, nicht zugestimmt hat, weil er/sie sich nicht sicher ist, was stimmt (known unknown), oder ob er/sie glaubt zu wissen, dass die Aussage falsch ist und damit denkt, dass Heizen wenig CO2 produziert (unknown unknown). Dieser Unterschied kann also verhaltensrelevant sein. Auch aus diesem Grund erscheint die Differenzierung von Wissen und Unwissen nach (Un)Sicherheit sinnvoll.

In den meisten Umfragestudien, in denen die Sicherheit über das eigene Wissen abgedeckt wird (confidence, vgl. z. B. Kuklinski et al. 2000; Shephard et al. 2014; certainty, vgl. z. B. Alvaretz/Franklin 1994; Krosnick et al. 2006; Sundblad et al. 2009; Pasek et al. 2015), wird diese durch eine an die Wissensabfrage anschließende Frage operationalisiert. Da dieses Vorgehen zu einer Verdopplung der Items und damit des Fragebogens führt, wird in diesem Beitrag die Verwendung einer metrischen Antwortskala (5er-Skala von 1 „stimme überhaupt nicht zu“ bis 5 „stimme voll und ganz zu“, Operationalisierungsalternative A3) angewendet (ähnlich zu Sturgis et al. 2008: „definitely true“ – „definitely false“ – „don’t know“). Mit einer sechsten Antwortmöglichkeit neben der Fünfer-Skala (zusätzlich „keine Angabe“, „weiß nicht“) können bekannte Wissenslücken dokumentiert werden (bei uns ist dies die Ausgangs-Operationalisierungsalternative A0). Allerdings ist abzuwägen, inwieweit die zusätzliche Antwortmöglichkeit gleichbedeutend mit Nichtwissen (Mitte der Skala) und so dem höchsten Grad der Unsicherheit ist. Beide Antworten können als Abwesenheit von Wissen gewertet werden, allerdings kann „keine Angabe“ oder „weiß nicht“ auch in dem Fall gewählt werden, wenn tatsächlich keine Möglichkeit der Einschätzung dieses Items wahrgenommen wird (z. B. weil das Statement als unpassend, unklar etc. empfunden wird; vgl. hierzu ausführlicher Pardo/Calvo 2002). Um Unsicherheiten über eine mögliche Überschneidung der beiden Formen des Nichtwissens zu vermeiden, könnte auch eine vier- oder sechsstufige Skala mit der zusätzlichen Option „weiß nicht“ gewählt werden.

In einer experimentellen Studie untersuchten Sturgis et al. (2008) die Unterschiede in den Antworten zu drei verschiedenen Antwortformaten: (1) „true“, „false“ und „don’t know“ (hier: Alternative 2), (2) die dichotome Abfrage von „true“ oder „false“ (hier: Alternative 1) und (3) dem Einbezug der (Un)Sicherheit in die Skala „definitely true“, „probably true“, „probably false“, „definitely false“ und „don’t know“. Sie fanden heraus, dass weniger Personen die „weiß nicht“-←121 | 122→Option wählen, wenn die Abstufung der Unsicherheit integriert wird. Allerdings vermuteten sie, dass dadurch mehr Befragte bei der Nutzung des dritten Formats geraten hatten.

Inwiefern die hier vorgestellten verschiedenen theoretischen Konzeptualisierungen von Wissensabfragen empirisch-statistische Unterschiede aufzeigen können, soll im Folgenden anhand einer Befragung zum Klimawissen beleuchtet werden. Diese Forschungsfrage ist zunächst auf der konzeptionell-methodischen Ebene angesiedelt. Auf inhaltlicher Ebene wird dabei auch deutlich werden, wie es um das Wissen bzw. Nichtwissen und Unwissen zum Klimawandel innerhalb der Bevölkerung bestellt ist, diese Frage steht jedoch nicht im Fokus des vorliegenden Beitrags (siehe dafür Taddicken et al. 2018).

4 Empirische Studie

Im Rahmen einer Internetuser-repräsentativen Panelbefragung in drei Wellen wurden in den Jahren 2013 und 2014 Laien zum Thema Klimawandel bezüglich ihres Wissens, ihrer Einstellungen und Mediennutzung online befragt. Diese Studie ist Teil des DFG-geförderten Forschungsprojekts „Der Klimawandel aus Sicht der Medienrezipienten (KlimaRez)“, das sechs Jahre lang im DFG-Schwerpunktprogramm „Wissenschaft und Öffentlichkeit“ (SPP 1409) verankert war. Die für diesen Beitrag verwendeten Befragungsdaten stammen aus der dritten Welle mit einer Netto-Stichprobe von n=935.

Zur Abfrage des Wissens zum Klimawandel wurde eine etablierte Skala von Tobler et al. (2012) genutzt, welche die vier oben identifizierten Klimawissens-Dimensionen Ursachenwissen, Grundlagenwissen, Folgenwissen und Handlungswissen beinhaltet. Zusätzlich wurden Items zur Abfrage des Verständnisses für die Entstehung und den Charakter von wissenschaftlicher Forschung (vgl. Miller 1983) entwickelt. Hierbei handelt es sich um Prozesswissen (vgl. Nisbet et al. 2002). Die hierfür formulierten Ad-hoc-Items wurden mit Wissenschaftlerinnen und Wissenschaftlern der DFG-Exzellenz-Initiative „KlimaCampus“ der Universität Hamburg sowie des Max-Planck-Instituts für Meteorologie in Hamburg abgestimmt.2

←122 | 123→

Tab. 1: Erhobene Wissensdimensionen mit Beispielitem

image

Die fünf verschiedenen Dimensionen decken somit eine große Bandbreite an verschiedenen Themenbereichen ab, aber auch an Schwierigkeitsgraden des Klimawissens (siehe Tab. 1). Während einige Items eher „leicht“ sind und womöglich unter Allgemein- oder Alltagswissen fallen können, ist für andere Items eine gewisse Expertise notwendig. Es gibt sowohl Aussagen über einzelne Aspekte des Klimawandels, die nach dem aktuellen wissenschaftlichen Erkenntnisstand richtig sind und denen somit zugestimmt werden müsste, als auch Aussagen, die als falsch anzunehmen und somit abzulehnen sind.←123 | 124→

Anders als von Tobler et al. (2012) vorgeschlagen, haben wir eine fünffach-gestufte Antwortskala (1: „stimme überhaupt nicht zu“ bis 5: „stimme voll und ganz zu“) mit einer zusätzlichen Antwortmöglichkeit „keine Angabe“ angewendet.3 Mit diesem Antwortformat als Ausgangspunkt können die restlichen drei Operationalisierungen (Kap. 3) umgesetzt und schließlich miteinander verglichen werden. Nicht benötigte Differenzierungen in den Antworten werden zusammengefasst. Die dazu für die Statistik-Software erforderliche Rekodierung der Items ist aus der Tabelle 2 ersichtlich. Für den Vergleich der Ergebnisse pro Dimension wurden außerdem Indizes gebildet.

Tab. 2: Erklärung der verschiedenen genutzten Alternativen der Operationalisierung

image

←124 | 125→

image

5 Ergebnisse

5.1 Ergebnisse auf Ebene der Einzelitems

Um die Unterschiede der Operationalisierungsansätze zu Beginn anschaulich zu diskutieren, greifen wir ein Wissensstatement aus der Dimension ‚Prozesswissen‘ beispielhaft heraus: „Das Klima ist ein so komplexes Konstrukt, dass es nicht möglich sein wird, jemals alle Einflussfaktoren zu verstehen.“(siehe Abb. 1).←125 | 126→

Abb. 1: Häufigkeitsverteilung der gewählten Antwortoptionen (A1, A2, A3, A0) in Prozent der verschiedenen Alternativen zum Item „Das Klima ist ein so komplexes Konstrukt, dass es nicht möglich sein wird, jemals alle Einflussfaktoren zu verstehen“ (n=935)

image

Mit Blick auf die Ergebnisse der (in unseren Augen nicht sinnvoll erscheinenden) dichotomen Unterscheidung in Wissen und kein Wissen, zeigt sich, dass es sich hier allgemein um ein scheinbar einfacheres Item handelt. Über die Hälfte der Befragten weiß von der hohen Komplexität des Klimas als zu erforschendem Konstrukt. Dieses Item ist als eines der „anspruchsvollsten“ Items zu bewerten, da es Wissen über Wissenschaft voraussetzt. Ein interessanter Zugewinn zeigt sich durch die Differenzierung in Nichtwissen und Unwissen: Ungefähr ein Viertel der Befragten, die hier nicht über Wissen verfügen, haben falsches Wissen (10 % der Befragten insgesamt). Sie glauben daran, dass es trotz der hohen Komplexität des Konstrukts möglich sein wird, alle Einflussfaktoren zu verstehen. Insgesamt 32 % der Befragten kennt die Antwort hingegen einfach nicht bzw. ist sich zu unsicher, sich zu entscheiden. Durch die Einführung der fünfstufigen Antwortskala zeigt sich zusätzlich, dass sich 3 % ihres falschen Wissens sogar sehr sicher sind (unknown unknown), während sich 7 % etwas unsicher sind (known unknown). Da die zusätzliche Antwortmöglichkeit „keine Angabe“ nur von 8 % der Befragten gewählt wurde, verändert sich die Häufigkeitsverteilung von A0 nur geringfügig gegenüber der dritten Operationalisierungsalternative A3.

Auf Ebene einzelner Items führt die Verwendung einer fünffach-gestuften Antwortskala also zu einem erheblich höheren Informationsgehalt als die dichotome Unterscheidung in Wissen und kein Wissen (siehe auch Abb. 3–7 im Anhang).←126 | 127→

5.2 Inhaltliche und methodisch-konzeptuelle Betrachtung auf Ebene der Klimawissensdimensionen

In der deskriptiv-statistischen Betrachtung der erhobenen Daten zum Klimawissen (nach Alternative A0) fällt auf, dass einigen Items innerhalb einer Wissensdimension deutlich stärker zugestimmt wurde als anderen, was die unterschiedlichen Schwierigkeits- oder Komplexitätsgrade der Wissensitems widerspiegelt. Auch die Häufigkeit der Nutzung der zusätzlichen Antwortmöglichkeit „keine Angabe“ weist eine große Varianz auf (zwischen ca. 2 und 25 % der Befragten). Besonders schlecht (bezogen auf das korrekte Wissen) schnitten die Befragten bei falsch formulierten Aussagen zum Klimawissen ab, welche die Teilnehmenden hätten ablehnen müssen. Auch die zusätzliche Option „keine Angabe“ wurde von den Befragten oftmals vermehrt genutzt, wenn ein abzulehnendes Item präsentiert wurde. Hierin drückt sich ein offenbar erhöhter Schwierigkeitsgrad dieser zu rekodierenden Items aus: in a) erhöhtem Unwissen und b) in mehr Nichtwissen und Unsicherheit bei der Beantwortung. Möglicherweise gibt es bei Wissenstests zudem eine allgemeine Zustimmungstendenz bzw. die Tendenz, Wissensstatements nicht ablehnen zu wollen.

Insgesamt zeigen die Daten (siehe Abb. 2), dass deutsche Internetnutzerinnen und -nutzer über ein mittleres Klimawissen über verschiedene Dimensionen hinweg verfügen. Gemittelt über alle Items pro Dimension, zeigen besonders wenige Befragte Unwissen (6–21 %). Dabei erscheint es besonders positiv, dass Personen, die über sicheres Unwissen (unknown unknown, 2–11 %) verfügen, die kleinste Gruppe über alle Dimensionen bilden. Auch die zusätzliche Antwortoption „keine Angabe“ wurde insgesamt im Mittel relativ selten gewählt (8–17 %). Der größte Prozentteil der Befragten weist im Schnitt sicheres (known known, 25–30 %) oder unsicheres korrektes Wissen (unknown known, 18–27 %) auf oder wählte die Skalenmitte (Nichtwissen, 20–25 %).←127 | 128→

Abb. 2: Häufigkeitsverteilung der Antwortoptionen (A0) in Prozent über die verschiedenen Klimawissensdimensionen (gemittelt über alle Items je Dimension, n=935)

image

Unterschiede über die verschiedenen Wissensdimensionen hinweg belegen, dass die mehrdimensionale Operationalisierung gewinnbringend ist. Die höchsten Wissensstände weisen die Befragten hinsichtlich des Prozesswissens (M=3,85; SD=0,66, siehe Tab. 3) und Ursachenwissens (M=3,68; SD=0,74) auf. Aber auch die Mittelwerte der anderen Klimawissens-Dimensionen deuten auf ein generell hohes und überdurchschnittliches Wissen mit geringen Standardabweichungen hin. Das Grundlagenwissen der befragten deutschen Internetnutzerinnen und -nutzer ist dem Mittelwert zufolge am geringsten ausgeprägt (M=3,50; SD=0,65). Diese Ergebnisse sind inhaltlich interessant. Eine mögliche Erklärung für das hoch ausgeprägte Ursachenwissen (mit besonders wenig Unwissen) könnte die in Deutschland nicht oder kaum angezweifelte Anthropogenität des Klimawandels sein (vgl. Engels et al. 2013). Medienberichterstattung in Deutschland fokussiert häufig die Ursachen und Folgen und betont dabei die Sicherheit der Erkenntnisse (vgl. Peters/Heinrichs 2008; Engesser/Brüggemann 2015). Im Gegensatz dazu haben die Befragten besonders viel Unwissen über die physikalischen Grundlagen des Klimawandels und der Treibhausgase (siehe Abb. 2). Möglicherweise←128 | 129→ werden diese Themen in den Medien weniger intensiv oder seltener thematisiert. Denkbar ist auch, dass sie wenig als richtiges Wissen bei Mediennutzerinnen und -nutzern hängenbleiben, weil die Informationen zu abstrakt sind und damit zu weit von konkreten Alltagshandlungen entfernt. Die Dimension des Prozesswissens zeigt wiederum den geringsten Anteil an Unwissen und zusammen mit Folgenwissen die höchste Prozentzahl an sicherem korrekten Wissen auf. Die Items dieser Skala spiegeln inhaltlich die Zustimmung dazu wider, dass klimawissenschaftliche Erkenntnisse nicht vollkommen widerspruchsfrei und ohne Unsicherheiten sind. Außerdem muss angemerkt werden, dass die Skala des Prozesswissens im Gegensatz zu den anderen vier Wissensdimensionen keine negativen – also abzulehnenden – Items beinhaltet.

Ein Vergleich der Indexmittelwerte einzeln nach den vier unterschiedlichen Operationalisierungsalternativen zeigt, dass der allgemeine Trend gleich bleibt (siehe Tab. 3). In jeder Version ist Prozesswissen in der Stichprobe am höchsten und Grundlagenwissen am niedrigsten ausgeprägt. Deutsche Internetnutzerinnen und -nutzer scheinen somit zu wissen, wie wissenschaftliche Erkenntnisse in den Klimawissenschaften zustande kommen, und wissen auch um die Unsicherheit von Ergebnissen; die Grundlagen des Klimawandels – also meteorologische und physikalische Zusammenhänge – sind hingegen weniger bekannt. Da die Indizes auf unterschiedlichen Antwortskalen und entweder Summen oder Mittelwerten beruhen, sind die in Tabelle 3 angegebenen Mittelwerte nicht zeilenweise vergleichbar. Daher werden im Folgenden die ersten beiden Alternativen sowie die dritte mit der Ursprungsskala A0 verglichen.

Tab. 3: Mittelwerte und Standardabweichungen der Indizes der verschiedenen Alternativen

image

Die Rangfolgen der Mittelwerte der Wissensdimensionen verändern sich teilweise, wenn zusätzlich zum Wissen (A1) auch das Unwissen (A2) gezählt wird.←129 | 130→ Besonders bezogen auf das Handlungswissen scheint mehr Unwissen zu bestehen als bezüglich des Ursachenwissens. Problematisch bei der zweiten Variante ist allerdings, dass sich die jeweilige Anzahl an richtigen und falschen Antworten ausgleichen kann und im Mittelwert schließlich gleichbedeutend mit Nichtwissen wäre. Die Mittelwerte lassen außerdem vermuten, dass weniger Unwissen bzw. mehr Wissen über die Prozesse der Klimawissenschaften besteht als über klima(un)freundliche Verhaltensweisen. Auffällig an den Mittelwerten von A2 sind aber die vergleichsweise hohen Standardabweichungen, die Werte streuen innerhalb der Stichprobe sehr stark. Diese Variante der Operationalisierung ist daher besonders geeignet, um die einzelnen Items auszuwerten. Ob es sinnvoll ist, Summenindizes zu bilden, bei denen auch das Unwissen mitgezählt wird, ist für den Einzelfall zu diskutieren.

Der Vergleich der beiden Mittelwertindizes (A3 und A0) zeigt zunächst wenig auffällige Unterschiede. Das deutet darauf hin, dass die zusätzliche Antwortoption „keine Angabe“ und die Mitte der Skala das Gleiche messen – Nichtwissen. Die Mittelwerte der Alternative A3 sind jeweils um ca. 0,1 Punkt geringer als in der Ursprungsskala (A0), welche die zusätzliche Antwortoption „keine Angabe“ als fehlenden Wert definiert. Wenn diejenigen als ungültig gewertet werden, die „keine Angabe“ ausgewählt haben (bis zu 164 ungültige Fälle bei Handlungswissen), variieren aber natürlich die gültigen Fallzahlen. Vermutlich durch die Tendenz der Befragten zur Mitte sind die Standardabweichungen sehr niedrig. Durch Anwendung einer geraden Antwortskala (z. B. vier- oder sechsstufig) könnte das verhindert werden (vgl. Johann 2008).

Ein weiterer Unterschied lässt sich allerdings noch im Vergleich der Mittelwertindizes erkennen. In A3 haben Ursachen- und Folgenwissen den gleichen Mittelwert im Gegensatz zu A0. Während mehr Befragte Unwissen über die Folgen des Klimawandels haben, wurde bei Wissensitems zu den Ursachen häufiger keine Angabe gemacht. Dieser Unterschied gleicht sich aus, wenn die zusätzliche sechste Antwortoption mit der Skalenmitte gleichgesetzt wird.

Die Mittelwertindizes sind zusammenfassend hinsichtlich zwei verschiedener inhaltlicher Gesichtspunkte interpretierbar: hinsichtlich der Unterscheidung zwischen Unwissen (falschem Wissen), Nichtwissen und (korrektem) Wissen einerseits und hinsichtlich der Unterscheidung nach dem Grad der Unsicherheit bei der Entscheidung andererseits. Soll die Richtigkeit des Wissens im Fokus stehen, sind die Angaben anders auszuwerten, als wäre die Sicherheit bzw. Unsicherheit zentral. Je nach Forschungsanliegen und Umfang des Fragebogens sollte dann abgewogen werden, ob eine metrische Antwortskala eingesetzt werden soll oder zwei einzelne Abfragen nach (a) Wissen und (b) der Sicherheit.←130 | 131→

6 Diskussion

Wissen, Nichtwissen und Unwissen sowie Unsicherheit sind komplexe Termini, die die Erhebung von Wissen zu einer Herausforderung machen. Für die Abfrage von Wissen gibt es zahlreiche unterschiedliche Möglichkeiten, Wissen zu erfassen und Wissensabfragen auszuwerten. Die Erfassung von Wissen – vor allem auch zu wissenschaftlichen Themen – stellt einen hohen Anspruch an Forscherinnen und Forscher, der leider nicht immer ausreichend reflektiert und bei Interpretationen berücksichtigt wird. Die gesamte Operationalisierung – Dimensionalität, Antwortformat und auch die Formulierung der einzelnen Items – sollte wohl überlegt sein, um nicht nur (Klima-)Wissen, sondern auch das Nichtwissen und Unwissen bzw. die damit verbundene Unsicherheit detailliert erfassen und verstehen zu können. Die verbreitete Variante des dichotomen Wissenstests legt den Fokus auf das vorhandene Wissen – und vernachlässigt damit die Vielschichtigkeit des Konzepts Wissen. Dieser Beitrag hat verdeutlicht, dass sich gerade dann, wenn nicht ausschließlich im Suchscheinwerfer-Verfahren auf die Objekte fokussiert wird, die sich besonders kontrastreich als „Wissen“ und „kein Wissen“ abheben, eine spannende Wissenslandschaft mit zahlreichen Schattierungen zeigt.

Die Analyse unterstreicht die Notwendigkeit der intensiven Planung und Abwägung der Konstruktion und Operationalisierung von Wissensabfragen. Besonders für die Wissenschaftskommunikation ist es wichtig zu erheben, welches korrekte oder auch falsche Wissen in die Bevölkerung gelangt und wo Wissenslücken oder Unsicherheiten bestehen, um diesen mit Kommunikation entgegenzuwirken. Schließlich ist es für die Wissenschaft nicht nur wichtig, dass Wissen in die Bevölkerung gelangt, sondern dass es dem aktuellen wissenschaftlichen Konsens entspricht.

Wir haben eine zusätzliche Integration von (Un-)Sicherheit in Wissensabfragen vorgeschlagen, die zu einem erheblichen Informationsgewinn führt. Damit wird nicht nur deutlich, ob die Befragten Wissen, Nichtwissen oder Unwissen zu einem Wissenschaftsthema haben, sondern auch, wie sicher sie sich in ihrer Antwort sind. Dafür wurde in dem Forschungsprojekt eine fünfstufige Antwortskala verwendet. Diese Abstufung ist insbesondere für Einzelitems gewinnbringend. Die getrennte Abfrage von Wissen und der diesbezüglichen Sicherheit kann insgesamt noch mehr Informationen liefern, ist aufgrund ihres doppelten Umfangs an Items aber nicht immer zu realisieren.

Die hier vorgeschlagene Klassifikation von Wissen der Bevölkerung über wissenschaftliches Wissen kann nicht ohne Kritik bleiben, sie stellt aber einen Versuch dar, theoretische Überlegungen auf konkrete Umfragedaten anzuwenden. Dabei haben die diskutierten theoretischen Konzepte und Operationalisierungen←131 | 132→ keinen Anspruch auf Vollständigkeit. Weitere theoretische Klassifikationen wären denkbar – so beispielsweise der Einbezug verschiedener Modi des wissenschaftlichen Verständnisses wie Ignoranz und Indifferenz oder Vertrautheit (vgl. Pfister et al. 2017).

Einige Items und Wissensdimensionen dieser Studie wurden häufiger richtig beantwortet als andere. Das könnte ein Indiz dafür sein, dass es verschiedene Komplexitäts- und Schwierigkeitsgrade gibt, oder aber auf mögliche Limitationen dieser Studie hindeuten: Möglicherweise sind manche Formulierungen der Wissensstatements diskussionswürdig, da sie z. B. absolute Aussagen enthalten oder ihnen aufgrund von konfligierender Evidenz oder sich ändernden wissenschaftlichen Erkenntnissen nicht eindeutig zugestimmt oder widersprochen werden kann.

Zukünftige Forschung sollte die Ergebnisse der verschiedenen Möglichkeiten der Operationalisierung in experimentellen Designs vergleichen. Dabei ist zu überlegen, ob eine Skala mit gerader Abstufung (z. B. wie bei Sturgis et al. 2008: „definitely true“, „probably true“, „probably false“, „definitely false“) gewählt und eine zusätzliche Ausprägung „weiß nicht“ angeboten werden sollte, um die Tendenz zur Mitte vermeiden zu können.

Die vorgestellte Unterscheidung in Wissen, Nichtwissen und Unwissen und der Einbezug einer zweiten Dimension der Sicherheit des Wissens könnten besonders in Typologieansätzen hilfreich sein. Mehr als beim „herkömmlichen“ Wissensquiz und der dichotomen Unterscheidung in ‚Wissen/kein Wissen‘ liegt hier der Fokus auf den Individuen und individuellen Unterschieden des Wissens über wissenschaftliche Themen. Mithilfe dieser Informationen könnten gezielte Kampagnen entwickelt werden, die genau da ansetzen, wo in der Bevölkerung Wissenslücken oder falsches Wissen verbreitet sind.

Danksagung

Dieser Beitrag wurde im Rahmen des Projekts „Klimawandel aus Sicht der Medienrezipienten“ unter der Leitung von Prof. Dr. Irene Neverla und Prof. Dr. Monika Taddicken erstellt. Das Projekt war Teil des DFG-geförderten Schwerpunktprogramms 1409 „Wissenschaft und Öffentlichkeit“. Die Autorinnen danken insbesondere Dr. Ines Lörcher und Prof. Dr. Irene Neverla für die Projektarbeit sowie allen Teilnehmenden an den Studien. Ähnliche Überlegungen des Beitrags mit teilweise weiterführender Empirie wurden auf der Jahrestagung der International Communication Association (ICA) in San Diego im Mai 2017 sowie auf der Jahrestagung der DGPuK-Fachruppe „Wissenschaftskommunikation“ im März 2016 in Dresden vorgestellt (vgl. ausführlicher Taddicken et al. 2018).←132 | 133→

Literatur

Alvarez, R. Michael/Franklin, Charles H. (1994): Uncertainty and political perceptions. In: The Journal of Politics 56.3, 671–688.

Bauer, Martin W./Allum, Nick/Miller, Steve (2007): What can we learn from 25 years of PUS survey research? Liberating and expanding the agenda. In: Public Understanding of Science 16.1, 79–95.

Bauer, Martin W./Durant, John/Evans Geoffrey A. (1994): European Public Perceptions of Science. In: International Journal of Public Opinion Research 6, 163–186.

Bord, Richard J./Fisher, Ann/O‘Connor, Robert E. (1998): Public perceptions of global warming. United States and international perspectives. In: Climate Research 11.1, 75–84.

Braten, Ivar/Stromso, Helge I. (2010): When law students read multiple documents about global warming. Examining the role of topic-specific beliefs about the nature of knowledge and knowing. In: Instructional Science 38.6, 635–657.

Chang, Cheng-Chieh/Yang, Fang-Ying (2010): Exploring the cognitive loads of high-school students as they learn concepts in web-based environments. In: Computers & Education 55.2, 673–680.

Dijkstra, Edsger M./Goedhart, Martin J. (2012): Development and validation of the ACSI. Measuring students science attitudes, pro-environmental behaviour, climate change attitudes and knowledge. In: Environmental Education Research 18.6, 733–749.

Durant, John/Evans, Geoffrey A./Thomas, Geoffrey P. (1989): The Public Understanding of Science. In: Nature 340, 11–14.

Durant, John/Evans, Geoffrey A./Thomas, Geoffrey P. (1992): Public Understanding of Science in Britain: The Role of Medicine in the Popular Presentation of Science. In: Public Understanding of Science 1, 161–182.

Durant, John/Gaskell, George/Bauer, Martin W./Midden, Cees/Liakopoulus, Miltos/Scholten, Liesbeth (2000): Two cultures of public understanding of science and technology in Europe. In: Dierkes, Meinolf/Grote, Claudia von (Hrsg.): Between Unterstanding and Trust: The Public, Science and Technology. Amsterdam, 131–156.

Edwards, Paul N. (2011): History of climate modeling. In: WIREs Climate Change 2, 128–139. DOI: 10.1002/wcc.95.

Engesser, Sven/Brüggemann, Michael (2016): Mapping the minds of the mediators: The cognitive frames of climate journalists from five countries. In: Public Understanding of Science 25.7, 825–841 (pre-published online 2015).←133 | 134→

Engels, Anita/Hüther, Otto/Schäfer, Mike/Held, Hermann (2013): Public climate-change skepticism, energy preferences and political participation. In: Global Environmental Change 23, 1018–1027.

Evans, Geoffrey A./Durant, John (1995): The Relationship between Knowledge and Attitudes in the Public Understanding of Science in Britain. In: Public Understanding of Science 4, 57–74.

Flynn, D. J./Nyhan, Brendan/Reifler, Jason (2017): The Nature and Origins of Misperceptions: Understanding False and Unsupported Beliefs About Politics. In: Political Psychology 38.2, 127–150.

Gaskell, George/Olofsson, Anna/Olsson, Susanna/Fjaestad, Björn (1997): Europe ambivalent on biotechnoloy. In: Nature 387, 845–847.

Green, Colin H./Tunstall, Sylvia M./Fordham Maureen H. (1991): The risks from flooding – Which risks and whose perception? In: Disasters 15.3, 227–236.

Gross, Matthias (2007): The unknown in process – Dynamic connections of ignorance, non-knowledge and related concepts. In: Current Sociology 55.5, 742–759.

Hamilton, Lawrence C. (2012): Did the Arctic Ice Recover? Demographics of True and False Climate Facts. In: Weather Climate and Society 4.4, 236–249.

Janich, Nina/Rhein, Lisa/Simmerling, Anne (2010): “Do I know what I dont know?”. The Communication of Non-Knowledge and Uncertain Knowledge in Science. In: Fachsprache. International Journal of Specialized Communication 32.3–4, 86–99.

Johann, David (2008): Probleme der befragungsbasierten Messung von Faktenwissen. In: Sozialwissenschaften und Berufspraxis 31.1, 53–65.

Kaiser, Florian G./Fuhrer, Urs (2003): Ecological Behaviors Dependency on Different Forms of Knowledge. In: Applied Psychology. An International Review 4, 598–613.

Kerwin, Ann (1993): None too solid – Medical Ignorance. In: Knowledge 5.2, 166–185.

Kiel, Ewald/Rost, Friedrich (2002): Einführung in die Wissensorganisation. Grundlegende Probleme und Begriffe. Würzburg.

Knorr-Cetina, Karin (2002): Wissenskulturen. Ein Vergleich naturwissenschaftlicher Wissensformen. Frankfurt am Main.

Krosnick, Jon A./Holbrook, Allyson L./Lowe, Laura/Visser, Penny S. (2006): The origins and consequences of democratic citizens policy agendas. A study of popular concern about global warming. In: Climatic Change 77.1–2, 7–43.←134 | 135→

Kuklinski, James H./Quirk, Paul J./Jerit, Jennifer/Schwieder, David/Rich, Robert F. (2000): Misinformation and the Currency of Democratic Citizenship. In: The Journal of Politics 62.3, 790–816.

Lee, Chul-joo/Scheufele, Dietram A. (2006): The influence of knowledge and deference toward scientific authority. In: Journalism & Mass Communication Quarterly 83.4, 819–834.

Lee, Chul-joo/Scheufele, Dietram A./Lewenstein, Bruce V. (2005): Public attitudes toward emerging technologies. In: Science Communication 27.2, 240–267.

Lombardi, Doug/Sinatra, Gale M./Nussbaum, E. Michael (2013): Plausibility reappraisals and shifts in middle school students climate change conceptions. In: Learning and Instruction 27, 50–62.

Maier, Michaela/Taddicken, Monika (Hrsg.) (2013): Special issue: Audience perspectives on science communication. Journal of Media Psychology 25.1.

Mazur, Nicole/Curtis, Allan/Rogers, Maureen (2013): Do you see what I see? Rural landholders belief in climate change. In: Society & Natural Resources 26.1, 75–85.

McKercher, Bob/Prideaux, Bruce/Pang, Sharon F. H. (2013): Attitudes of tourism students to the environment and climate change. In: Asia Pacific Journal of Tourism Research 18.1–2, 108–143.

Medhaug, Iselin/Stolpe, Martin B./Fischer, Erich M./Knutti, Reto (2017): Reconciling controversies about the ‘global warming hiatus. In: Nature 545, 41–47.

Miller, Jon D. (1983): Scientific literacy: a conceptual and empirical review. In: Daedalus 112.2, 29–48.

Miller, Jon D. (1992): Toward a scientific understanding of the public understanding of science and technology. In: Public Understanding of Science 1.1, 23–26.

Miller, Jon D. (1998): The measurement of civic scientific literacy. In: Public Understanding of Science 7.3, 203–223.

National Academies of Sciences, Engineering, and Medicine (2016): Science Literacy – Concepts, Contexts, and Consequences. Washington, D.C.

Nisbet, Matthew C./Scheufele, Dietram A./Shanahan, James/Moy, Patricia/Brossard, Dominique/Lewenstein, Bruce V. (2002): Knowledge, reservations, or promise? In: Communication Research 29.5, 584–608.

Nolan, Jessica M. (2010): „An inconvenient truth“ – Increases knowledge, concern, and willingness to reduce greenhouse gases. In: Environment and Behavior 42.5, 643–658.

Painter, James (2013): Climate change in the Media – Reporting risk and uncertainty. Oxford.←135 | 136→

Pardo, Rafael/Calvo, Félix (2002): Attitudes towards science among the European public: a methodological analysis. In: Public Understanding of Science 11.2, 155–195.

Pasek, Josh/Sood, Gaurav/Krosnick, Jon A. (2015): Misinformed about the affordable care act? Leveraging certainty to assess the prevalence of misperceptions. In: Journal of Communication 65.4, 660–673.

Peters, Hans Peter/Heinrichs, Harald (2008): Legitimizing Climate Policy: The “Risk Construct” Of Global Climate Change in the German Mass Media. In: International Journal of Sustainability Communication 3, 14–36.

Pfister, Hans-Rüdiger/Böhm, Gisela/Bassak, Claudia (2017): Modi der Verständlichkeit und die Magie des Unverständlichen. In: Psychologische Rundschau 68.3, 203–207.

Porter, Dianna/Weaver, Andrew J./Raptis, Helen (2012): Assessing students’ learning about fundamental concepts of climate change under two different conditions. In: Environmental Education Research 18.5, 665–686.

Ravetz, Jerome R. (1993): The Sin of Science: Ignorance of Ignorance. In: Science Communication 15.2, 157–165.

Reynolds, Travis W./Bostrom, Ann/Read, Daniel/Morgan, M. Granger (2010): Now what do people know about global climate change? Survey studies of educated laypeople. In: Risk Analysis 30.10, 1520–1538.

Schäfer, Mike S. (2007): Wissenschaft in den Medien. Die Medialisierung naturwissenschaftlicher Themen. Wiesbaden.

Schäfer, Mike S./Ivanova, Ana/Schmidt, Andreas (2014): What drives media attention for climate change? Explaining issue attention in Australian, German and Indian print media from 1996 to 2010. In: International Communication Gazette 76.2, 152–176.

Scheufele, Dietram A./Lewenstein, Bruce V. (2005): The public and nanotechnology. In: Journal of Nanoparticle Research 7, 659–667.

Shephard, Kerry/Harraway, John/Lovelock, Brent/Skeaff, Sheila/Slooten, Liz/Strack, Mary/Jowett, Tim (2014): Is the environmental literacy of university students measurable? In: Environmental Education Research 20.4, 476–495.

Smith, Nicolas/Joffe, Helene (2013): How the public engages with global warming. A social representations approach. In: Public Understanding of Science 22.1, 16–32.

Smithson, Michael (1985): Toward a social theory of ignorance. In: Journal of the Theory of Social Behaviour 15.2, 151–172.

Smithson, Michael (1993): Ignorance and Science – Dilemmas, Perspectives, and Prospects. In: Knowledge 15.2, 133–156.←136 | 137→

Stocking, S. Holly/Holstein, Lisa W. (1993): Constructing and reconstructing scientific ignorance. Ignorance claims in science and journalism. In: Science Communication 15, 186–210.

Storch, Hans von (2009): Climate research and policy advice – Scientific and cultural constructions of knowledge. In: Environmental Science & Policy 12.7, 741–747.

Sturgis, Patrick/Allum, Nick/Smith, Patten (2008): In: Public Opinion Quarterly 85.1, 90–102.

Sundblad, Eva-Lotta/Biel, Anders/Gaerling, Tommy (2009): Knowledge and confidence in knowledge about climate change among experts, journalists, politicians, and laypersons. In: Environment and Behavior 41.2, 281–302.

Taddicken, Monika (2013): Climate change from the users perspective. The impact of mass media and internet use and individual and moderating variables on knowledge and attitudes. In: Journal of Media Psychology 25.1, 39–52.

Taddicken, Monika/Neverla, Irene (2011): Klimawandel aus Sicht der Mediennutzer. Multifaktorielles Wirkungsmodell der Medienerfahrung zur komplexen Wissensdomäne Klimawandel. In: Medien & Kommunikationswissenschaft 59.4, 505–525.

Taddicken, Monika/Reif, Anne (2016): Who participates in the climate change online discourse? A typology of Germans online engagement. In: Communications. The European Journal of Communication Research. Special Issue on Scientific uncertainty in the Public Discourse 41.3, 315–337.

Taddicken, Monika/Reif, Anne/Hoppe, Imke (2018): What do people know about climate change – and how confident are they? On measurements and analyses of science related knowledge. In: Journal of Science Communication 17.03, A01. DOI: 10.22323/2.17030201.

Tobler, Christina/Visschers, Vivianne H. M./Siegrist, Michael (2012): Consumers knowledge about climate change. In: Climatic Change 114.2, 189–209.

Wehling, Peter (2001): Jenseits des Wissens? Wissenschaftliches Nichtwissen aus soziologischer Perspektive. In: Zeitschrift für Soziologie 30.6, 465–484.

Weingart, Peter (2011): Die Stunde der Wahrheit? Zum Verhältnis der Wissenschaft zu Politik, Wirtschaft und Medien in der Wissensgesellschaft. Weilerswist.

Zhao, Xiaoguan (2009): Media use and global warming perceptions – A snapshot of the reinforcing spirals. In: Communication Research 36.5, 698–723.←137 | 138→

Anhang

Abb. 3: Häufigkeitsverteilung der Antworten der Items des Ursachenwissens über die vier verschiedenen Operationalisierungsalternativen (gemittelt über alle sieben Items, n=935)

image

Abb. 4: Häufigkeitsverteilung der Antworten der Items des Grundlagenwissen über die vier verschiedenen Operationalisierungsalternativen (gemittelt über alle sechs Items, n=935)

image

←138 | 139→

Abb. 5: Häufigkeitsverteilung der Antworten der Items des Folgenwissen über die vier verschiedenen Operationalisierungsalternativen (gemittelt über alle sechs Items, n=935)

image

Abb. 6: Häufigkeitsverteilung der Antworten der Items des Handlungswissen über die vier verschiedenen Operationalisierungsalternativen (gemittelt über alle neun Items, n=935)

image

←139 | 140→

Abb. 7: Häufigkeitsverteilung der Antworten der Items des Prozesswissen über die vier verschiedenen Operationalisierungsalternativen (gemittelt über alle neun Items, n=935)

image

←140 | 141→


1 Siehe z. B. https://www.theguardian.com/science/2017/may/03/global-warming-hiatus-doesnt-change-long-term-climate-predictions-study (abgerufen 5.5.2018).

2 Die Items werden hier aus Platzgründen nicht einzeln aufgelistet (die vollständige Item-Übersicht und weitere methodische Ausführungen finden sich in Taddicken et al. 2018).

3 Als problematisch für die Auswertung der fünfstufigen Skala kann jedoch gesehen werden, dass sie streng genommen keine lineare Abstufung von Wissen widerspiegelt. Personen, die sich für 1 („stimme überhaupt nicht zu“) entschieden haben, wissen nicht weniger über konkrete Aspekte als Personen, die sich für die Mitte entschieden haben. Die Skala ist also insofern lediglich quasi-metrisch.